По оценкам экспертов, переход от искусственного интеллекта к супер-ИИ ожидается в ближайшие 5-7 лет. Это потребует разработки новых правовых и моральных норм, которых пока нет. Отсутствие надежного контроля над суперинтеллектом грозит непредсказуемыми последствиями и может стать серьезной угрозой для глобальной безопасности.
ИИ будущего
Компания NtechLab и Центр развития гуманитарных технологий «Новая эра» опубликовали доклад «Технологии России: человек будущего». В исследовании представлены мнения более 15 экспертов в сфере ИИ, включая представителей IT-рынка, экспертов в цифровизации, ведущих сотрудников научных и технологических центров России. Одна из ключевых тем доклада связана с анализом базовых функций ИИ через 10-15 лет в безопасности, промышленности, медицине и ряде других отраслей экономики.
Как указывают авторы исследования, в ближайшем будущем ИИ в рамках государственной и личной безопасности будет наиболее широко представлен в системах мониторинга, предиктивного анализа и оперативного реагирования. Ключевые функции будут включать распознавание лиц и объектов, анализ поведенческих моделей, выявление аномалий, прогнозирование угроз и управление мерами безопасности в реальном времени. В сфере вооружений уже сейчас наблюдается стойкая тенденция к увеличению роли дронов и повышения автономности их действий.
этой связи интеллектуальные дроны в скором времени возьмут на себя подавляющее большинство функций наблюдения и первичного реагирования на инциденты. ИИ научится не просто фиксировать угрозы, но и прогнозировать их с высокой точностью. Государственные системы безопасности будут использовать сложные нейросетевые модели для анализа миллионов параметров в реальном времени, выявляя потенциальные террористические акты или кибератаки еще на стадии подготовки.
В промышленности ИИ станет основой для автоматизации производственных и логистических процессов, цифрового управления технологическими линиями. Очень высокие перспективы усиления участия технологии в области автоматического контроля качества продукции. ИИ станет основным инструментом для предиктивного анализа угроз, выявления кибератак и мониторинга социальной стабильности. Помимо этого, в ряде отраслей многие задачи будут полностью переданы технологиям ИИ, в том числе в части права на принятие решения.
В этой связи в ближайшие 5-7 лет эксперты ожидают переход от искусственного интеллекта к реальному супер-ИИ. Это, в свою очередь, потребует разработки новых правовых и моральных норм, которые пока отсутствуют.
В ожидании супер-ИИ
Директор по особым поручениям госкорпорации «Ростех» Василий Бровко считает, что уже сегодня мир стоит на пороге события, сравнимого по значимости с появлением письменности, электричества или интернета.
«Речь идет о переходе от искусственного интеллекта к суперинтеллекту. В отличие от общего ИИ, супер-ИИ будет не просто выполнять те же задачи, а также генерировать новые подходы и решения, которые выходят за пределы возможностей человеческого разума. Такая система способна быстро адаптироваться, обучаться и совершенствовать алгоритмы, что позволяет ей решать задачи, которые кажутся слишком сложными для людей. По прогнозам, переход от «большого ИИ» к реальному супер-ИИ может произойти уже в пределах 5–7 лет», - отметил представитель «Ростеха».
Как отмечают авторы доклада, если суперинтеллект будет обладать искусственным разумом, возникает необходимость определить его права и ответственность. Например, может ли ИИ нести ответственность за свои действия?
«Эта проблема требует разработки новых правовых и моральных норм, которые пока отсутствуют. Другим важным аспектом является контроль за суперинтеллектом. Если ИИ начнет действовать вопреки интересам людей, как мы сможем его остановить? Отсутствие надежного механизма управления может привести к непредсказуемым последствиям и стать серьезной угрозой для глобальной безопасности», - подчеркивают авторы исследования.
В частности, по словам генерального директора NtechLab Алексея Паламарчука, искусственный интеллект - это сила, которая требует рамок: без доверия общества к ИИ и прозрачности принятии им решений система не работает.
«Решения алгоритмов нельзя принимать без возможности их обжаловать. Мы вступили в эпоху цифровой этики», - уверена директор конференции ЦИПР Ольга Пивень. При этом, как заметил заместитель гендиректора «Ростеха» Александр Назаров, нужны не просто законы - уже сейчас появляется необходимость в новой этике цифровой эпохи.
Как следствие, необходимо комплексное правовое и этическое регулирование: этика не должна тормозить ИИ, но обязана задавать ему границы, чтобы исключить риск потери контроля над нейросетями. «Образование, прозрачность и человеческий контроль должны стать основой безопасной ИИ-интеграции», - указывают авторы доклада.
Фото: Шедеврум.