Как относиться к искусственному интеллекту?

Алексей Горшков
Искусственный интеллект, как новая технологическая реальность, возник всего 10 лет назад. Но быстрый (если не стремительный) прогресс в области ИИ  вызывает сегодня не только надежны на технологические чудеса, но и  страх,  и беспокойство за будущее человека. Так есть ли основания для беспокойства? Должны ли мы развивать нечеловеческий разум, который в конечном итоге может превзойти нас численностью, умом, перехитрить и заменить нас всех сверх умными роботами? Стоит ли нам рисковать потерей контроля над нашей цивилизацией?
Эти вопросы были поставлены в сентябре в открытом письме общественной организации «Институт будущего жизни» , который призвал.  к шестимесячной «паузе» в создании самых передовых форм искусственного интеллекта. Письмо  было подписано технологическими светилами, включая Илона Маска. 
Этот призыв можно понять, поскольку  новые «большие языковые модели» ( llm ) — те, которые лежат в основе Chat gpt , чат-бота, созданного стартапом Open ai , — удивили даже своих создателей своими неожиданными талантами.  Уже сегодня ИИ способен на «чудеса»:  быстро решать логические  головоломки,  написать компьютерный код,  распознать фильм по краткому изложению сюжета, написанному смайликами.....Но этот лишь «цветочки»...  Сторонники ИИ утверждают, что он способен решать большие проблемы путем разработки новых лекарств, разработки новых материалов для борьбы с изменением климата или решения сложных задач термоядерного синтеза.  А вот противников ИИ пугает тот факт, что возможность искусственного интеллекта уже превосходят понимание своих создателей, что порождает риск воплотить в жизнь научно-фантастический сценарий катастрофы человеческой цивилизации, которую уничтожат умнейшие машины..
 Первая волна современных систем ИИ, появившаяся десять лет назад, опиралась на тщательно размеченные данные обучения. Получив достаточное количество маркированных примеров, они могли научиться распознавать изображения или расшифровывать речь. Сегодняшние системы ИИ не требуют предварительной маркировки, и в результате их можно обучать, используя гораздо большие наборы данных, взятые из онлайн-источников. по сути, llm можно обучать через весь Интернет,  а это означает,что ИИ обучается и хорошему, и плохому, и Добру, и Злу... 
Эти возможности стали очевидны широкой публике, когда в ноябре 2022 был выпущен Chat gpt , которым  воспользовались  100 миллионов человек за два месяца. Вскоре его начали использовать для написания школьных сочинений и свадебных речей, а  microsoft  намерен включить его в свою поисковую систему .

Недавнее увеличение мощности и заметности систем искусственного интеллекта , а также растущее осознание их способностей и недостатков вызвали опасения, что технология сейчас развивается так быстро, что ее невозможно безопасно контролировать. Отсюда призыв к паузе и растущая обеспокоенность тем, что ИИ может угрожать не только рабочим местам, фактической точности и репутации, но и существованию самого человечества. Кошмар заключается в том, что продвинутый ИИ способен причинять вред в огромных масштабах, создавая яды или вирусы или убеждая людей совершать террористические акты. У ИИ не обязательно должен быть злой умысел: исследователи обеспокоены тем, что цели будущих ии могут не совпадать с целями их создателей-людей.
 
 Так нужны ли какие-то общие правила обучения ИИ? На данный момент правительства используют три разных подхода.  Великобритания, которая предложила «мягкий» подход без новых правил или регулирующих органов,  чтобы увеличить инвестиции и превратить Великобританию в «сверхдержаву искусственного интеллекта». Америка применила аналогичный подход, хотя администрация Байдена сейчас выясняет мнение общественности о том, как может выглядеть свод правил....
ЕС занимает более жесткую позицию . Предлагаемый закон классифицирует различные виды использования ии по степени риска и требует все более строгого мониторинга и раскрытия информации по мере того, как степень риска возрастает, скажем, от рекомендации музыки до беспилотных автомобилей. Некоторые виды использования им
вообще запрещены, например, подсознательная реклама и удаленная биометрия. А третьи говорят, что необходим еще более жесткий подход. Правительствам следует относиться к ии как к лекарствам: иметь специальный регулятор, проводить строгие испытания и предварительное одобрение перед публичным выпуском. Китай отчасти делает это, требуя от компаний регистрировать продукты искусственного интеллекта и проходить проверку безопасности перед выпуском.
 
Эта мощная технология создает новые риски, но также открывает исключительные возможности. Сбалансировать эти два фактора означает действовать осторожно. Взвешенный подход сегодня может обеспечить основу для добавления новых правил в будущем. Но пришло время начать закладывать эти основы.

Источник: The Economist, APR 22ND 2023, How to worry wisely about AI