Чем нам угрожает искусственный интеллект?

Жека Никитин
 
                Двадцать первый век стал отправной точкой по развитию и внедрению искусственного интеллекта (ИИ). С каждым днём он становится все умней и умней, более разумней. Роботы становятся все страшней и это лишь вопрос времени, когда умные, но холодные сердцем роботы прочно войдут в обиход. Хотя нам пророчат их использование в благих целях и намерениях, и, хотя японские инженеры радуются рождению ребёнка-робота, с искусственным интеллектом пятилетнего мальчугана, китайские полицейские силы тестируют полицейских-роботов. Корпус морской пехоты США имеет несколько роботов, чей интеллект управляет пулемётными турелями.
                Конструкторы успокаивают, что большинство роботов военного характера могут реагировать только на предварительно запрограммированные команды, и должны управляться человеческим оператором. Насколько это безопасно, можно удостовериться в сети, где достаточно видео, когда подобные роботы выходят из строя и обращают своё оружие против их же создателей, на полигоне.
                Более того, достижения в области искусственного интеллекта могут позволить роботам владеть оружием и действовать автономно — даже если это означает использование оружия против людей. И такие случаи уже есть при использовании беспилотников. Оператор сидящий за их управлением, не видит, и не ощущает конкретную цель и не испытывает морального угрызения совести, при нажатии на гашетку оружия беспилотника. Для него, это просто компьютерная игра.
                Ученые будущего продвинули смертоносных роботов ближе к реальности. Студенты Devendra Chaplot и Guillaume Lample разработали систему искусственного интеллекта, которая значительно превзошла прошлый компьютерный ИИ. Эта новинка использует глубокие системы обучения и вознаграждения, поощряя ИИ убивать других игроков получше. Тестирование велось в классическом стиле от первого лица игры. Затем они опубликовали результаты тестирования, однако, их методы до сих пор не рецензированы. Один из авторов исследования, Devendra Chaplot, в пресс-релизе оговаривается и подчёркивает: «система не разработана для тренировки искусственного интеллекта убивать людей. Мы просто обучили его качественно играть в игру».
                Хотя многие специалисты отметили, система легко переносима и адаптивна с другими устройствами. Это означает, что ИИ можно задействовать не только в сценариях видеоигр. Достаточно визуальные входы системы подключить к уличным камерам, и вот ИИ уже легко отслеживает городские улицы, и может стрелять в реальных людей, а не игровых аватаров. Собственно, недавно, почти об этом же говорил и глава следственного комитета России, подчёркивая, что чрезмерное насыщение контролирование населения России, чревато не просто абсурдом, а далеко идущими негативными последствиями.
                По правде, жутковато становится, когда представляешь, чем могут заниматься учёные работающие на военно-промышленный комплекс. Ведь они вероятно, разрабатывают собственные убойные системы искусственного интеллекта и не вопрос, что в будущим потомкам придётся решать вопрос кто кого «оседлает» и поставит себе на службу — робот суперновой модели или человек?
Созданный человеком искусственный интеллект может обернуться самым большим бедствием, составив конкуренцию человеческой цивилизации, став при этом одной из самых серьезных угроз человечества.
                Предвидение такой опасности исходило и от известного физика Стивена Хокинга: «Для нашего времени это конечно потенциальная угроза, но в один «прекрасный день» будущего, искусственный разум может разработать «собственную волю». Теперь пришло время всерьёз подумать над этим вопросом».
                Он в очередной раз выступил с предупреждением, что искусственный интеллект может развиться в совершенную мыслящую структуру. Настолько сложную и разумную, что она овладеет способностью расти и понимать мир согласно своей собственной воли, которая может вступить в противоречие с планами человечества.
                Это может привести к возникновению мощного оружия, спровоцировать потерю человечеством контролируемой территории и поэтому Хокинг призывает исследователей к тщательному изучению проблемы поведения искусственного интеллекта, и его возможностей в будущем.
                Хокинг не отклоняет идею искусственного интеллекта в негативную область, а только указывает, что если мы сделаем нашу работу и исследования достаточно хорошо, то сможем избежать потенциальных опасностей. При нормальном участии человека в этой программе, ИИ может помочь человечеству искоренить болезни и бедность. «Я считаю, что нет глубокой разницы между тем, что может быть достигнуто с помощью биологического мозга и что может быть достигнуто с помощью компьютера. Таким образом следует, что теоретически, компьютеры могут имитировать человеческий интеллект и превзойти его». - С.Хокинг.
                Он считает, что потенциальные выгоды от участия ИИ в нашей жизни велики. Такая технологическая революция может помочь человечеству исправить некоторый ущерб, нанесенный планете. Успех в создании ИИ может стать крупнейшим событием в истории цивилизации, но также это может быть последним шагом в истории человечества, если мы конечно не узнаем, как избежать рисков, ведь наряду с преимуществами, ИИ может представлять опасности: мощные виды оружия, новые способы для немногих угнетать многих. В конце концов, это может завершиться доминированием железных тел над биологическими, вызвав большие катастрофы в будущем. К тому же, если ИИ, а мы говорим о разуме со способностью инициативы выбора вариантов поведения, вступит в конфликт с жизненными аспектами человека? Ведь тогда послушный железный помощник на кухне может переквалифицироваться в диктатора условий! Развитие мощного ИИ будет либо лучшее, либо самое худшее, что когда-либо случиться с человечеством.
                Мы не знаем, какой вариант событий ожидает в будущем, говорит профессор Хокинг. «Искусственный интеллект соколом взовьется к высотам развития, взращивая самостоятельность, проводя редизайн своей сути со всё возрастающей скоростью», — ошеломляет выводами учёный. Люди, ограниченные медленным ходом биологической эволюции, слабые телом, не смогут конкурировать с быстродействием ИИ и нас, может поглотить его техноцивилизация.
                Хокинг говорил, что человеческая раса улучшила свои умственные и физические свойства, но генетически модифицированная раса сверхлюдей, обладающая превосходной памятью и иммунитетом к болезням, превзойдет остальные. Сверхлюди могут уничтожить человечество. «Как только появятся такие сверхчеловеческие существа, возникнут серьезные проблемы политического свойства, связанные с неусовершенствованными людьми. Предположительно, они либо вымрут, либо не будут иметь никакого значения. Вместо них появится раса самоконтролируемых существ, совершенствующих себя со все возрастающей скоростью» (из книги Хокинга «Краткие ответы на большие вопросы», 2018 год).
                И они уже появились, правда им до сверхлюдей ещё, как до ближайшей звезды, однако их «звезданутость» уже перешла все рамки дозволенного, и пора вот эту скорость манипуляции людьми снижать до нуля. В противном случае нас всех ждёт не просто упадок, а уничтожение цивилизации.
                Ученый в этой книге предостерегал об опасности восстания машин: «С помощью генной инженерии мы сможем усложнить ДНК и усовершенствовать человечество. Но это будет медленный процесс: придется ждать около 18 лет, чтобы увидеть первый эффект от изменений в генетическом коде. Компьютеры, в свою очередь, удваивают свои скорости и память каждые 18 месяцев. Существует реальная опасность, что они разовьют интеллект и захватят власть (из интервью The Telegraph 18 октября 2001 года).
                Вам не кажется это просто случайностью, то, что творится сейчас с вакцинами и вообще с внедрением, в «святая – святых» или геном человека? И делают это, как не странно ИИ создавая вакцины от невыделенного вируса т.е на 90% теоретически, отсюда и количество смертей от неработающих вакцин.
                Многим знаком фильм «Терминатор», в котором искусственный интеллект вышел из-под контроля и объявил войну всему человечеству. Подобные сценарии встречаются и в менее известных фильмах, например, в работе «Вирус», где компьютер воспринимал человека как вирус и пытался уничтожить. Может и ковид настроен видеть человека, как вирус и уничтожает его. Это уже становится не смешно!
                Сегодня, в век высоких технологий, невольно возникает вопрос: насколько вероятна возможность реализации подобного сценария в реальности? Машины, пусть пока в результате технического сбоя, виной которому антропогенный фактор, выходят из строя и последствия становятся самые ужасные. Огромное количество несчастных случаев по вине роботов происходит на крупных промышленных предприятиях и фабриках, где в немалом количестве присутствуют руки-манипуляторы, конвейеры, складские роботы и прочие механизмы. Первый такой случай произошел еще в далеком 1979 году, когда рабочий фабрики Ford скончался в результате удара по голове, нанесенного роботом весом в тонну. Правда в данном случае, скорее сказалась техника безопасности.
                Гораздо более страшный случай произошел в японском городе Акаси в 1983. году, где инженер, чинивший робота, был столкнут последним в дробилку. Как было выявлено позже, работник завода случайно задел тумблер и машина включилась.
                В 2015 году на заводе Volkswagen промышленный робот схватил 21-летнего инженера и буквально расплющил его об лист металла. Виной всему назвали несоблюдение работником техники безопасности, так как инженер находился в металлической клетке, которая окружает роботов, обрабатывающих металл. Его коллега по цеху, находящийся за пределами злополучной клетки, не пострадал.
                А на заводе автозапчастей в Детройте в том же году тот же робот, специализирующийся на обработке металлов, неожиданно вышел из строя и раздавил голову работнице завода, а затем попытался поместить ее в зажим.
                20-летняя сотрудница завода Ajin USA погибла всего за пару недель до свадьбы. Именно в этот трагичный день она решилась восстановить работоспособность поломанного робота. Но устранение этой поломки находилось вне компетенции сотрудников фабрики. В процессе починки робот неожиданно перезагрузился и толкнул работницу в другую машину.
                Все описанные примеры относятся скорее к невнимательности сотрудников, выполнявших работу и к несоблюдению техники безопасности. Однако, может и произойти «прозрение» машины, и они будут убивать уже по злому умыслу. 
                В 2007 году 9 южноафриканских солдат погибло в результате вышедшей из-под контроля системы противовоздушной обороны. Зенитная установка, предназначенная для автоматического обнаружения и ликвидации наземных целей, в результате программного и механического сбоя вышла из строя, а затем выпустила двести пятьдесят фугасных снарядов по своим же солдатам, находящимся вблизи. 9 человек погибли, еще 14 пострадали. Это далеко не первый случай выхода из строя автоматических зенитных установок.
                Проблемы случаются и с системами автопилотирования. В 2009 году был зафиксирован инцидент, приведший к крушению самолёта. При посадке автопилот заблокировал положение подкрылков и выключил возможность ручного отключения. В итоге самолёт зашёл на посадку под неправильным углом, что привело к трагедии. Пилоты попросту не успели понять, как можно оперативно отключить эту блокировку.  А чего стоят компьютерные вирусы, которые живут своей жизнью и часто отравляют нам жизнь. Те же программы-трояны, которые могут спокойно закидывать нас рекламой или воровать данные карточки. Представим на секунду, что такой троян окажется в какой-то системе жизнеобеспечения или другой важной системе.
                Если научить компьютер обучаться, он сможет обучиться и защите от внешнего вмешательства. Или скрывать запущенные процессы. Можно ли считать сбои недоработкой программного обеспечения и стандартной ожидаемой ошибкой, или же мы имеем дело с уже некоторыми элементами искусственного интеллекта, ориентированного против нас.
                Человечество на протяжении десятилетий готовится к войне с более умными, действующими по заранее заложенным программам устройствами и главная роль в войнах будущего отводится нейросетям, программированием и обучением которых заняты целые институты и крупные департаменты IT-корпораций.
                Главная проблема и боязнь учёных и IT-бизнесменов заключается в том, что встроенные в цепи управления нейросети перепишут заложенные в них алгоритмы и начнут самообучаться, постепенно заполучив в свои коварные лапы всю инфраструктуру. Отчасти страхи учёных и глав корпораций оправданны — алгоритмы самообучения нейросетей уже написаны и давно функционируют. Одним из наиболее удачных примеров является SOINN — самоорганизующаяся инкрементная нейронная сеть, созданная специалистами японской компании Hasegawa. Эта программа действительно помогает роботу быстрее обучаться простейшим операциям на производстве и имеет большой потенциал. Единственное, о чём забывают активисты за запрет нейросетей, — любые математические параметры, вплоть до пределов самообучения, нейросетям задают люди. По крайней мере, пока.
                Настоящие проблемы начнутся в тот момент, когда нейросети, «натасканные» машинным обучением и подсмотревшие за тем, как могут действовать люди, будут подключены к цепям управления боевыми информационными системами. Уже известно, что в начале 2019 года армия США может объявить конкурс на создание нейросетей, облегчающих пилотирование ударных вертолётов AH-64D Apache. Какие конкретно функции будет выполнять электронный мозг, пока не известно, но не исключено, что нейросеть на определённом этапе задействуют для определения приоритетов и важности целей, а затем привлекут для нанесения ударов. Возражения о том, что машина должна лишь выполнять команды человека, принимаются и понимаются даже на таком уровне, как Пентагон, поэтому до появления квантовых компьютеров беспокоиться не о чем — традиционные математические алгоритмы, пусть и с трудом, но поддаются контролю со стороны операторов.
                Математики считают, что подвести человечество под монастырь могут всего две вещи: слепая вера в нейросети и квантовые компьютеры. По первому пункту человечество уже давно и крайне уверенно летит в пропасть — сейчас нейросети соединяют с суперкомпьютерами для математического поиска сверхпроводников и жизни на других планетах, доверяют программам защиту человечества от рака и пандемии, а завтра в кластер доверия попадёт управление контурами на АЭС. Послезавтра каждая подстанция, ГЭС, отделение почты и воинская часть будут оснащены искусственным интеллектом, и ничего хорошего это людям не сулит.
                Игры с автоматизацией неизбежно приведут к внедрению нейросетей в боевые системы. Квантовые компьютеры позволят нейросетям обучаться практически без предела по объёму получения данных — учитывая скорость обработки "больших чисел" в таких компьютерах, незначительную мелочь нейросеть изучит примерно секунд за тридцать, а может быть, и меньше. Что дальше система будет делать с такими данными — зависит только от тех, кто её написал и создал. Если нейросеть создавалась с целью нанести максимальный ущерб экономике противника через кибератаки и заражение вредоносными программами, она обязательно выполнит поставленную задачу.
                До включения человека в «расстрельный список» нейросетей уже недалеко. Когда люди будут лишены связи и возможности координировать действия, в дело могут вступить самые настоящие боевые машины с искусственным интеллектом, внезапно сообщающие через громкоговоритель, что в вашем городе объявлен комендантский час или чрезвычайная ситуация, в процессе которой вас всех быстро эвакуируют в какую – нибудь яму.
                А может и сегодняшняя пандемия, уже является программной игрой. Ведь кто – то стоит за этим преступлением века?
                А пока идёт такая «пристрелка», сильные мира сего, включающие в себя и оболваненных, правителей, посредством учёных «фантастов», пытаются строить метавселенную с использованием ИИ и хлопая при этом в ладоши.