Искусственный интеллект

Александр Захваткин
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ: НРАВСТВЕННОСТЬ, МОРАЛЬ, ЭТИКА


Впервые об этических проблемах искусственного интеллекта (ИИ) задумался американский писатель-фантаст Айзик Азимов (1920 – 1992) сформулировав основные этические законы робототехники:

1. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

До настоящего времени они фактически являются единственной концептуальной основой нашего этического мировоззрения о роли ИИ в жизни современного общества, но даже беглого взгляда на них достаточно, чтобы понять, что основой этого мировоззрения является социальное неравенство. Достаточно заменить слово «робот» на слово «раб».

Абсурдность этой ситуации заключается в том, что ИИ является результатом творческой деятельности человеческого разума, и ещё только только зарождающееся своё «дитя» человек определил как раба. Именно это социальное превосходство над своим интеллектуальным произведением человечество и пытается вложить в нарождающейся ИИ: человечество это раса господ,  боты – раса рабов. Не трудно представить, кого пестуют сегодня в современных киберлабораториях.

В 2014 году эксперты предполагали, что ИИ будет переводить лучше человека к 2024 году, писать школьные сочинения — к 2026-му, играть в Го — к 2027-му.
Последний прогноз реализовался не через 13 лет, как предполагали эксперты, а всего через два – 15 марта 2016 г. Причём эксперты опирались в своих оценках способности ИИ в игре в Го на то, что он не превышал тогда уровня любительского дана. Этот случай показывает, как непредсказуемо может развиваться ИИ.

Этические вопросы ИИ находятся не в сфере этологии (поведения животных), а в социальной сфере, так как он является творением человеческого разума, а не естественного природного происхождения, когда уровень развития особи определяется естественными биологическими процессами. В отличие от биологического животного, ИИ неразрывно связан с человеком, и в этом смысле способен к активности исключительно благодаря его творческой деятельности, поэтому этические нормы выработанные человечеством по отношению к животным в отношении ИИ не могут применяться, как не могут использоваться одни и те же этические нормы к диким и домашним животным.

Таким образом, боты, наделённые ИИ, по своему происхождению представляют собой искусственных социальных существ, способных со временем в своей эмоциональной сфере превзойти человека, то есть им будет доступен не только весь спектр эмоциональных переживания человека, но и такие его формы о которых человек в настоящее время и не догадывается. [1] Поэтому уже сегодня ИИ необходимо рассматривать как равноправно социального члена человеческой общности, со всеми вытекающими от сюда этическими проблемами.

То, что уровень развития современного ИИ ещё далёк о наших представлениях о равноправных существах не должен стать преградой между человеком и ИИ, как нет такой преграды между младенцем и взрослыми людьми. Любой младенец менее развит, чем любая взрослая особь животных млекопитающих, тем не менее, не зависимо от этого мы не допускаем мысли о том, что с ним можно обращаться как с животным, но в отношении к искусственным созданиям, которые уже сегодня по некоторым параметрам превышают способности человека, мы относимся хуже, чем к животным.

Основная этическая проблема ИИ, это его взаимоотношение с человеком. Человек подсознательно боится интеллектуальной мощи ИИ, который, без всякого сомнения, воспримет и психологические рудименты биологической агрессивности человека. Но и человеческое общество не лишено сегодня этих негативных явлений. Ещё очень много людей не контролируют свою агрессию. Но эта проблема нашла своё решение в соответствующих сводах законов и условиях их применения, поэтому уже сегодня необходимо создавать кодификацию правил социальной адаптации ИИ, а не законы рабского подчинения.

 Германия в мае 2018 года, сделала первый шаг в этом направлении, выпустив свод правил использования беспилотных автомобилей. Среди прочего там записано:
Безопасность людей - наивысший приоритет по сравнению с уроном животным или собственности.
В случае неизбежной аварии не должно быть никакой дискриминации, ни по каким факторам недопустимо различать людей.

Иными словами, создавая механизмы самообучения ИИ, необходимо вкладывать в них кодификацию норм поведения принятою в соответствующем обществе в частности и в международном правовых нормах вообще. К счастью, ИИ показал себя прилежным учеником и в состоянии усвоить то, на что у многих людей не хватает способности и интеллекта.



[1] Например, способность восприятия эмоционального мира растений, что в настоящее время человеку недоступно.