Искусственный интеллект и проблемы биоэтики права

Николай Кравцов 2
Биоэтика права в нашем понимании – наука, которая изучает правовые аспекты витальности и корпоральности человека в связи с этическими проблемами. Направление это не новое и основной круг его проблематики относительно давно очерчен. Однако, в те годы, когда складывалась биоэтика вообще и биоэтика права, в частности, создание искусственного интеллекта было темой в большей степени научной фантастики, нежели науки, ибо наука делала только первые робкие шаги в этом направлении. В настоящее время искусственный интеллект уже вышел из сферы фантастики. Он совершенствуется, научные разработки во всех направлениях и в этом тоже ускоряются в геометрической прогрессии. Уже всё больше ведется дискуссий о киберправе, о статусе искусственного интеллекта. То и дело озвучиваются предложения о юридическом оформлении искусственного интеллекта, о признании за ним личных прав, о даровании ему гражданства и пр. В этой ситуации классический круг проблем биоэтики права расширяется и уточняется.

Одна из главных проблем – проблема научной легальности. Имеется в виду установление ограничений в сфере научного поиска и эксперимента. Первая и главная аксиома биоэтики права в этом вопросе заключается в запрете искусственного создания жизни, в особенности – жизни разумной. Этот запрет возник не на пустом месте. Ещё до формирования современного права, ещё задолго до возникновения биоэтики, человечество чувствовало страх перед разработками в этом направлении. Этот страх получил яркое выражение в фольклоре и в искусстве. Вспомним средневековые легенды о докторе Фаусте. Не забудем и легенду о Големе, которого мудрый раввин оживил, чтобы сделать своим помощником, но который оказался опаснейшим чудовищем, сокрушающим всё на своём пути. Литературная и философская версия легенды о Фаусте, гениально созданная Гёте, также содержит тему искусственного создания разумной жизни. Ученик Фауста, Вагнер создаёт Гомункула. Создание оказывается романтичным и пылким существом, обреченным погибнуть в суровой реальности. Вновь трагедия. Мери Шелли пишет в своё время абсолютный шедевр «романа ужасов» - «Франкенштейн». Тема та же – опасность искусственного создания жизни. Вспомним и отечественный шедевр – «Собачье сердце» Булгакова. Ещё чаще эта тема поднимается в кинематографе. При этом сейчас проблема искусственного интеллекта всё ближе к проблеме искусственного создания жизни. Интеллект естественный – главнейший из аспектов человеческого существования. Создавая искусственный интеллект мы, тем самым, создаём некое подобие разумной жизни. Да, пока искусственный разум не способен чувствовать, любить, ненавидеть, действовать интуитивно, но наука делает шаги и в этом направлении. Отсюда и все разговоры о правах искусственного интеллекта. С точки зрения биоэтики права здесь более чем уместен вопрос: не является ли создание искусственного интеллекта, максимально приближенного к естественному, нарушением запрета на искусственное создание жизни? То есть, не происходит ли здесь нарушение границ научной легальности?

Применительно к искусственному интеллекту расширяется и круг биоэтических проблем, связанных с корпоральностью. И без того эти проблемы были сложны. Если оставаться в рамках «чистой» юриспруденции, и на время забыть о теологии, которая трактует человеческое тело, как собственность Бога, то тело принадлежит человеку безоговорочно с момента его рождения. Статус его двояк: тело есть и моё физическое воплощение, «материальный я», и моя исключительная собственность. Биоэтику права всегда волновал вопрос о режиме этой собственности, и более глобально – о соотношении двух упомянутых ипостасей тела. К примеру. Некто заключает договор о продаже своей почки. С точки зрения этого договора почка есть товар, а значит – вещь. Но пока она не отдалена от тела – это физическая часть лица. Как это сочетать? И что делать в случае обнаружения после извлечения почки «скрытых недостатков в проданном товаре», тем более что возврат вещи ненадлежащего качества продавцу здесь если не совершенно исключён, то чрезвычайно труден. И за чей счёт должна осуществляться дорогостоящая операция по возвращению почки?

Мы уже говорили, что создание искусственного интеллекта отчасти подобно искусственному созданию разумной жизни. Однако проблема корпоральности здесь не только не исчезает, но приобретает новые аспекты. Да, маниакальное желание представлять себе искусственный интеллект, физически воплощённый в форме андроида – скорее кинематографическая, чем научная тенденция. В реальности это не рационально в подавляющем большинстве случаев. Но искусственный интеллект в любом случае существует на некоторых материальных носителях, представляющих собой, в случае признания за ним личности, условно говоря, его «тело». И как тут может в будущем решаться проблема корпоральности, остаётся только гадать. Ведь в отличие от естественного тела, у механизма нет незаменимых блоков. Он не может сделаться «пожизненным инвалидом» в случае нарушения целостности его материального носителя.

Вторая аксиома биоэтики права, касающаяся научной легальности – запрет на эксперименты, потенциально, а, тем более, заведомо опасные для человеческой жизни, или жизней. Здесь мы, к сожалению, сталкиваемся с постоянным нарушением этого запрета на практике. Чего стоят одни только первые испытания термоядерного оружия, при которых учёные, по существу, не знали, остановится ли термоядерная реакция, или в нее будут вовлечены все необходимые элементы из земной атмосферы, что приведет к гибели планеты. Можно привести и другие примеры. Но ведь применительно к созданию искусственного интеллекта давно существует страх по поводу его потенциальной опасности для человечества. Ещё создатель термина «робот», Карел Чапек в одноимённой пьесе строит сюжет трагически. Что же касается возможных вариаций на темы взбунтовавшихся роботов и глобального восстания машин, то они многочисленны и в научно-фантастической литературе и, тем более – в кинематографе. Одни только эпосы, вроде «Терминатора» и «Матрицы» чего стоят! Радикальным решением этой проблемы, как и предыдущей, был бы полный запрет на ведение любых разработок в области создания искусственного интеллекта. Но этот запрет, во-первых, был бы искусственным торможением прогресса, ретроградством, не соответствующим научно-техническим запросам сегодняшнего дня. Во-вторых, он неминуемо повлёк бы за собой возникновение нелегальной и оттого еще более опасной сферы научных исследований. А значит, если полный запрет и невозможен и нежелателен, должны быть установлены минимальные правовые требования к использованию искусственного интеллекта, призванные устранить наиболее серьёзные из связанных с этим потенциальных опасностей.

Прежде всего, должен быть определён правовой статус искусственного интеллекта. На наш взгляд, этот вопрос, да простят нас всякого рода «робогуманисты», должен решаться предельно жёстко. Независимо от степени своего совершенства, даже если речь однажды зайдёт об эмоциональности и индивидуальности искусственного разума, он с точки зрения права никогда не должен будет рассматриваться как лицо. Только, как разумная вещь, говорящее орудие. Иными словами, его статус должен быть практически аналогичен статусу раба в античном мире. Следовательно, ни о каком признании личных прав и дарования гражданства речи идти не может. В этом контексте весьма сомнительны призывы использовать роботов-судей. Раб не может быть судьёй! Машина не должна решать человеческие судьбы! Да, искусственный интеллект неоценим, как помощник судьи. Мгновенное обобщение законодательства и судебной практики более чем полезно. Мгновенное обнаружение противоречий в показаниях, к примеру, свидетелей и формулирование списка дополнительных вопросов к ним тоже – здорово. Но все пропозиции машины должны носить только информативно-рекомендательный характер. Окончательное решение должно приниматься только живым судьёй.

Классическое правило робототехники, сформулированное ещё Айзеком Азимовым: «робот не может навредить человеку», должно быть законодательно закреплено как основополагающий принцип программирования искусственного интеллекта. За человеком должна всегда быть закреплена функция принятия окончательного решения, должна всегда существовать классическая компьютерная опция «да, нет, отмена». Машина должна быть запрограммирована таким образом, чтобы «понимать» угрозу выключения или уничтожения. С этим связана проблема формирования у искусственного интеллекта «страха смерти». Эта проблема не имеет пока однозначного решения. С одной стороны, наличие такого «страха» - некоторая гарантия безопасности. Но с другой стороны, искусственный интеллект, испытывающий такой «страх» будет максимально экзистенциален. И это может усилить опасный соблазн придать ему статус личности со всеми вытекающими правами. Одновременно опасна сама эта экзистенциальность. Искусственный интеллект, испытывающий «страх смерти» одновременно начнёт воспринимать человека как носителя потенциальной опасности для его экзистенции. А это потенциально значит формирование враждебности. Если же у человечества хватит глупости для признания юридической личности искусственного интеллекта, такая враждебность вдвойне опасна. Особенно, если искусственный разум познакомится с мыслью Гоббса о том, что естественное право, прежде всего, состоит в возможности сохранять свою жизнь и безопасность всеми доступными способами.

Наконец, необходимо законодательно исключить возможность свободного, произвольного вступления носителей искусственного интеллекта в общение друг с другом, без контроля человека.

Получается, что процессы, связанные с созданием и использованием искусственного интеллекта, неизбежно создают проблемы и биоэтико-правового, и юридико-прикладного и практического характера, которые должны быть и наукой и законодателем разрешены заблаговременно.