Три закона, роботы

Изабар Гежб
Три зако;на роботехники в научной фантастике — обязательные правила поведения для роботов, впервые сформулированные Айзеком Азимовым в рассказе «Хоровод» (1942). (Википедия).
Азимов был фантастом-писателем, тем более в то время он мало что мог понимать о компьютерных системах, программных кодах. Однако, следует принять, что с морально-этической стороны он был, безусловно, прав, и при создании робота, в принципе, любого, а не только такого, которому надлежит взаимодействовать с людьми, — необходимы какие-то базисные ограничения в процессоре робота, координирующие его поведение. Тем не менее, вопрос актуален (теперь, когда развитие роботов обозначилось и технически и социально): как эти законы записать в "голове" робота? Обратимся опять к Википедии:

Законы гласят:
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Что здесь "не так"? Первый закон вполне выполним, чтобы "дать понять" роботу, что человеку не может быть причинен (им) вред, и т.д., нужно поместить в робота сканер биоволны, датчик, по которому мозг робота будет четко определять, что объект рядом с ним — человек, или любое другое живое существо. Потому что причинив нечаянно вред домашнему коту владельца... робот нарушит первый закон: причинение морального/психического вреда.
Итак, сканер биоволны есть, в процессоре робота человек (и любое другое существо биологической природы) отображается как... скажем, пучок излучения, моделью биологической формы. И как робот будет определять, что является вредом для конкретного человека, а что нет? Конфигуральное физиологическое повреждение биококона тела человека. Хорошо, принято. Передавая человеку-хозяину предмет за которым был послан в определенное место по указанию человека... нечаянно царапнет по коже этим предметом, там заусенец... И? Выбрасывай этого робота на свалку: мозг деактивирован, ведь это базисные законы, они вообще определяют состояние мозга робота, его логическое состояние в самом базисе, фундаменте. И логически "споткнувшись" о царапину сию... робот так зависнет, что будет не починить его: рухнут логические цепи в мозгу.
Какой же выход? Он тут прост. Первый закон выглядит тогда так: "робот не может приблизиться к человеку на расстояние менее 5 метров, пока не получит от человека указание приблизиться". Управлять роботом можно и на расстоянии, разумеется, отдавать команды. Теперь: "своим бездействием допустить, чтобы человеку был причинен вред". И вот тут проблема возникает "определения вреда". Один человек другому делает массаж спины, и колотит руками по спине с целью оздоровительного  массажа. В "голове" робота присутствует обобщенный технически выраженный (в кодах машинных) опыт-модель относительно действительности мира (среды, в которой пребывает), и в такой модели удар рукой по телу от одного человека другому — имеет (в кодах) негативно выраженный характер. Этот робот будет мешать делать оздоровительный массаж. Зачем он такой нужен? Некто купит робота... и через неделю откажется от... этого "занудного хлама". Робототехническая компания по производству роботов таким образом обанкротится.
Все упирается в определение вреда, ибо у людей иногда годами выясняется в судах при разбирательствах... был причинен вред или нет!
Робот в секунду не сможет определить наличие или отсутствие вреда. Можно ввести понятие вреда в общем? В плане повреждения тела, допустим. Определение психологического вреда уже будет фактически недоступно мозгу робота. На счет повреждения биококона (тела) человека... уже только что разобрали: если массаж может вступать в противоречие с положением о нанесении физически выраженного вреда... то законы работать не будут.

Значит, первое то, что робот не может приблизиться к человеку менее чем на 5 метров, если нет иных указаний от человека, или "робот не может самостоятельно приближаться к человеку, или людям".
Вариант тесноты пространства возникает. В стесненном помещении (лифте?) робот будет тыкаться в стены, стараясь отойти от человека, робот "сойдет с ума", дорогое оборудование, между прочим. Человек в лифте будет возмещать. Значит? Вопрос: как робот оказался в лифте с человеком? Сам не мог войти, значит некий человек по незнанию или легкомыслию... вошел в лифт когда там был робот. И тут же нажал кнопку движения лифта, двери закрылись. Робот сошел с ума. Нет, не по злому умыслу, человек спешил и не заметил робота, ему "глюканулось" в спешке что это человек. Значит, роботы должны очень существенно отличаться по виду от телесной формы человека, впрочем, может и сохраняя андроидные очертания, но чтобы сходу было видно или понятно что это робот даже в темноте, в сумраке.
Второе: "Робот должен повиноваться всем приказам, которые дает человек". Ребенку может повиноваться, или должен? Ребенок еще не наделен социальной ответственностью. И скажет роботу что-то сломать, или сделать что-то, что с точки зрения взрослых недопустимо, и это действие вызовет (спровоцирует) пожар, затопление санузла, любые варианты тут можно "придумать" для наглядности, и все они будут как-то верны, допустимы, возможны. Снова компания "РоботПродакшн" — банкрот. Приказы роботу может давать только совершеннолетний? Роботу паспорт спрашивать? По биоволне определит, что индивиду уже восемнадцать. И нет, не все так просто. Сами люди формально в паспорте фиксируют что "данный индивид совершеннолетний". Люди не определяют это на глаз, хотя и могут (приблизительно). И по биоволне — могут быть искажения незначительные. А там где нет четкости, нет программы (направляющей робота в действиях). Робот "застрял", застыл. Весь город — галерея робото-статуй. Музей "восковых фигур". Компания банкрот.
Значит, надо применить систему кодов-команд, с  которой может оперировать только специалист, ребенок скорее всего не сможет, ибо это как обучиться программированию. В общем, прежде всего то, что обычными словами команду дать не получится, или робот будет реагировать на любые голосовые шумы, мечась "во все стороны", ломаясь от перегрузки мозга. А способ "командной подачи", в таком случае, видимо, весьма непрост. И человек должен быть действительно специалистом в этом. Вывод: роботов можно будет использовать только на производствах, где есть такие спецы, в домашних условиях исключено, ибо любая робототехника без законов "социальной адаптивности" (так выразим) должна быть запрещена. Ибо уже есть случаи когда автоматические системы (типа "роботы") причиняют вред, ибо это просто механизмы, машины... Робот-пылесос зажевал волосы хозяйки, например. Что она делала на полу — отдельный вопрос.
Далее, третий закон обсуждать вообще нет смысла. Робот не может "заботиться о своей безопасности", он просто выполняет поручения человека, команды, для какой-то полезной для человека работы. А сам уже человек определяет условия его сохранности, и следит за его целостностью, безопасностью, ибо человек ответственен за это, в итоге человек будет расплачиваться из своего кошелька. Какое роботу до этого дело? Он просто механизм.
Итак, данные законы придуманы писателем-фантастом, но они помогли людям, в десятилетиях, осознать реальность роботехники. Что уже, разумеется, существенный плюс и значительная польза. Но как есть эти законы не могут быть применены в самих роботах. Технически это невозможно.