запретить Автономное оружие

Владимир Оноприенко
запретить «Использование Искусственного интеллекта для производства и применения интеллектуального Автономного оружия»
(машинный перевод)

Уважаемый Коллега,

Это несколько необычное электронное сообщение, а для тех, кто желает
избежать политических дебатов, пожалуйста, примите мои извинения и игнорируйте это сообщение.

В случае, если любой из вас интересуется подробностями, есть открытое письмо, которое будет объявлено в ближайшее время от Стюарта Рассела, Нильс Нильссон, Барбара Гросс,Том Митчелл, Эрик Хорвиц, Генри Каутц, меня и других 1500 подписавшихся под призывом запретить  автономное оружие.
 


Цель письма - показать тем, кто занимается в настоящее время в ООН договорным процессом, что оппозиция АИ оружию формируется также из технических и интеллектуальных сообществ человечества, а не только из официальных организаций, ориентированных на гуманитарные вопросы. Мы говорим, что это будет очень полезная оппозиция с точки зрения достижения запрета.

Письмо будет обнародовано на пресс-конференции, что открывает конференцию IJCAI 2015 в следующий вторник*/.

Спасибо за ваше время.

Владимир Оноприенко,
Тоби Уолш

Автономное Оружие: Открытое письмо от AI & Robotics Исследователи

Автономные оружия может выбрать и поражать цели без вмешательства человека. Они могут включать в себя, например, вооруженные quadcopters, которые могут розыска и ликвидации людей, отвечающих определенным заранее определенным критериям, но не включают крылатые ракеты или беспилотными дронов, для которых люди делают все, направленные решения.

Технология искусственного интеллекта (ИИ) уже достигли точки, где развертывание таких систем - практически если не юридически - возможно в годы, а не десятилетия, и ставки высоки: автономные оружие были описаны как третьей революции в военном деле, после пороха и ядерное оружие.


Многие аргументы были сделаны за и против автономных оружия, например, что замена человека машинами солдат хорош, уменьшая потери для владельца, но плохо по тем самым снижая порог будет сражаться. Ключевой вопрос для человечества сегодня, является ли для начала глобальной гонки вооружений AI или не допустить его запуска. Если какой-либо крупной военной державой толкает вперед с развитием ИИ оружием, глобальная гонка вооружений практически неизбежна, и конечная точка этого технологического траектории очевиден: автономные оружие будет стать Калашникова завтра. В отличие от ядерного оружия, они требуют не дорого или трудно получить сырье, таким образом, они станут повсеместно и дешево для всех крупных военных держав в массовое производство. Это будет только вопрос времени, пока они не появятся на черном рынке и в руки террористов, диктаторов, желающих лучше контролировать их население, полевых командиров, желающих совершить этническую чистку, и т.д. Автономные оружие идеально подходят для таких задач, как убийства, дестабилизации нации, подчиняя населения и избирательно убивающие или иной этнической группе. Поэтому мы считаем, что военная гонка вооружений не А.И. бы быть полезным для человечества. Есть много способов, в которых ИИ может сделать сражений безопасные для человека, особенно гражданских лиц, без создания новых инструментов для убийства людей.
Так же, как большинство химиков и биологов нет никакого интереса в создании химического или биологического оружия, большинство исследователей ИИ не имеют никакого интереса в создании ИИ оружие - и не хотите, чтобы другие запятнать свое поле, делая так, потенциально создавая большую общественную реакцию против ИИ, который ограничивает его будущие социальные выгоды. В самом деле, химики и биологи широко поддерживается международные соглашения, которые успешно запрещенные химическое и биологическое оружие, как большинство физиков поддерживается договоры, запрещающие космических ядерного оружия и ослепляющего лазерного оружия.
В целом, мы считаем, что ИИ имеет большой потенциал, чтобы принести пользу человечеству, во многом, и что цель поля должны быть, чтобы сделать это. Начиная военную гонку вооружений AI является плохой идеей, и должно быть предотвращено запрет на наступательных вооружений за пределами автономных значимого человеческого контроля.

Это открытое письмо будет официально объявлено на открытии IJCAI 2015-конференции 28 июля, и мы просим журналистов не писать об этом раньше.
Журналисты, которые желают видеть пресс-релиз заранее, могут обратиться Тоби Уолш. Хостинг, проверка подписи и список управления поддерживаются FLI; по административным вопросам об этом письме, пожалуйста, свяжитесь с tegmark@mit.edu.


http://futureoflife.org/AI/open_letter_autonomous_weapons


Dear Colleague,

This is an somewhat unusual email and, for those who wish to
avoid political debate, please accept my apologies and delete
this email now.

In case any of you are interested, there's an open letter that will be
announced shortly from Stuart Russell, Nils Nilsson, Barbara Grosz,
Tom Mitchell, Eric Horvitz, Henry Kautz, myself and 1500 others on autonomous

The letter will be released to the press at a Press Conference
that opens IJCAI 2015 next Tuesday.

The goal of the letter is to demonstrate to those involved in the currently ongoing
UN treaty process that opposition to AI weapons comes also from the core
technical communities, not just from organizations focused on
humanitarian issues. We are told this will be very helpful in terms
of achieving some sort of ban.

Thanks for your time.

toby walsh
Embargoed until 4PM EDT July 27 2015/5PM Buenos Aires/6AM July 28 Sydney
This open letter will be officially announced at the opening of the IJCAI 2015 conference on July 28, and we ask journalists not to write about it before then. Journalists who wish to see the press release in advance of the embargo lifting may contact Toby Walsh. Hosting, signature verification and list management are supported by FLI; for administrative questions about this letter, please contact tegmark@mit.edu.

Autonomous Weapons: an Open Letter from AI & Robotics Researchers
Autonomous weapons select and engage targets without human intervention. They might include, for example, armed quadcopters that can search for and eliminate people meeting certain pre-defined criteria, but do not include cruise missiles or remotely piloted drones for which humans make all targeting decisions. Artificial Intelligence (AI) technology has reached a point where the deployment of such systems is — practically if not legally — feasible within years, not decades, and the stakes are high: autonomous weapons have been described as the third revolution in warfare, after gunpowder and nuclear arms.
Many arguments have been made for and against autonomous weapons, for example that replacing human soldiers by machines is good by reducing casualties for the owner but bad by thereby lowering the threshold for going to battle. The key question for humanity today is whether to start a global AI arms race or to prevent it from starting. If any major military power pushes ahead with AI weapon development, a global arms race is virtually inevitable, and the endpoint of this technological trajectory is obvious: autonomous weapons will become the Kalashnikovs of tomorrow. Unlike nuclear weapons, they require no costly or hard-to-obtain raw materials, so they will become ubiquitous and cheap for all significant military powers to mass-produce. It will only be a matter of time until they appear on the black market and in the hands of terrorists, dictators wishing to better control their populace, warlords wishing to perpetrate ethnic cleansing, etc. Autonomous weapons are ideal for tasks such as assassinations, destabilizing nations, subduing populations and selectively killing a particular ethnic group. We therefore believe that a military AI arms race would not be beneficial for humanity. There are many ways in which AI can make battlefields safer for humans, especially civilians, without creating new tools for killing people.
Just as most chemists and biologists have no interest in building chemical or biological weapons, most AI researchers have no interest in building AI weapons — and do not want others to tarnish their field by doing so, potentially creating a major public backlash against AI that curtails its future societal benefits. Indeed, chemists and biologists have broadly supported international agreements that have successfully prohibited chemical and biological weapons, just as most physicists supported the treaties banning space-based nuclear weapons and blinding laser weapons.
In summary, we believe that AI has great potential to benefit humanity in many ways, and that the goal of the field should be to do so. Starting a military AI arms race is a bad idea, and should be prevented by a ban on offensive autonomous weapons beyond meaningful human control.

http://futureoflife.org/AI/open_letter_autonomous_weapons

...................

*/конференция IJCAI 2015

Южная Америка никогда прежде не принимала конференции IJCAI, и Буэнос-Айрес является идеальным местом для этого знаменательного события. Главный культурный центр в Южной Америке, Буэнос-Айрес является также одним из наиболее важных и динамичных деловых и интеллектуальных центров региона.
 
IJCAI-15 спонсируется Международной Объединенной конференции по искусственному интеллекту (IJCAI) в сотрудничестве с аргентинской Ассоциации искусственного интеллекта (переводчика-САДИО отдел) совместно с Министерством науки, технологий и продуктивных инноваций, Кафедра информатики в школе точных и естественных наук Буэнос-Айреса университет и факультет компьютерных наук и инженерии в Универсидад Насьональ-дель-Сур.

IJCAI-15 состоится в Буэнос-Айресе, Аргентина с 25 июля до 31 июля 2015.
Доктор Майкл Вулдридж, профессор университета Оксфорд, UK находится в IJCAI-15.
Профессор Цян Янь, Гонконг Университет науки и технологии, Гонконг-это IJCAI-15.

IJCAI-15 will be held in Buenos Aires, Argentina from July 25th to July 31st, 2015. We look forward to seeing you there.
Prof. Michael Wooldridge, Professor at the University of Oxford, UK is the IJCAI-15 Conference Chair.
Prof. Qiang Yang, Hong Kong University of Science and Technology, Hong Kong is the IJCAI-15 Program Chair.

http://ijcai-15.org/