Регистрация Войти
Вход на сайт

Британцы восстали против роботов-убийц

2 марта 2013 15:15

Британцы восстали против роботов-убийцК этой инициативе уже присоединились шесть нобелевских лауреатов во главе с американской политической активисткой Джоди Уильямс, а также лоббистские группы, которые ранее успешно добились глобального запрета кластерных бомб и противопехотных мин. Кампания под названием «Остановим роботов-убийц» в апреле будет запущена в палате общин британского парламента. 

«Военные роботы и автономные вооружения — это следующая эволюционная ступень после самолетов-беспилотников. Это не научная фантастика — они уже находятся в разработке и будут готовы в течение десяти лет. Подготовка этих вооружений ведется фактически в неконтролируемой среде, где мало внимания уделяется морали и международным законам», — утверждает ведущий британский эксперт по робототехнике и искусственному интеллекту, профессор Шиффилдского университета Ноэль Шарки. 

В настоящий момент в США, исследовательское крыло Пентагона работает над беспилотным самолетом X47B, который сможет взлетать с авианосца и выполнять в воздухе маневры на околозвуковых скоростях. Дистанционное управление столь стремительным аппаратом не представляется возможным, поэтому американцы собираются наделить самолет правом самостоятельно решать, атаковать ли замеченную цель или пощадить. 

Проблема в том, что современный искусственный интеллект не всегда отличает человека от автомобиля, и совершенно не способен различить ребенка, протягивающего конфету, от боевика, целящегося из пистолета. Статья №36 Женевской конвенции – международного соглашения о ведении войн — требует, чтобы при разработке любых новых вооружений была учтена способность отличать военные цели от гражданских. Однако это ограничение легко обойти, так как автономных роботов можно не считать оружием до тех пор, пока к ним не будет прикреплена пушка. 

Ноэль Шарки настаивает на том, что он не противник войн, как таковых, но глубоко озабочен тем, что наука уходит в отрыв от основных положений Женевской конвенции и международных законов войны. 

«Многие люди очень возбуждены технологиями автономных вооружений. В США, в британской оборонной компании BAE Systems, в Китае, Израиле и России очень заинтересованы тем, что вскоре обещает стать многомиллиардной индустрией. Производство автономных вооружений может принести огромные деньги. Но на этом рынке нет прозрачности, нет юридической основы. Нынешние законы войны дают право на сдачу в плен, а также позволяют привлечь людей к ответственности за нанесение ущерба. Но кого винить, если военную ошибку совершит робот?», — разъясняет проблему Ноэль Шарки. 

«Общественность не пригласят к обсуждению этичности всего этого. Нам не расскажут об этих вооружениях до тех пор, пока Китай не продаст их Ирану. Вот почему мы организовываем кампанию для обсуждения упреждающего запрета», — отмечает господин Шарки. 

В ноябре группа Human Rights Watch выпустила 50-страничный отчет под названием «Потеря человечности: Доводы против роботов-убийц». В этом документе эксперты показывают, что автоматические вооружения умножат вред, наносимый гражданскому населению в ходе конфликтов, и сделают невозможным соблюдение международных правил ведения войн. 

Human Rights Watch предупреждает, что технологии быстро продвигаются к созданию роботов-убийц. Одно лишь министерство обороны США инвестирует в это направление $6 млрд. в год, подстегивая другие державы к гонке вооружений. Эксперты Human Rights Watch призвали мировые правительства принять срочные меры жесткого контроля над разработкой автономных роботов, пока эта проблема не разрослась до гигантских размеров. 

Примечательно, что в воображении научных фантастов роботы-убийцы появились менее 100 лет назад. Впервые их упомянул в своем произведении в 1920 г. чешский писатель Карел Чапек. Слово «робот» произошло от чешского robota, что в переводе означает «работа». 

Проблема контроля над искусственным интеллектом и машинами впервые была поднята в 1942 г. писателем Айзеком Азимовым, сформулировавшим в рассказе «Хоровод» три закона робототехники, которые сводятся к такой формулировке: «робот не может причинить вреда человеку, если только он не докажет, что в конечном счете это будет полезно для всего человечества».

eizvestia.com


Рейтинг статьи:
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Мы рекомендуем Вам зарегистрироваться либо зайти на сайт под своим именем.
Оставить комментарий
Ваше имя: *
Ваш e-mail: *
Текст комментария:
Полужирный Наклонный текст Подчёркнутый текст Зачёркнутый текст | Выравнивание по левому краю По центру Выравнивание по правому краю | Вставка смайликов Выбор цвета | Скрытый текст Вставка цитаты Преобразовать выбранный текст из транслитерации в кириллицу Вставка спойлера
Код: Включите эту картинку для отображения кода безопасности
обновить, если не виден код
Введите код: