Создание “роботов-убийц” будет продолжаться, пока есть недоверие и соперничество сверхдержав

Создание “роботов-убийц” будет продолжаться, пока есть недоверие и соперничество сверхдержав

Аналитика
474
Ukrinform
Пока не сложится паритет во владении новым оружием, реальных шагов защиты от угроз, которые несет оружие с искусственным интеллектом, сделано не будет

В минувшую среду Европейский парламент принял (566 – “за”, 57 – “против”, 73 – воздержались) призыв к международному запрету смертельного автономного оружия, которое еще называют “роботы-убийцы”. Никаких юридических обязательств это решение не имеет, лишь чисто моральные. Меньше двух недель назад в Женеве (Швейцария) эксперты со всего мира под эгидой ООН обсуждали, не запретить ли автономное оружие полностью. То есть заключить международный договор о запрете такого вооружения подобно Договору о нераспространении ядерного оружия. Не договорились. Координатор международной кампании “Остановить роботов-убийц” Мэри Уэрхем заявила, что Россия, США, Южная Корея, Израиль и Австралия заблокировали обсуждение запрета. Эксперты лишь согласились продолжить обсуждение в ноябре, снова в Женеве.

О чем речь?

Речь идет об угрозе появления нового типа оружия, основанного на так называемом искусственном интеллекте. Проще говоря, появятся механизмы (“работы”), настолько “умные”, что будут сами, без участия человека, определять врага на поле боя и уничтожать его. В фантастических кинофильмах нечто подобное показывают уже давно, теперь эти фантазии могут стать реальностью.

“Роботов-убийц” еще не создали, идут только исследования, неизвестно даже, есть ли хоть какие-то опытные образцы автономного (на основе искусственного интеллекта) оружия. Однако дискуссии о его запрете ведутся уже достаточно давно. В 2013 году ООН включила этот вопрос в свою повестку дня. В августе 2017 года появилось открытое письмо-призыв к ООН положить конец гонке вооружений в сфере автономного оружия. Его подписали больше ста известных ученых и изобретателей, среди которых Илон Маск, Стивен Хокинг, Билл Гейтс. В письме утверждается, что при неправильном обращения с искусственным интеллектом он может превратиться – ни много, ни мало – угрозу существованию человечества.

То есть вопрос не новый, и всевозможных материалов в мировых СМИ на эту тему, мнений экспертов, перечней основных причин, почему до сих пор не удается достичь общего решения (проще говоря, кто или что против) – уже накопилось очень много. Например, вот здесь есть подробный обзор всех граней темы. Или вот здесь.

Представляете, каким будет мир, если им будет править Кремль?

Суть проблемы можно изложить предельно просто: речь идет о новом оружии, способном кардинально изменить характер будущих войн, и в погоне за этим оружием отвергаются любые соображения, включая и такое, как угроза существованию человечества. К сожалению, ситуация отнюдь не нова для мира – сегодня, как и всегда, мораль людей, точнее, людей при власти, существенно отстает от технического и научного прогресса. На протяжении всей истории человечества научные достижения использовались в первую очередь для войны. Автомобили и танки появились почти одновременно, первые реактивные самолеты были боевыми, первые ракеты несли взрывчатку на Лондон, первая атомная бомба создана раньше, чем первая атомная электростанция.

А сейчас речь идет об искусственном интеллекте. Президент России Владимир Путин когда-то откровенно заявил, что та страна, которая одержит первенство в создании искусственного интеллекта, будет править миром. Вы представили себе мир, которым правит Кремль? Правда, страшно?

Сложность проблемы не только в том, что есть такие страны, как Россия, и такие президенты, как Путин. Хотя и одно это не позволяет всерьез рассчитывать, что можно в принципе не допустить появления “роботов-убийц” – по той же логике, по которой в свое время было бы недопустимо позволить, чтобы ядерное оружие было только у СССР. Главное – исследования в сфере искусственного интеллекта остановить невозможно, наука не может застыть на месте. А если ученые – российские, американские, немецкие, израильские и из любой страны или все вместе! – создадут настоящий искусственный интеллект, успешно завершат, так сказать, научную часть работы, то создать на основе их достижений оружие – это уже чисто технический (инженерный) вопрос.

Именно в них, в “инженерах”, самая большая сложность на пути к запрету “роботов-убийц”. “Инженеры” – это, конечно, политики. Это их мораль вызывает у нас больше всего опасений. В конце концов, если бы вдруг можно было провести некий всемирный референдум на тему “роботов-убийц”, и чтобы этот референдум был абсолютно свободным (то есть, без манипуляций политиков), то итог очевиден: все за мир, все против войны и против нового ужасного оружия. Причем, так бы сказали в любой стране мира, и в России тоже. Конечно, далеко не каждый обыватель морально выше политика, часто бывает наоборот, но именно политики, в отличие от обывателя, принимают решения: запрещать что-то или разрешать. Заметим также, что не все политики, которые сейчас не выступают за запрет создания оружия на основе искусственного интеллекта, делают это из аморальных соображений. Возможно, наоборот. К примеру, возможно, американские политики считают важнее для дела мира иметь такое оружие в США как минимум одновременно с Россией или Китаем. Кто в них бросит сегодня камень за это?

“Роботы-убийцы” сначала должны появиться, а уже потом их будут запрещать

В конце концов, не надо забывать, что формальный запрет далеко не всегда означает решение проблемы. Вот химическое оружие запрещено, и что? Разве ее уже нет?

Итак, подытожим: угроза создания нового оружия страшна не столько тем, что оно убивает людей (атомное или химическое оружие здесь непревзойденны), а тем, что может выйти из-под контроля человека (см. литературную и кинофантастику). То есть, это действительно мировая проблема, которую и решать надо всем миром. Но в мире как не было, так и до сих пор нет необходимого для этого доверия. И конкретного механизма контроля за оружием тоже нет. Мировые лидеры – США, Китай, Германия, Россия, Франция, Великобритания, Индия и др. – соперничают между собой так остро, что нет между ними согласия и по менее важным вопросам, чем безопасность всего человечества. Собственно, доверия и механизма контроля нет именно из-за остроты соперничества – политического и экономического – в мире.

Поэтому, прогнозируем, пока “роботы-убийцы” не будут реально созданы, пока не вырисуется определенный паритет между основными игроками на мировой “шахматной доске” в сфере владения новым оружием, до тех пор реальных шагов к созданию международной системы защиты от угроз, которые несет оружие с искусственным интеллектом, сделано не будет. Можно и так сказать, грубовато: пока “жареный петух” чего-то не сделает.

Другими словами, повторится ситуация с ядерным оружием. Его стали реально ограничивать лишь тогда, когда оно было испытано, применено и отлажено в производстве ведущими странами мира. Впрочем, может все-таки есть шанс, что абсолютного повторения удастся избежать? Ведь новое оружие будет грозить не только врагам, но и “своим”. И давление международной общественности за запрет “роботов-убийц” сегодня куда сильнее, чем когда оно был против ядерного оружия в начале атомной эры.

Однако будем реалистами: пока мир не решит “научную” проблему, а именно: как сделать так, чтобы в мире не было таких мощных и одновременно агрессивных антидемократических режимов вроде российского или северокорейского, “инженерные” решения будут приниматься в пользу нового оружия, независимо от уровня демократичности или морали политических лидеров.

Юрий Сандул. Киев

При цитировании и использовании каких-либо материалов в Интернете открытые для поисковых систем гиперссылки не ниже первого абзаца на «ukrinform.ru» — обязательны. Цитирование и использование материалов в офлайн-медиа, мобильных приложениях, SmartTV возможно только с письменного разрешения "ukrinform.ua". Материалы с маркировкой «Реклама» и «PR» публикуются на правах рекламы.

© 2015-2018 Укринформ. Все права соблюдены.

Дизайн сайта — Студия «Laconica»
Расширенный поискСпрятать расширенный поиск
За период:
-
*/ ?>