< Назад до записів
![]() Несколько дней назад исполнилось пять лет с момента запуска кампании «Остановить роботов-убийц», глобальной коалиции неправительственных групп, призывающей к запрету полностью автономных боевых систем. Уже в пятый раз, когда страны-участницы этой коалиции собрались в стенах здания ООН в Женеве.И не без успеха: число стран, призывающих к запрету полностью автономных боевых систем, увеличилось до 26 - к ним добавились Австрия, Китай, Колумбия и Джибути. Встреча, прошедшая в Женеве, проходила в рамках крупного договора о разоружении, который называется Конвенцией о конкретных видах обычного оружия. По этому поводу на сайте правозащитной группы «Хьюман Райтс Уотч» было опубликовано специальное заявление движения Stop Killer Robots (на фото - момент заседания). Несмотря на достигнутый успех, страны, признающие опасность автономных боевых систем, не могут ждать, если они хотят, чтобы их опасения не стали реальностью. Стоит напомнить, что в течение 2017 года прошло несколько мощных кибератак, нацеленных на предприятия и госучреждения в Европе и Украине. Эти атаки нанесли значительный экономический ущерб, но хотя в них не использовались системы с ИИ (искусственным интеллектом), они предупреждают об опасностях и потенциале кибероружия. Что происходит, когда мы разрабатываем машины, которые умнее людей и могут учиться быстрее, чем можем мы? Насколько они могут быть опасны – если будут вооружены или способны иным способом причинять ущерб? Хотя искусственный интеллект позволил повысить эффективность в ряде секторов – начиная от повышения эффективности рекламы, в индустрии развлечений, в сфере транспорта и фармакологии, когда дело доходит до того, что вооруженные машины могут функционировать без вмешательства людей, возникает много вопросов. Дискуссия о запрете автономных боевых систем началась с возникновения инициативы, выдвинутой сообществом из более чем сотни специалистов в этой сфере, предупреждавших, что подобные вооружения могут привести к «третьей революции в ведении войн». Такие выдающиеся люди, как физик Стивен Хокинг и предприниматель Элон Маск предупреждали, что боевые системы с ИИ могут быть даже более опасными, чем атомная бомба. Элвин Уилби, вице-президент по исследованиям в компании Thales, поставляющей разведывательные беспилотники в британскую армию, надо думать, озадачил палату лордов сообщением, что государства-изгои и террористы «в ближайшее время получат вооруженный искусственный интеллект». Как сказал господин Уилби, «джинн из искусственного интеллекта выходит из бутылки». Можно привести и анекдотический пример, когда после известного спора между И.Маском и М.Цукербергом (Маск упрекнул главу Фейсбука в том, что он «не полностью» осознает угрозы со стороны ИИ), Фейсбук был вынужден отключить одну из своих систем с ИИ. Как выяснилось, люди не могут понять язык, на котором общаются между собой роботы – они создали свой собственный язык, отказавшись от английского. Одними из первых интерес к новой технологии проявили военные. Уже существует ряд систем вооружения с различным уровнем автономности, которые сегодня активно проходят испытания. Ожидается, что к 2030 году в Великобритании будет принят на вооружение беспилотный летательный аппарат Taranis, который сможет заменить пилотируемые истребители Tornado GR4. Другие страны, включая США и Россию, разрабатывают роботизированные танки, которые могут работать автономно или дистанционно контролироваться. У США есть автономный военный корабль, который был запущен в 2016 году. Хотя он все еще находится в разработке, ожидается, что он будет вооружен, включая противолодочное оружие. Южная Корея использует боевого робота, вооруженного пулеметом SGR-A1, который может охранять границу. Соединенные Штаты и китайские военные разрабатывают систему из целого роя миниатюрных беспилотных летательных аппаратов, оснащенных системой распознавания лиц. Перечень можно продолжать. Хотя это оружие было разработано для сведения к минимуму потерь в военных конфликтах, не трудно представить себе, как могут использовать это оружие террористические организации. С другой стороны, компания Фейсбук заявляет, что использует ИИ для поиска и удаления нежелательного контента, а также для предотвращения появления фотографий и видеороликов известных террористов на других учетных записях. Эти антитеррористические усилия распространяются на другие платформы, которыми владеет компания, включая WhatsApp и Instagram. Фейсбук сотрудничает и с другими компаниями, включая Twitter, Microsoft и YouTube, для создания базы данных, которая фиксирует членов террористических организаций. Большинство групп, которые хотят запретить автономное оружие с ИИ, обеспокоены тем, что если машины станут полностью автономными, у людей не будет права решать, кого убивать, а кого - нет. Это создает моральную дилемму. Что, если некоторые политические режимы начнут использовать миниатюрных роботов-убийц, обладающих системой распознавания лиц, для уничтожения несогласных или оппозиционеров? Нетрудно представить себе, что технология ИИ может оказаться и в руках криминальных групп, которые, через сбор и анализ данных о конкретном человеке (а ИИ выводит такой анализ на качественно новую ступень), смогут заниматься вымогательством, терроризируя, скажем, руководителей банков или крупных предприятий. На этот аспект обратили внимание участники семинара «The Future Of Weaponized Artificial Intelligence», прошедшего недавно в Аризонском университете (при поддержке Кибер-института Вест-Пойнта). По мнению участников семинара, вооруженный искусственный интеллект переводит сферу вооружений на новую парадигму, делая роботизированные системы еще более смертоносными и убийственно эффективными.http://threatcasting.com/wp-content/uploads/2017/09/ThreatcastingWest2017.pdf Можно согласиться с выводами американских специалистов, что, как и в случае с другими нововведениями, теперь, когда технология ИИ стала влиять на наш мир, нам нужно найти способы ее контролировать. Вопрос в том, чтобы это не стало слишком поздно. Осознания угрозы отдельными государствами, даже самыми влиятельными, недостаточно – необходим широкий международный договор и - решительный запрет.
А.Маклаков 03.05.2018 |