Искусственный интеллект на поле боя

Британскую армию к 2030 году могут на четверть укомплектовать боевыми роботами

Технологии искусственного интеллекта (ИИ) все чаще применяются в военной отрасли. И пока одни страны активно разрабатывают автономное вооружение, другие выступают за его полный запрет. Противники роботизированных систем уверены, что алгоритмы не имеют морального права принимать решения, касающиеся жизни людей.

Полуавтономное оружие, например беспилотные летательные аппараты (БЛА или БПЛА), функционирует с помощью искусственного интеллекта и при этом контролируется человеком. Полностью же автономные системы — их также называют смертоносными автономными системами вооружений (САС), летальным автономным оружием или боевыми роботами — действуют без вмешательства человека. Такая техника способна идентифицировать возможные угрозы и принимать решения о поражении цели или ненападении. Предполагается, что САС действуют более точно и аккуратно по сравнению с человеком, позволяя минимизировать людские потери и повышая эффективность вооруженных сил.

Мировой рынок технологий ИИ, используемых в вооружении, в 2020 году оценивался в более чем $2,3 млрд. Ожидается, что к 2026 году его стоимость достигнет $16,4 млрд, а среднегодовой темп роста будет превышать 40%. Такие данные приводит американская аналитическая компания Mordor Intelligence. При расчетах специалисты учитывают не только САС, но и полуавтономные инструменты. Они прогнозируют, что спрос на последние станет одним из драйверов роста. Лидером рынка станут США: только в 2019 году Министерство обороны запросило $9,3 млрд на развитие беспилотных систем и связанных с ними технологий. В 2018 году этот показатель составил $7,5 млрд.

География автономного вооружения

В 2021 году расходы федерального бюджета России на национальную оборону запланированы в размере 3,11 трлн рублей. Две трети этой суммы Министерство обороны потратит на закупку и модернизацию вооружений. Российские военные активно применяют технологии ИИ для своих целей: на вооружении ВС РФ стоит несколько роботизированных комплексов. В 2018 году страна высказалась против запрета САС, назвав их перспективным видом вооружений. В конце 2020 года президент России Владимир Путин заявил, что технологии ИИ значительно повышают потенциал воинских соединений и в будущем именно от них будет зависеть результат сражений. Глава государства рекомендовал «активно осваивать» технику с элементами ИИ во время обучения военнослужащих. К этому призвал и министр обороны Сергей Шойгу. Он тоже согласился с тем, что алгоритмы будут определять «перспективный облик» вооруженных сил России.

Разработкой «умного» вооружения в России занимается в том числе госкорпорация «Ростех». Например, в 2018 году в концерне «Калашников», входящем в «Ростех», создали боевой модуль, который анализирует обстановку, идентифицирует угрозы и принимает решения об атаке. Алгоритм его работы схож с алгоритмами человеческого мозга, что делает его способным к самообучению. А недавно в «Ростехе» разработали программно-аналитический комплекс для боеприпасов, который делает их неуязвимыми для средств радиоэлектронной борьбы.

Боевой дистанционно-управляемый модуль «Корнет»

Министерство обороны США тоже курирует разработку вооружения на основе ИИ. В августе 2020 года входящее в его состав Управление перспективных исследовательских проектов (англ. Defense Advanced Research Projects Agency, DARPA) организовало виртуальные соревнования AlphaDogfight Trials. В них автоматизированные системы выступали против пилотов американских военно-воздушных сил. Мероприятие прошло в рамках программы Air Combat Evolution (ACE), направленной на автоматизацию воздушных боевых действий. Заключительный этап состоял из пяти сражений, которые имитировали условия ближнего воздушного боя. В одном из них алгоритм ИИ, разработанный американской технологической компанией Heron Systems, победил реального пилота со счетом 5:0. Как сказал руководитель ACE Даниэль Яворсек, испытания провели, чтобы убедиться в возможности использования ИИ в боевых самолетах. «Если мероприятие смогло убедить хотя бы пару пилотов, то я считаю его успешным», — подчеркнул он.

В сентябре бывший министр обороны США Марк Эспер сообщил, что ACE позволит «посадить ИИ в кабину» уже в 2024 году. По его словам, основная задача алгоритмов будет заключаться в том, чтобы помочь пилотам, а не заменить их.

В январе 2021 года Комиссия национальной безопасности по искусственному интеллекту США (National Security Commission on Artificial Intelligence, NSCAI) опубликовала проект отчета и порекомендовала американским властям не запрещать автономное вооружение. Вице-председатель NSCAI Роберт Уорк отметил, что алгоритмы реже допускают ошибки по сравнению с людьми и поэтому их использование поможет сократить количество потерь во время военных действий. Члены комиссии также считают, что спецслужбы могут использовать ИИ для оптимизации процесса сбора и анализа данных. Кроме того, в стране, по мнению сотрудников комиссии, следует создать новые органы — в частности, Совет по конкурентоспособности технологий под председательством вице-президента США. Окончательный вариант документа NSCAI должна представить Конгрессу в марте, но его содержание носит рекомендательный характер.

Великобритания тоже стремится интегрировать ИИ в свою армию. Известно, что Министерство обороны страны занимается разработкой беспилотного летательного аппарата под названием i9. БЛА представляет собой дистанционно управляемый мультикоптер, оснащенный стрелковым оружием, и предназначен для штурма зданий в условиях городской войны. Применять технологии ИИ Минобороны Соединенного Королевства планирует также и для решения проблемы численности вооруженных сил. Сейчас в британской армии наблюдается нехватка кадров: укомплектованность Королевских вооруженных сил — менее 73,9 тыс. человек, тогда как целевой показатель государства — более 82 тыс. военнослужащих.

«Полагаю, что в 2030 году наша армия может состоять из 120 тыс. военных, из которых 30 тыс. могут быть роботами»

Глава комитета начальников штабов генерал Ник Картер

Глава комитета начальников штабов генерал Ник Картер

Противники роботов-убийц

Между тем применение боевых роботов вызывает много вопросов этического и практического характера. Например, непонятно, кто именно будет нести юридическую ответственность за последствия использования САС: разработчик, производитель или военнослужащий, который привел его в действие. Сложно спрогнозировать и то, как роботы будут отличать участников военных действий друг от друга: военных, гражданских лиц, сотрудников правоохранительных органов и других.

По мнению некоторых экспертов, существует вероятность того, что роботы будут инициировать конфликты в приграничных зонах и вовлекать в них гражданское население. «Никто не станет раскрывать принципы работы программ или алгоритмов своего оружия, и когда встретятся два неизвестных алгоритма, последствия будут непредсказуемы, — говорит специалист по вопросам искусственного интеллекта и робототехники, председатель Международного комитета по контролю над роботизированным оружием (International Committee for Robot Arms Control) Ноэль Шарки. — Они могут просто рухнуть на землю, а могут и разрушить жилые здания, что приведет к гуманитарным кризисам». Президент Международного комитета Красного Креста (МККК) Петер Маурер уверен, что только люди способны соблюдать меры предосторожности и действовать в соответствии с принципом соразмерности применения силы. Это означает, что они могут учитывать, чтобы наносимые по гражданским объектам удары не причиняли чрезмерный ущерб.

В 2013 году по инициативе некоммерческой организации Human Rights Watch (противодействует нарушению прав человека) была запущена кампания Stop Killer Robots. Это международная коалиция из более чем 80 неправительственных организаций из 32 стран, которые борются за запрет автономного вооружения. В рамках Stop Killer Robots исследовательская компания Ipsos регулярно проводит тематические опросы. В последнем исследовании (опубликовано в феврале 2021 года) приняли участие более 20 тыс. человек в возрасте от 16 до 74 лет из 28 стран. 61% респондентов считают недопустимым применение роботов во время боевых действий, 22% считают, что это возможно, а 17% не имеют мнения на этот счет. Эти данные отличаются от результатов опроса 2017 года. Тогда против высказались 56% участников, за — 24%. Еще 19% не дали определенного ответа.

По мнению 66% опрошенных, применение подобных систем противоречит моральным нормам: машины не имеют права убивать людей. 53% обеспокоены тем, что ИИ сложно контролировать, а 42% — тем, что в его работе могут происходить технические сбои. 24% участников считают применение роботов незаконным.

Против автономного вооружения также выступает некоммерческая исследовательская организация Future of Life Institute (FLI). Специалисты признают, что роботы могут сократить число жертв военных действий. Но производство роботизированного оружия обходится значительно дешевле, чем ядерного, и в результате «война станет плевым делом». «Диктаторы смогут порабощать население, выборочно убивая определенную этническую группу. Поэтому мы считаем, что гонка вооружений может пагубно сказаться на каждом из нас», — говорится в открытом письме FLI, написанном специалистами в области ИИ.

Еще одно открытое письмо подписали более 3 тыс. сотрудников Google после того, как узнали, что компания сотрудничает с Министерством обороны США (Пентагоном) в рамках проекта Project Maven. Он предусматривает разработку алгоритмов компьютерного зрения, которые смогут анализировать кадры, сделанные беспилотниками. Работники компании обратились к генеральному директору Google Сундару Пичаи и потребовали прекратить участие корпорации в создании военных технологий. «Этот контракт [с правительством США] ставит под угрозу репутацию Google и прямо противоречит нашим основным ценностям», — заявили они. Представитель Google подтвердил, что компания предоставляет Минобороны США доступ к библиотеке для машинного обучения с открытым исходным кодом TensorFlow (позволяет распознавать и классифицировать изображения. — Прим. Plus-one). Но он пообещал, что технология не будет применяться для управления дронами.

В 2018 году основатель компаний SpaceX и Tesla Илон Маск, три сооснователя компании DeepMind (подразделение Google, ведет разработки в области ИИ) Демис Хассабис, Шейн Легг и Мустафа Сулейман и несколько других специалистов в области ИИ пообещали не принимать участия в разработке смертельного автономного вооружения. «Оружие, которое самостоятельно решает убивать людей, настолько же отвратительное и дестабилизирующее, как биологическое оружие, и с ним следует обращаться так же», — отметил один из подписантов, шведско-американский астрофизик, сотрудник Массачусетского технологического института Макс Тегмарк. Они подписали соответствующее обязательство во время Международной объединенной конференции по искусственному интеллекту (Joint Conference on Artificial Intelligence) в Стокгольме, которая была организована при участии FLI. Участники конференции предложили ввести ограничения на САС, аналогичные тем, которые применяются в отношении химического оружия и наземных мин. Они напомнили, что разработки в области автономного вооружения уже активно ведутся в некоторых странах и это может помешать формированию международных норм регулирования.

Запрещать боевых роботов сейчас бессмысленно, так как они уже существуют. Так считает Джеймс Стюарт, основатель и генеральный директор компании TrojAI Inc., которая разрабатывает решения для защиты от киберугроз систем, основанных на ИИ. «Мы не можем контролировать развитие этих технологий и не можем гарантировать, что люди останутся в курсе событий, поскольку таковы реалии инноваций в области ИИ. Вместо этого мы должны определить, когда приемлемо использовать такую технологию», — убежден Стюарт. Кроме того, он уверен, что подобные технологии уже сейчас нуждаются в защите от атак конкурирующих государств.

Подписывайтесь на канал +1 в Яндекс.Дзен.

Автор

Евгения Чернышёва