- Страшно Познавательно
Как используют и на что способен искусственный интеллект на поле боя
Поскольку развитие искусственного интеллекта (ИИ) продолжает ускоряться, вопрос о том, заменят ли роботы в конечном итоге солдат на поле боя, становится все более актуальным. Некоторые эксперты утверждают, что роботы с ИИ могут повысить безопасность и эффективность военных операций, в то время как другие опасаются, что использование полностью автономного оружия может привести к катастрофическим последствиям, пишет Euronews.
Россия широко применяет против Украины так называемые «барражирующие боеприпасы» — «дроны-камикадзе». Функционально это нечто среднее между «обычным» дроном и ракетой. Такой боеприпас теоретически может барражировать в определённом районе, самостоятельно отыскивая и определяя цель.
Именно такие устройства обычно описываются термином «искусственный интеллект». Но на самом деле «дрон-камикадзе» не столь уж умён, а сфера применения ИИ в военном деле куда шире.
Искусственный интеллект появился совсем недавно?
На самом деле нет. Сам термин «искусственный интеллект» применительно к реальному программному обеспечению используют ещё с 1950-х годов. Проблема в том, что чёткого определения нет. Ещё в прошлом веке «искусственным интеллектом» называли такие возможности, которыми сегодня располагает любой смартфон.
«Умное» оружие тоже появилось ещё в прошлом веке. Уже тогда существовали, например, системы наведения для ракет и снарядов, которые позволяли «самостоятельно» выбрать приоритетную цель из нескольких без участия человека. Или корабельные системы ПВО и ПРО, которые в случае недостатка времени на решение со стороны человека могли сами обстреливать то, что они считали угрожающей кораблю ракетой. Или, к примеру, полумифическая «мёртвая рука» — система, которая может дать команду на ответный ядерный удар, если посчитает, что контролирующие её люди уже погибли.
Но с начала этого века усовершенствование ИИ идёт вперёд стремительными темпами — как и все другие области IT.
Первый зафиксированный случай, когда автономная система убила человека без участия оператора произошёл, по данным ООН, весной 2020 года в Ливии. Тогда войска Правительства национального согласия применили автономные дроны турецкого производства против солдат, поддерживавших маршала Халифу Хафтара.
«Это не одна отдельная технология, а функция обеспечения возможностей. Это все равно что говорить об электричестве. Как электричество имеет совершенно различные сферы применения, так и ИИ позволяет дополнить некоторые технологии таким образом, чтобы сделать их потенциально более эффективными, более дешёвыми, более компактными, более автономными», — говорит Венсан Буланен, старший научный сотрудник Стокгольмского института исследования проблем мира.
Как военные применяют ИИ?
По данным Стокгольмского института исследования проблем мира, уже практически не осталось сфер деятельности военных, в которых ИИ не использовался бы. Дроны — лишь частный случай. По данным аналитиков, к 2028 году объём рынка, связанного с ИИ в военной области, превысит $13,7 млрд. При этом, конечно же, в разных странах разный уровень насыщенности такого рода системами.
- Самый широко известный аспект — автономные боевые системы. Их называют «дронами» или «беспилотниками». Это могут быть и летающие машины, и сухопутные, в формате небольшого танка или бронетранспортёра, и морские. Такие устройства могут самостоятельно «охотиться» на технику и солдат противника в заданной зоне, самостоятельно обнаруживать цели, выбирать из них наиболее важную.
- Самая «популярная» же сфера использования — точно та же, что и у гражданских: анализ огромных баз данных, для того, чтобы заменить людей в утомительной и однообразной деятельности, когда, например, нужно просмотреть огромное количество аэрофотоснимков и найти нужный объект. Здесь речь даже не идёт о специфически «военном» ИИ: используются такие же схемы, как, например, в системах распознавания лиц на улицах.
- Обнаружение и анализ возможных угроз. Выдачу рекомендаций на основе этих данных ИИ может провести куда быстрее, чем человек. Кроме того, ИИ, по идее, лишён «предвзятости», свойственной командирам-людям, и не страдает от эффекта «замыленного глаза», что особенно важно в боевой, быстро меняющейся обстановке.
- ИИ способен не только оценивать обстановку на поле боя, но и, в определённых рамках, «предсказывать будущее» на основании уже известных ему действий противника.
- Испытания, проверки, тестирование. ИИ может «симулировать» работу новой военной техники, новых устройств и даже новых тактических концепций, что снижает затраты и время на организацию реальных испытаний.
ИИ может самостоятельно управлять боем, как в компьютерной игре?
Нет. Все программы, которые могут быть классифицированы как ИИ для военного применения, выполняют весьма ограниченный круг задач. Одни анализируют обстановку, другие управляют автономными дронами, третьи, действительно, могут давать прогнозы и «советы» командирам. В некоторых условиях — в первую очередь, когда времени критически мало, ИИ могут сами «принять решение».
Но увязывать всё это в единый план боя — по-прежнему задача человека. Ни военные, ни гражданские не доверяют ИИ настолько, чтобы позволить ему «самостоятельно» вести войну или даже отдельный бой. За «самым главным пультом» всегда сидит человек.
Насколько опасно применять ИИ на войне?
По мнению Венсана Буланена, можно выделить три уровня рисков, которые связаны с ИИ и его использованием в военном деле.
Первый уровень — технологический. ИИ устроен таким образом, что даже сами разработчики не всегда могут проследить логические связи и понять, почему робот «принял» то или иное решение. Это называется «проблемой „чёрного ящика“». Поэтому ни гражданские, ни военные не могут, строго говоря, полностью доверять решениям ИИ. И из-за этого всегда существует по крайней мере теоретический риск того, что робот предпримет какие-то действия, которые от него не ожидали.
Предотвратить это можно более тщательной разработкой алгоритмов. Полностью «прозрачные» алгоритмы существуют, но не всегда и не везде применимы.
Второй уровень — то, как ИИ может изменить подход к организации войн и конфликтов. Людям может оказаться легче отдавать приказы на уничтожение, если они будут считать, что это не угрожает жизням, ведь на поля боя — только или по большей части роботы.
Это грозит масштабными гуманитарными проблемами и трагедиями. На линии огня окажутся мирные жители. Во-первых, буквально: ведь проблема отличить мирного жителя от боевика до сих пор остаётся очень острой. Во-вторых, риск гуманитарных катастроф возрастёт потому, что возрастёт риск возникновения новых конфликтов: ведь начать «войну роботов» в моральном плане может оказаться гораздо легче.
Здесь, по мнению Буланена, необходимо учить военных не слишком доверять ИИ: это не «робот, который никогда не ошибается», а обычная созданная людьми система, у которой есть свои ограничения и недостатки. В конце концов, робот, как и человек, принимает решения на основе определённых данных, а они могут оказаться неполными, ошибочными или умышленно искажёнными.
«Есть вещи, которые могут предпринять сами военные: в плане принятия мер по снижению риска, в плане обучения людей, которые будут использовать эти системы или решат не принимать конкретную систему, потому что риск несчастного случая может быть слишком высок. То есть речь идёт о самоограничении и об оценках рисков», — отметил Буланен.
Третий уровень — возможность широчайшего распространения таких систем. ИИ — это фактически «технология двойного назначения». Он широко используется в гражданской сфере, и адаптировать общедоступные коды для военного применения специалистам очень легко.
«Это не похоже на ядерную технологию, вы ведь не можете просто купить ядерное оружие на углу. А разработать приложения ИИ довольно просто. Данные уже есть. Методы есть. Повсюду в мире есть образованные инженеры. Так что потенциальный риск в том, что для разработки военного ИИ нужно совсем немного, злоумышленники легко могут получить доступ к этой технологии», — считает специалист.
Снизить этот риск очень нелегко, поскольку потребует определённых ограничительных договорённостей на международном уровне. А они, во-первых, могут вступить в конфликт со свободой распространения информации — когда речь идёт о «мирном» ИИ, — а во-вторых, для злоумышленников эти документы не будут иметь значения.
Изменит ли ИИ будущие военные конфликты? Заменят ли роботы солдат?
Пока что, чисто технологически, нет робота, который смог бы заменить стрелка с автоматом. Но во многих других аспектах ИИ уже нашёл самое широкое применение. Один из аспектов окончательного ответа на этот вопрос — этический.
«Некоторые люди придерживаются практического подхода. Если ИИ может теоретически помочь снизить число жертв среди гражданского населения, то почему бы не применить автоматизацию?
Другие будут исходить из принципиальных основ. Для них это не нормально — автоматизировать подобные решения, даже если это может быть эффективно в каком-то аспекте. Они не захотят этого делать, потому что таков их этический принцип», — говорит Венсан Буланен.
Уже меняется концепция принятия решений командирами. Во-первых, эти решения будут приниматься гораздо быстрее, и в целом это может ускорить течение вооружённых конфликтов. Командиры будут больше полагаться на «советы» ИИ, и это несёт уже упоминавшиеся выше риски.
С точки зрения международного права, которое регулирует ведение боевых действий, — «законов и обычаев войны» — ИИ никак не выделяется особо. Дрон под управлением ИИ ничем не отличается ни от ракеты с «обычной» системой наведения, ни от «глупой» неуправляемой бомбы. Если речь зайдёт, например, о военных преступлениях, ответственными за них всё равно будут люди, даже если «решение принимал» дрон.
Читайте также:
- Полицейские Сан-Франциско добиваются разрешения использовать роботов для убийства людей
- Исследование: рабочие в США спиваются из-за конкуренции с роботами
- Чат-бот ChatGPT сдал экзамены по юриспруденции и по управлению бизнесом в двух вузах США