Мы заметили, что вы используете блокировщик рекламы. Очень просим отключить его на этом сайте, потому что рекламные поступления важны для обеспечения техподдержки сайта!

Искусственный интеллект убьёт, а не спасёт. Проверено в США

21.03.2020 - 16:02   4 788

По мере развития технологий искусственного интеллекта все большей популярностью начинает пользоваться идея его использования в военном деле. Считается, что ИИ внимательнее, четче в принятии решений и значительно быстрее в их реализации. А еще он опирается на значительно более широкую базу знаний, чем может быть опыта у человека.

Единственная проблема — страх отдать компьютеру право на самостоятельное открытие огня. Все ранее проводимые такие эксперименты заканчивались плачевно. Сбой в программе и ЧП, часто даже с человеческими жертвами.

Но сама по себе идея продолжала жить, особенно актуализируясь в кризисные времена. В том числе в виде переноса ИИ с тактического на стратегический уровень. То есть решение «нажать кнопку» остается за человеком, но обработка массива входящих данных и выработка оптимальной стратегии доверяется ИИ.

На днях корпорация RAND, с привлечением специалистов Пентагона, провела командно-штабную военную игру по вполне реалистичному сценарию. Пользуясь ослаблением главного геополитического конкурента Китай предпринимает попытку расширения зоны своего полного контроля в регионе. США и их главный союзник в АТР — Япония — пытаются такое не допустить. Решения на уровне начальников баз, командиров кораблей, подводных лодок, сухопутных частей и авиационных подразделений принимали люди, но общую картину, на основе которой они это делали, формировал ИИ.

Предполагалось, что обе стороны начинать глобальную ядерную войну не желают и в своих действиях всячески стремятся от критической эскалации уклониться. Но практика учений показала, что в случае использования ИИ в стратегическом звене, дело неизбежно заканчивается обменом глобальными ядерными ударами.

Расхождения начинались уже на начальном этапе первых бескровных инцидентов с беспилотниками. Люди пытались максимально избегать шагов, ведущих к неизбежному усилению ответной реакции, тогда как ИИ руководствовался только целесообразностью достижения единственной главной цели — пресечь действия оппонента и вернуть стратегическое положение на карте к докризисному состоянию.

Даже при минимальном стремлении к эскалации насилия компьютер более чем на порядок быстрее переходил к жестким силовым действиям, либо сопряженным с высоким риском человеческих потерь у противника, либо прямо их предполагающих. В результате этап мелких инцидентов, эскалацию ответа на котором людям еще удавалось сгладить, преодолевался чрезвычайно быстро и войска начинали получать «оборонительные» приказы откровенно агрессивного свойства. В том числе при действиях в нейтральных водах и ничейном воздушном пространстве.

После чего случался какой-нибудь крупный инцидент, вроде потопления американо-японскими силами ПЛО китайской ракетной подводной лодки в районе островов Спратли. Что в итоге оказалось спусковым крючком роста жесткости ответа, вынуждавшего к еще большей жесткости, чтобы еще большей жесткости. И дальше все заканчивалось обменом стратегическими ядерными ударами, избежать которых люди уже не могли. Алгоритм обработки данных ИИ просто не оставлял им иного выбора.

В заключении экспериментаторы отметили, что даже гибридные (ИИ + люди) военные системы ведут к коренному изменению эскалационной логики и динамики принятия решений. Причем главным фактором негативной неопределенности становится не противник, а именно искусственный интеллект, логика действий которого остается людям непонятной. Даже учитывая тот факт, что люди сами же создают и программируют ИИ.

Выбор читателя

Топ недели