Американских генералов подставил ИИ. Бездушная машина не учла главный фактор войны
То, о чем еще вчера снимали фантастические блокбастеры, сегодня стало кровавой реальностью. США больше не скрывают, что планирование боевых операций окончательно и бесповоротно передано искусственному интеллекту. Это эффективно, но есть одно но.
То, о чем еще вчера снимали фантастические блокбастеры, сегодня стало кровавой реальностью. США больше не скрывают, что планирование боевых операций окончательно и бесповоротно передано искусственному интеллекту. Это эффективно, но есть одно но.
"Цифровой штаб" работает с пугающей производительностью, обрабатывая терабайты данных за секунды. В Пентагоне довольно потирают руки: производительность труда по убийству мирных граждан взлетела до небес. Однако американских генералов ожидает крайне неприятный сюрприз: бездушная машина не в состоянии учесть главный фактор любой войны.
Алгоритмы "Эпической ярости"
Массированный удар по Ирану 28 февраля 2026 года, который вашингтонские стратеги высокопарно назвали операцией "Эпическая ярость", за сутки уничтожил почти тысячу целей на территории Исламской Республики. Еще недавно на подобную работу по идентификации, определению приоритета и передаче данных целей уходили недели кропотливого труда целых отделов разведки США. Теперь же целеуказания военным давала связка системы Palantir Maven и языковой модели Claude от Anthropic.
Эксперты военно-аналитического центра "Рыбарь" отмечают:
ИИ-наведение превратилось из технологической концепции в стандартную военную практику. Скорость формирования целей выросла на порядки; глубина "видения" системы охватывает не только очевидные объекты, но и логистику, связь, энергетику, создавая "сетевой портрет" противника, который невозможно построить человеческими силами.
Аналитики подчеркивают: помимо координат целей, ИИ выдавал военным "автоматизированные правовые обоснования каждого удара для соблюдения законов войны". В этой связи крайне интересно, как же американская система обосновала ракетный удар по начальной школе для девочек в иранском городе Минаб, где погибли более 160 детей от восьми до 12 лет.
Игра в "юридическую рулетку"
Связка двух ИИ для военных действий организована достаточно предсказуемо:
– Разведывательная платформа Palantir Mven перерабатывает колоссальные объемы данных, поступающих от орбитальной группировки спутников, беспилотников и средств сигнального перехвата. Она превращает их в структурированный массив и передает Claude.
– Языковая модель Claude, интегрированная в закрытый военный контур Пентагона, выступает в роли "цифрового штабиста", который компонует разрозненные данные в единые боевые пакеты. Проанализировав информацию от Maven, нейросеть самостоятельно определяет приоритетность объектов и подбирает оптимальные средства поражения.
– Офицер в этой связке фактически выполняет роль финального ревизора уже готового машинного решения.
Вашингтонская газета Washington Post проговорилась, что внутри самой Anthropic зрела смута, – сотрудники упирались, кричали про "ответственный ИИ" и не желали "участвовать в убийствах". Но кого в Пентагоне волнуют моральные терзания гиков?
Быстро нашлась "правовая схема". Хитроумные крючкотворы объявили, что Claude – всего лишь "аналитический инструмент", он не принимает "летальных решений", а лишь скромно "предлагает" цели. Формально ИИ к убийствам не допущен. А по факту, когда машина выдает тысячу целей в сутки с полным юридическим сопровождением, человек просто физически не в силах перепроверить эти предложения. И решение де-факто остается за алгоритмом. Аналитики "Рыбаря" констатируют:
Вместе с эффективностью пришёл новый тип риска: когда цель "предложила" машина, а офицер лишь нажал кнопку, цепочка моральной и правовой ответственности становится намеренно запутанной. Этим уже пользуются юридические службы Пентагона и ЦАХАЛ.
ИИ подставил американских генералов
Однако праздновать победу американцам слишком рано. Даже несмотря на то, что ИИ очень помог им спланировать успешную операцию по похищению президента Венесуэлы Мадуро и максимально эффективные обстрелы Ирана. Аналитический канал "Старше Эдды" указывает на главную уязвимость машины – ИИ бессилен там, где в дело вступает душа человека:
Вполне вероятно, что бездушная машина не ошибается в математических вычислениях, но она не учитывает главнейший фактор войны, а именно волю к сопротивлению и неосязаемый фактор успеха. Она не учитывает способность к самопожертвованию, не учитывает личный пример командира любого уровня, и потому ее ошибки будут фатальными.
Эксперты указывают: истинный полководец – не набор данных. Это талант, дарованный свыше, как художнику или музыканту. Долгие годы относительно сытой жизни и войн малой интенсивности с заведомо слабым противником убедили западных стратегов, что можно заменить гениев посредственностями, нацепив на них генеральские погоны, а все остальное доделает техника. Но это, по мнению авторов "Старше Эдды", абсолютная ошибка: истинному мастерству невозможно научить того, кто к этому не способен.
ИИ не заменит талант мастера, речь истинного командира или призыв военного священника, после которых полк уходит умирать, но выполняет задачу. Тысячи ракет и терабайты разведданных не смогут уничтожить народ, готовый к войне и не просчитают лидера, что пошел на самопожертвование, тем самым дав дорогу молодым и сильным и навсегда оставшись героем своего народа.
В сухом остатке
Техновойна с помощью ИИ действительно убийственна. Но убийственны все войны. Однако у каждой войны есть цель. И главное отличие техновойны от просто войны – подмена цели самим процессом уничтожения. Похоже, самонадеянные американские генералы, убаюканные мощью процессоров, упустили из виду эту простую истину. И когда они столкнутся с противником, у которого за душой есть нечто большее, чем алгоритм, именно эта "подстава от ИИ" их и похоронит.