Майбутнє війни в епоху штучного інтелекту (II)
- Matthew Parish
- 1 день тому
- Читати 4 хв

Якщо першим етапом війни на основі штучного інтелекту є широке впровадження машинного навчання в розвідку, цілеуказання та логістику, то другий етап характеризуватиметься консолідацією цих систем у цілісні доктрини ведення війни. Вже наявні тематичні дослідження на полі бою дають перші підказки щодо того, куди можуть призвести такі доктрини та які небезпеки вони можуть нести.
Уроки сучасних конфліктів
Україна стала випробувальним майданчиком для ведення війни за допомогою штучного інтелекту. Українські збройні сили використовують алгоритми машинного навчання в таких системах, як «Дельта» – платформа управління полем бою, яка об’єднує дані з дронів, супутників та наземних спостерігачів для забезпечення обізнаності про ситуацію в режимі реального часу. Російські збройні сили також використовували штучний інтелект для автоматизації зграй дронів та покращення радіоелектронної боротьби, глушіння українських комунікацій та сигналів GPS. Ключовий урок полягає в тому, що штучний інтелект сприяє гнучкості та децентралізації: підрозділи з доступом до даних у реальному часі та адаптивних алгоритмів можуть завдавати ударів швидше та з більшою точністю, ніж ті, хто чекає наказів через традиційні ланцюги командування.
Інші конфлікти демонструють схожі закономірності. У Нагірному Карабаху (2020 рік і пізніше) Азербайджан використовував безпілотники зі штучним інтелектом та барражуючі боєприпаси з руйнівним впливом на вірменську бронетехніку та засоби протиповітряної оборони, демонструючи, як відносно невеликі держави можуть використовувати алгоритми для отримання вирішальної переваги на полі бою. У Газі системи вибору цілей на базі штучного інтелекту прискорили темпи ударів, хоча й зі зростаючими суперечками щодо жертв серед цивільного населення. Ці епізоди передвіщають, як штучний інтелект може трансформувати конфлікти будь-якого масштабу: швидкий темп, зменшення людського контролю та розмиття меж між простором бойових дій та простором цивільного населення.
Доктрини 2030-х років
До 2030-х років держави, ймовірно, формалізують доктрини, зосереджені на системах штучного інтелекту. Особливо ймовірними видаються три тенденції:
Алгоритмічне командування: Генерали-люди більше не можуть детально розробляти операції. Натомість, симуляції штучного інтелекту генеруватимуть плани битв на основі даних про наявні сили, місцевість та профілі ворога. Командири стануть наглядачами, а не розробниками, перевіряючи або змінюючи стратегію машини. Це скоротить цикли планування з тижнів до годин.
Ройова перевага: Чисельна маса повернеться на поле бою у вигляді дешевих, одноразових автономних систем. Армії можуть вимірювати свою силу не стільки дивізіями чи бригадами, скільки кількістю безпілотників та роботизованих платформ, які вони можуть розгорнути одночасно. Контроль над електромагнітним спектром — глушіння, спуфінг та злом — буде таким же важливим, як і вогнева міць.
Синтетичні полігони: Штучний інтелект також революціонізує підготовку до війни. Цифрові двійники — віртуальні копії цілих полів битв — дозволять військовим нескінченно репетирувати операції в симуляції, перш ніж проводити їх у реальності. Це означає, що коли почнеться війна, супротивники, можливо, вже провели тисячі симульованих версій однієї й тієї ж кампанії, навчаючись на кожній ітерації.
Стратегічні наслідки
Глобальний баланс сил зміниться у відповідь на ці події. Великі держави — Сполучені Штати, Китай, Росія та Європейський Союз разом — змагатимуться за домінування у війні за допомогою штучного інтелекту не лише шляхом створення кращих систем, але й шляхом інтеграції їх у доктрину та забезпечення стійкості до збоїв. Держави, які не зможуть встигати за темпом, опиняться в незначному становищі, а їхні збройні сили не зможуть ефективно діяти проти супротивників, що мають машинну швидкість.
Виникає парадокс: хоча ШІ обіцяє зменшити людські втрати серед передових військових, він одночасно може збільшити ризик воєнних дій серед цивільного населення. Кібератаки на енергомережі, системи водопостачання та лікарні будуть виправдані як «нелетальні удари», проте їхні наслідки можуть бути руйнівними. Більше того, якщо рої ШІ зможуть дешево насичувати міста, поріг для здійснення таких атак може знизитися, що підірве давні норми стримування.
Роль недержавних суб'єктів
Війна за допомогою штучного інтелекту не буде монополією держав. Приватні військові підрядники можуть розробляти власні системи штучного інтелекту, здаючи в оренду безліч автономних дронів, так само, як колись найманці наймали свої мечі. Злочинні синдикати можуть використовувати штучний інтелект як зброю для вимагання, закриваючи порти чи аеропорти, доки не буде сплачено викуп. Терористичні групи можуть використовувати автономні дрони для видовищних атак, які не потребують терористів-смертників. Поширення штучного інтелекту в руки недержавних структур загрожує розширенням масштабів конфлікту, що виходить за межі контролю урядів.
Дилеми контролю
Зі зростанням бойових дій найнагальнішим викликом буде збереження значного людського контролю. Держави можуть прийняти доктрини «людини в циклі», за яких машини виконують операції, але люди контролюють і можуть втручатися за необхідності. Однак на практиці швидкість взаємодії може зробити такий нагляд ілюзорним. Ризик ескалації через алгоритм – коли машина помилково сприйме приманки за ракетний обстріл і спровокує удар у відповідь – переслідуватиме військових планувальників.
Тому у 2030-х роках можуть з'явитися зусилля щодо контролю над озброєннями, подібні до ядерних договорів часів Холодної війни. Можуть з'явитися пропозиції щодо заборони певних категорій автономної зброї або встановлення міжнародних норм, що вимагають схвалення людиною смертельних ударів. Однак перевірка буде складною, оскільки системи штучного інтелекту можуть бути приховані в цивільних технологіях, і спокуса отримати перевагу шляхом таємного розгортання буде величезною.
На шляху до невизначеного майбутнього
Штучний інтелект не скасує людський фактор у війні, але докорінно змінить її значення. Політичні лідери все ще вирішуватимуть, коли воювати, але вони можуть виявити, що після запуску системи штучного інтелекту ескалюють конфлікти поза їхнім контролем. Солдати все ще існуватимуть, але все частіше як охоронці машин, а не як безпосередні комбатанти. Цивільні залишатимуться жертвами, часто потрапляючи під невидимий перехресний вогонь кібератак та алгоритмічних прорахунків.
Кінцеве питання полягає в тому, чи зможе людство достатньо швидко адаптувати свої моральні та правові рамки, щоб вони відповідали темпам розвитку технологічних технологій. Війни 2030-х років можуть не бути схожими на війни минулого; вони можуть бути змаганнями алгоритмів, що ведуться зі швидкістю, що перевищує людське розуміння. У такому світі найбільшу небезпеку можуть становити не самі машини, а наша нездатність мудро ними керувати.