Zdaniem ekspertów sztuczna inteligencja wkroczyła na salę narad i w najbliższym czasie nigdzie się nie wybiera.
Jak podaje The Wall Street Journal, mimo że prezydent Donald Trump nakazał agencjom federalnym i wykonawcom wojskowym zaprzestanie współpracy z firmą Anthropic, armia amerykańska rzekomo wykorzystała model sztucznej inteligencji firmy Claude w ataku na Iran.
Obecnie niektórzy eksperci wyrażają obawy dotyczące wykorzystania sztucznej inteligencji w operacjach wojennych. „Maszyna AI wydaje rekomendacje dotyczące celów do ataku, co pod pewnymi względami jest w rzeczywistości znacznie szybsze niż prędkość myśli” – powiedział The Guardian dr Craig Jones, autor książki The War Lawyers: US, Israel and the Spaces of Targeting, która analizuje rolę prawników wojskowych we współczesnych działaniach wojennych.
W rozmowie z Fortune Jones, profesor wojny i konfliktów na Uniwersytecie w Newcastle, powiedział, że sztuczna inteligencja znacznie przyspieszyła „łańcuch zabijania”, skracając czas od początkowej identyfikacji celu do ostatecznego zniszczenia. Powiedział, że amerykańskie i izraelskie ataki na Iran, w wyniku których zginął ajatollah Ali Chamenei, mogłyby nie mieć miejsca bez sztucznej inteligencji.
„Zrobienie tego w ten sposób byłoby niemożliwe lub prawie niemożliwe” – Jones powiedział Fortune. „Sądzę, że szybkość, z jaką zostały przeprowadzone oraz wielkość i wielkość ataków, jest możliwa dzięki sztucznej inteligencji”.
Pentagon zwrócił się do firm zajmujących się sztuczną inteligencją o pomoc w przyspieszeniu i ulepszeniu planowania wojny, nawiązując w 2024 r. partnerstwo z firmą Anthropic, które rozpadło się w zeszłym tygodniu z powodu nieporozumień dotyczących stosowania modelu sztucznej inteligencji firmy Claude. Jednak OpenAI szybko podpisało umowę z Pentagonem, a xAI Elona Muska zawarło umowę na wykorzystanie firmowego modelu sztucznej inteligencji, Grok, w tajnych systemach. Wojsko amerykańskie korzysta również z oprogramowania firmy Palantir zajmującej się eksploracją danych w celu uzyskiwania informacji opartych na sztucznej inteligencji do celów podejmowania decyzji.
AI na polu bitwy
Jones powiedział, że Siły Powietrzne Stanów Zjednoczonych od lat wykorzystują „szybkość myślenia” jako punkt odniesienia dla tempa podejmowania decyzji. Powiedział, że czas od zebrania danych wywiadowczych, takich jak zwiad powietrzny, do przeprowadzenia misji bombowej, podczas II wojny światowej i wojny w Wietnamie może zająć do sześciu miesięcy. Sztuczna inteligencja znacznie skróciła tę oś czasu.
Kluczową rolą narzędzi AI na sali narad jest szybka analiza dużych ilości danych. „Mówimy o terabajtach, terabajtach i terabajtach danych” – powiedział Jones – „wszystko, począwszy od zdjęć lotniczych, ludzkiej inteligencji, wywiadu internetowego, śledzenia za pomocą telefonów komórkowych i czegokolwiek”.
Dr Amir Husain, współautor książki Hyperwar: Confused and Competition in the AICentury, powiedział, że sztuczna inteligencja jest wykorzystywana do kompresji ram podejmowania decyzji przez armię USA, znanych jako pętla OODA, co jest akronimem słów „obserwuj, kieruj, decyduj i działaj”. Powiedział, że sztuczna inteligencja odgrywa już ważną rolę w obserwacji lub interpretacji danych elektronicznych i satelitarnych, podejmowaniu decyzji na poziomie taktycznym oraz w fazie „działania”, w szczególności za pośrednictwem autonomicznych dronów, które muszą działać bez nadzoru człowieka, gdy sygnały są zakłócane. Niektóre z tych dronów są w rzeczywistości podróbkami autonomicznych irańskich dronów Shahed.
Sztuczna inteligencja pojawiła się także na innych polach bitew. Według doniesień Izrael wykorzystywał sztuczną inteligencję do identyfikowania celów Hamasu podczas wojny między Izraelem a Hamasem. Autonomiczne drony znajdują się na pierwszej linii frontu wojny między Rosją a Ukrainą, przy czym zarówno Rosja, jak i Ukraina stosują pewne odmiany technologii autonomicznej.
Mnożenie ryzyka
Jones wskazał jednak na szereg obaw związanych z działaniami wojennymi opartymi na sztucznej inteligencji. „Problem po dodaniu sztucznej inteligencji polega na tym, że stopnie błędu mnożą się, powiedziałbym, o rzędy wielkości” – powiedział Jones.
„Bez wątpienia” – stwierdził Jones, błąd ludzki występuje niezależnie od tego, czy technologia sztucznej inteligencji jest obecna, czy nie, powołując się na inwazję Stanów Zjednoczonych na Irak w 2003 r. jako konflikt zbudowany na błędnym gromadzeniu informacji wywiadowczych. Powiedział jednak, że sztuczna inteligencja może zaostrzyć te błędy ze względu na wielkość danych analizowanych przez technologię.
Istnieje również szereg kwestii etycznych, które rodzi wojna ze sztuczną inteligencją, przede wszystkim wokół kwestii odpowiedzialności, do czego, jak stwierdził Husain, Konwencja Genewska i prawa konfliktów zbrojnych już wymagają od państw przestrzegania. Ponieważ sztuczna inteligencja zaciera granicę między podejmowaniem decyzji na poziomie człowieka i maszyny, stwierdził, że społeczność międzynarodowa musi dopilnować, aby za wszystkie działania na polu bitwy przypisano ludzką odpowiedzialność.
„Prawo konfliktu zbrojnego wymaga, abyśmy obwiniali daną osobę” – powiedział Husain. „Osoba musi być odpowiedzialna bez względu na poziom automatyzacji zastosowany na polu bitwy”.

