Według źródła obecnego na spotkaniu i podsumowania spotkania, do którego dotarło „Fortune”, Sam Altman powiedział pracownikom OpenAI na wielostronnym spotkaniu w piątkowe popołudnie, że wyłania się możliwa umowa z Departamentem Wojny USA w sprawie wykorzystania modeli i narzędzi sztucznej inteligencji startupu. Umowa nie została jeszcze podpisana.
Spotkanie odbyło się pod koniec tygodnia, w którym konflikt między Sekretarzem Wojny Pete’em Hegsethem a rywalem OpenAI, firmą Anthropic, przerodził się w publiczną zaciekłość, kończąc się widocznym wygaśnięciem kontraktów Anthropic z Pentagonem i szerzej rządem federalnym.
Altman powiedział, że rząd jest skłonny pozwolić OpenAI na zbudowanie własnego „stosu bezpieczeństwa” (tj. wielowarstwowego systemu kontroli technicznej, politycznej i ludzkiej, który oddziela potężny model sztucznej inteligencji od jej wykorzystania w świecie rzeczywistym) i że jeśli model odmówi wykonania zadania, rząd nie będzie zmuszał OpenAI do zmuszania go do wykonania tego zadania.
OpenAI zachowałaby kontrolę nad sposobem wdrażania zabezpieczeń technicznych, jakie modele są wdrażane i gdzie, a także ograniczyłaby wdrażanie do środowisk chmurowych, a nie do „systemów brzegowych”. (W kontekście wojskowym systemy brzegowe to kategoria, która może obejmować samoloty i drony). W ramach czegoś, co byłoby poważnym ustępstwem, Altman powiedział pracownikom, że rząd wyraził chęć uwzględnienia w umowie tzw. „czerwonych linii” OpenAI, w tym zakazu stosowania sztucznej inteligencji do zasilania autonomicznej broni, zakazu masowego nadzoru w kraju i podejmowania krytycznych decyzji.
OpenAI i Departament Wojny nie odpowiedziały natychmiast na prośby o komentarz.
Według źródła Sasha Baker, szefowa polityki bezpieczeństwa narodowego OpenAI, i Katrina Mulligan, która w rządzie kieruje bezpieczeństwem narodowym OpenAI, również przemawiały na OpenAI. Jeden z tych urzędników powiedział, że stosunki z Anthropic i rządem uległy zerwaniu, ponieważ dyrektor generalny i współzałożyciel Anthropic, Dario Amodei, obraził kierownictwo Departamentu Wojny, w tym publikując posty na blogu, które „nie spodobały się departamentowi”.
Anthropic, firma założona przez ludzi, którzy opuścili OpenAI ze względów bezpieczeństwa, była jedynym dużym komercyjnym producentem sztucznej inteligencji, którego modele zostały zatwierdzone do użytku w Pentagonie w ramach wdrożenia przeprowadzonego w ramach partnerstwa z Palantirem. Jednak zarząd Anthropic i Pentagon toczą od kilku dni spór dotyczący ograniczeń, jakie Anthropic chciała nałożyć na wykorzystanie swojej technologii. Ograniczenia te są w zasadzie takie same, jak według Altmana, które Pentagon miałby spełnić, gdyby korzystał z technologii OpenAI.
Anthropic odrzucił żądania Pentagonu, aby usunąć zabezpieczenia z modelu Claude, które ograniczają zastosowania takie jak masowy nadzór w kraju lub w pełni autonomiczna broń, mimo że urzędnicy obrony nalegali, aby modele sztucznej inteligencji były dostępne „do wszystkich celów zgodnych z prawem”. Pentagon, w tym sekretarz wojny Pete Hegseth, ostrzegł Anthropic, że w przypadku niezastosowania się do ustaleń może stracić kontrakt o wartości do 200 milionów dolarów. Altman powiedział wcześniej, że OpenAI podziela „czerwone linie” Anthropic w zakresie ograniczania niektórych wojskowych zastosowań sztucznej inteligencji, podkreślając, że nawet gdy OpenAI negocjuje z rządem USA, stoi w obliczu tego samego podstawowego napięcia, które obecnie publicznie rozgrywa się między Anthropic a Pentagonem.
Interwencja OpenAI nastąpiła tuż po ogłoszeniu przez prezydenta Trumpa, że rząd federalny zaprzestanie współpracy z Anthropic, co oznacza dramatyczną eskalację konfliktu rządu z firmą w sprawie jej modeli sztucznej inteligencji.
„Nakazuję wszystkim agencjom federalnym rządu Stanów Zjednoczonych natychmiastowe zaprzestanie korzystania z technologii Anthropic. Nie potrzebujemy jej, nie chcemy jej i nie będziemy więcej robić z nimi interesów!” – oświadczył Trump w poście w Truth Social. Departament Wojny i inne agencje korzystające z modeli Claude’a Anthropic będą miały sześciomiesięczny okres wycofywania się z nich, powiedział.
Na spotkaniu OpenAI pracownikom powiedziano, że dla przywódców najtrudniejszym aspektem umowy są obawy dotyczące zagranicznej inwigilacji oraz że według źródła istnieją poważne obawy, że inwigilacja oparta na sztucznej inteligencji zagrozi demokracji. Jednak wydawało się, że liderzy firm również przyznali się do rzeczywistości, że rządy będą szpiegować swoich przeciwników na arenie międzynarodowej, potwierdzając twierdzenia, że urzędnicy ds. bezpieczeństwa narodowego „nie mogą wykonywać swojej pracy” bez możliwości międzynarodowego nadzoru. Odniesiono się do raportów wywiadu dotyczących zagrożeń, z których wynika, że Chiny już wykorzystywały modele sztucznej inteligencji do atakowania dysydentów za granicą.

