Według wyższego urzędnika Pentagonu poleganie Departamentu Obrony na antropicznej sztucznej inteligencji było szokującym odkryciem, które ostatecznie doprowadziło do dramatycznej schizmy.
Emil Michael, podsekretarz departamentu ds. badań i inżynierii oraz dyrektor ds. technologii, w piątkowym odcinku podcastu All-In szczegółowo opisał wydarzenia, które doprowadziły do publicznego sporu.
Po nalocie wojsk amerykańskich na Wenezuelę na początku stycznia, w wyniku którego schwytano dyktatora Nicolása Maduro, firma Anthropic zapytała Palantira, czy w operacji wykorzystano jego sztuczną inteligencję. Choć Anthropic określiło badania jako rutynowe, Pentagon i Palantir zinterpretowały je jako potencjalne zagrożenie dla ich dostępu.
„Zastanawiam się, cholera, co by było, gdyby to oprogramowanie się zawiesiło, poszła jakaś barierka, ktoś odrzuciłby następną walkę taką jak ta i narazilibyśmy naszych ludzi na ryzyko?” Michał przypomniał. „Poszedłem więc do sekretarza Hegsetha, powiedziałem mu, że to się wydarzy, i dla całego kierownictwa Pentagonu był to wielki moment, że jesteśmy potencjalnie tak zależni od dostawcy oprogramowania, który nie ma innej alternatywy”.
Do niedawna Claude firmy Anthropic był jedynym modelem sztucznej inteligencji dopuszczonym w tajnych środowiskach. Startup z siedzibą w San Francisco oświadczył, że jest patriotyczny i stara się bronić Stanów Zjednoczonych, ale nie pozwoli na wykorzystanie swojej sztucznej inteligencji do masowego nadzoru krajowego ani broni autonomicznej.
Pentagon nalegał, aby używać sztucznej inteligencji w scenariuszach prawnych i odmówił honorowania jakichkolwiek ograniczeń firmy, które wykraczałyby poza te ograniczenia.
Po nieudanej próbie osiągnięcia porozumienia w zeszłym tygodniu prezydent Donald Trump nakazał rządowi federalnemu zaprzestanie używania Anthropic i dał Pentagonowi sześć miesięcy na jego wycofanie. Sekretarz obrony Pete Hegseth również określił tę firmę jako stwarzającą ryzyko w łańcuchu dostaw, co oznacza, że kontrahenci nie mogą wykorzystywać jej do prac wojskowych.
Na razie wojsko w dalszym ciągu korzysta z Anthropic podczas wojny USA z Iranem, ponieważ sztuczna inteligencja pomaga bojownikom w szybkim tempie identyfikować potencjalne cele.
Podczas swojego wystąpienia w podcaście Michael wyraził obawy, że nieuczciwy programista może „otruć model”, aby uczynić go nieskutecznym dla wojska, wytrenować go w zakresie celowych halucynacji lub nakazać mu, aby nie postępował zgodnie z instrukcjami.
Następnie skontaktował się z OpenAI, które ostatecznie osiągnęło porozumienie podobne do Anthropic. Do tajnej grupy zalicza się także xAI Elona Muska, zaś Pentagon stara się, aby sztuczna inteligencja Google’a była dozwolona także w tajnych ustawieniach.
„Nie jestem stronniczy” – powiedział Michael. „Po prostu kocham ich wszystkich. Chcę zapewnić im dokładnie takie same warunki, ponieważ potrzebuję zwolnienia”.
Przyznał, że Anthropic „głęboko zakorzenił się” w swoim dziale, podczas gdy inne firmy zajmujące się sztuczną inteligencją nie zabiegały tak agresywnie o klientów korporacyjnych, udostępniając inżynierów oddelegowanych do przodu.
Spór między Pentagonem a Anthropic uwydatnił zderzenie kultur między establishmentem obronnym a Doliną Krzemową, która ma swoje korzenie w innowacjach wojskowych, ale od tego czasu nieufnie podchodzi do wykorzystywania jej technologii do celów wojennych.
W rzeczywistości czołowa inżynier robotyki w OpenAI ogłosiła w sobotę swoją rezygnację z pracy w firmie, powołując się na te same obawy wyrażone przez Anthropic.
„To nie była łatwa decyzja. Sztuczna inteligencja odgrywa ważną rolę w bezpieczeństwie narodowym. Jednak inwigilacja Amerykanów bez nadzoru sądowego i zabójcza autonomia bez zezwolenia człowieka to kwestie, które zasługiwały na więcej dyskusji, niż im się wydawało” – Caitlin Kalinowski opublikowała na X i LinkedIn.

