Prawnicy Departamentu Wojny i Anthropic starli się we wtorek przed sądem federalnym w Kalifornii w związku ze wyzwaniem Anthropic rzuconym Pentagonowi, nazywając to „ryzykiem w łańcuchu dostaw” dla bezpieczeństwa narodowego i zakazując wszystkim wykonawcom rządowym korzystania z rozbudowanych narzędzi sztucznej inteligencji firmy. Anthropic domaga się orzeczenia sądowego uniemożliwiającego wykonanie tego nakazu.
Sprawa ta, będąca pierwszą w historii, ponieważ Departament Obrony, nieformalnie przemianowany przez administrację Trumpa na Departament Wojny (DOW), określił firmę pod przewodnictwem USA jako stwarzającą ryzyko w łańcuchu dostaw bezpieczeństwa narodowego, ma swoje korzenie w negocjacjach kontraktowych, które szybko się nasiliły. DOW chciał dodać do swoich umów z firmą zajmującą się sztuczną inteligencją ogólną klauzulę „wszelkiego legalnego użycia”, aby wojsko mogło używać narzędzia Claude firmy Anthropic w dowolnym legalnym celu.
Sędzia prowadzący sprawę wyraził wątpliwości co do szerokiej władzy, jaką Pentagon sprawował w tej sprawie. Sędzia okręgowy USA Rita Lin powiedziała, że „w nadchodzących dniach” wyda orzeczenie w sprawie skargi prawnej Anthropic i spędziła wtorkową rozprawę, zadając stronom pytania dotyczące ich sporu.
Gorący spór o wykorzystanie sztucznej inteligencji
Podczas negocjacji kontraktowych z Pentagonem w lutym firma Anthropic sprzeciwiła się możliwości wykorzystania Claude przez wojsko do śmiercionośnych autonomicznych działań wojennych i masowej inwigilacji Amerykanów i próbowała nalegać na wprowadzenie przepisów wyraźnie zabraniających takiego wykorzystania. Firma Anthropic, kierowana przez założyciela Dario Amodei, stwierdziła, że nie przetestowała szczegółowo tych zastosowań i nie wierzy, że działają one bezpiecznie. DOW stwierdził, że te bariery są nie do przyjęcia i że dowódcy wojskowi potrzebują swobody w podejmowaniu decyzji dotyczących misji.
27 lutego prezydent Trump zamieścił w Truth Social post, w którym nakazał „WSZYSTKIM” agencjom federalnym „NATYCHMIAST ZAKOŃCZYĆ” wszelkie użycie narzędzi antropicznych. Tego samego dnia w poczta W dniu Etykieta ryzyka jest zazwyczaj zarezerwowana dla państw narodowych, zagranicznych przeciwników i innych zagrożeń.
Następnie 9 marca Anthropic złożyła pozew, utrzymując, że rząd „zemścił się na niej” za wyrażenie jej poglądów na temat balustrad bezpieczeństwa i naruszył w ten sposób Pierwszą Poprawkę. Twierdził także, że rząd naruszył proces ustanowiony w ustawie o postępowaniu administracyjnym i prawo do rzetelnego procesu zawarte w Piątej Poprawce.
W pismach na temat sprawy oraz we wtorek w sądzie rząd stwierdził, że działania administracji były odpowiedzią na odmowę Anthropic wdrożenia niektórych warunków umowy i argumentował, że w tej sprawie stawką nie jest wolność słowa. Zastępca prokuratora generalnego Eric Hamilton powiedział, że rząd ma nieograniczoną władzę w zakresie decydowania, z którymi firmami będzie zawierał umowy. Hamilton powiedział, że zachowanie Anthropic wzbudziło obawy, że przyszłe aktualizacje oprogramowania mogą zostać wykorzystane jako „wyłącznik awaryjny”, uniemożliwiający sztuczną inteligencję podczas operacji wojskowych.
Sędzia okręgowa Rita F. Lin była sceptyczna, opisała sprawę w swoich przemówieniach wstępnych jako „fascynującą debatę na temat polityki publicznej” na temat stanowiska Anthropic w porównaniu z potrzebami wojskowymi rządu, stwierdziła jednak, że jej rolą nie jest „decydowanie, kto ma rację w tej debacie”.
Lin stwierdziła raczej, że prawdziwym pytaniem, które sąd musi rozstrzygnąć, jest to, czy rząd „naruszył prawo”, wykraczając poza zwykłe niekorzystanie z usług sztucznej inteligencji Anthropic i znalezienie bardziej dopuszczalnego dostawcy sztucznej inteligencji do współpracy.
„Po tym, jak firma Anthropic upubliczniła spór dotyczący umowy, wydawało się, że oskarżeni zareagowali na niego dość mocno” – powiedział Lin.
Wśród reakcji znalazł się zakaz zawierania przez firmę Anthropic kontraktu rządowego oraz wykluczenie innych podmiotów, takich jak National Endowment for the Arts, z wykorzystywania go do projektowania strony internetowej; dyrektywa Hegsetha, zgodnie z którą każdy, kto chce robić interesy z armią USA, zerwie relacje biznesowe z Anthropic; oraz uznanie Anthropic za ryzyko w łańcuchu dostaw.
„Niepokoi mnie w tych reakcjach to, że tak naprawdę nie wydają się one dostosowane do deklarowanych obaw związanych z bezpieczeństwem narodowym” – powiedział Lin. Jeśli obawy dotyczą struktury dowodzenia, DOW może po prostu zaprzestać korzystania z Claude’a i działać dalej, powiedział.
„W jednej z rozmów amicus użyto określenia „próba zabójstwa na firmę” – dodał. „Nie wiem, czy to morderstwo, ale wygląda na próbę okaleczenia Anthropic. W szczególności niepokoję się, czy Anthropic zostanie ukarany za krytykowanie w prasie umownego stanowiska rządu”.
Strony jednoczą się w sprawie Anthropic
Amicus, przyjaciel sądu w tej sprawie, spotkał się z różnymi głosami, w tym ze strony Microsoftu, emerytowanych oficerów wojskowych oraz inżynierów i badaczy z OpenAI i Google. Prawie wszyscy popierają stanowisko Anthropic domagające się wydania nakazu w sprawie oznaczenia ryzyka w łańcuchu dostaw.
Raport, o którym wspomniał Lin, pochodził od inwestorów i „Stowarzyszenia Biznesu Wolności i Gospodarki”. W tekście nawiązano do publikacji X napisanej przez Deana Balla, byłego starszego doradcę politycznego Trumpa ds. sztucznej inteligencji i wschodzących technologii.
„Nvidia, Amazon i Google będą musiały pozbyć się Anthropic, jeśli Hegseth postawi na swoim” – napisał Ball. „To po prostu próba zamachu na korporację. Nie mogę polecić żadnemu inwestorowi inwestowania w amerykańską sztuczną inteligencję; nie mogę polecić założenia firmy zajmującej się sztuczną inteligencją w Stanach Zjednoczonych”.
Amerykańska Federacja Pracowników Rządowych, związek zrzeszający 800 000 pracowników federalnych, stwierdziła w swoim spotkaniu amicus, że administracja Trumpa ma zwyczaj wykorzystywania obaw związanych z bezpieczeństwem narodowym jako pretekstu do odwetu na wolności słowa.
Microsoft napisał, że zakaz Anthropic zaszkodziłby jego własnej działalności i mógłby spowolnić przyszłe inwestycje przemysłu obronnego i zaangażowanie w sztuczną inteligencję.
W raporcie Organizacji Praw Człowieka i Sprawiedliwości Technologicznej nie zajęto stanowiska w sprawie tego, kto powinien wygrać w sądzie, ale ogólnie wypowiadano się przeciwko zmilitaryzowanej sztucznej inteligencji i stwierdzano, że jej stosowanie może prowadzić do katastrofalnych zagrożeń dla praw człowieka.
Lin powiedział, że wyda opinię w tym tygodniu.
Posiadam wykształcenie w zakresie dziennikarstwa i komunikacji. Interesuję się bieżącymi wydarzeniami, mediami oraz sprawami społecznymi. Jako dziennikarz skupiam się na przekazywaniu jasnych, rzetelnych i wiarygodnych informacji.

