Firma Anthropic zajmująca się sztuczną inteligencją oświadczyła, że nie może przyjąć „ostatniej i najlepszej” oferty Pentagonu dotyczącej rozwiązania sporu dotyczącego ograniczeń, jakie firma nakłada na sposób, w jaki armia amerykańska może wykorzystywać swoje modele sztucznej inteligencji. Na kilka godzin przed piątkowym ostatecznym terminem spełnienia żądań Pentagonu lub stawienia czoła działaniom, które mogłyby uniemożliwić Anthropic prowadzenie interesów z jakąkolwiek firmą, która prowadzi również interesy z armią USA, spór stawał się coraz bardziej zaostrzony.
Urzędnicy Pentagonu publicznie kwestionowali charakter dyrektora generalnego Anthropic, Dario Amodei. Tymczasem pracownicy konkurencyjnych laboratoriów zajmujących się sztuczną inteligencją podpisali listy otwarte popierające stanowisko Anthropic. Jak podaje Axios, dyrektor generalny OpenAI, Sam Altman, powiedział pracownikom w czwartkowej notatce, że OpenAI wprowadzi te same ograniczenia w zakresie broni autonomicznej i masowej inwigilacji, jakie ma Anthropic, negocjując rozszerzenie wykorzystania ChatGPT, obecnie dostępnego dla wojska do niewrażliwych przypadków użycia, na bardziej tajne domeny.
Walka między Anthropo a Pentagonem grozi obecnie przekształceniem się w ogólnobranżowy bunt wśród pracowników technologicznych w firmach zajmujących się sztuczną inteligencją w związku ze sposobem, w jaki wojsko korzysta z budowanych przez siebie systemów sztucznej inteligencji. Jak podaje „New York Times”, w czwartek ponad 100 pracowników Google wysłało list do Jeffa Deana, głównego naukowca firmy, prosząc również o podobne ograniczenia dotyczące sposobu, w jaki wojsko amerykańskie wykorzystuje opracowane przez firmę modele sztucznej inteligencji Gemini.
W czwartek Amodei wydał obszerne oświadczenie wyjaśniające, dlaczego firma uważa, że powinny zostać wprowadzone ograniczenia w korzystaniu z technologii sztucznej inteligencji jego firmy w zakresie broni autonomicznej i masowej inwigilacji. Są to dwa obszary, w których Anthropic obecnie ogranicza wykorzystanie swoich modeli przez wojsko, zarówno zgodnie z warunkami umowy, jak i poprzez zabezpieczenia wbudowane bezpośrednio w modele Claude. Pentagon chce usunięcia tych ograniczeń i zgody Anthropic na to, aby armia amerykańska mogła wykorzystywać jego modele „w dowolnym celu zgodnym z prawem”.
Systemy sztucznej inteligencji Frontier „nie są wystarczająco niezawodne, aby zasilać w pełni autonomiczną broń” i bez odpowiedniego nadzoru „nie można ufać, że dokonają krytycznej oceny, którą codziennie wykazują nasi świetnie wyszkoleni żołnierze zawodowi” – napisał Amodei w swoim oświadczeniu. Jeśli chodzi o inwigilację, argumentował, że potężna sztuczna inteligencja może teraz połączyć indywidualnie nieszkodliwe dane publiczne, takie jak dzienniki lokalizacji, historia przeglądania i powiązania społeczne, w kompleksowy portret życia każdego obywatela amerykańskiego na dużą skalę.
Emil Michael, zastępca sekretarza wojny USA, w odpowiedzi nazwał Amodei „kłamcą” mającym „kompleks Boga”, oskarżając dyrektora generalnego o chęć „osobistego kontrolowania amerykańskiej armii” w postach na platformie mediów społecznościowych
Pentagon zażądał od Anthropic usunięcia ograniczeń umownych, którym się sprzeciwia, do godziny 17:01. w piątek albo grozi mu unieważnienie wartego 200 milionów dolarów kontraktu z armią amerykańską lub, w bardziej ekstremalny sposób, zostanie uznany za „ryzyko łańcucha dostaw”, co skutecznie uniemożliwiłoby każdej firmie prowadzącej interesy z wojskiem korzystanie z technologii Anthropic.
Tego typu krok jest zwykle zarezerwowany dla zagranicznych przeciwników, takich jak chiński Huawei czy rosyjska firma zajmująca się cyberbezpieczeństwem Kaspersky.
„Wykorzystanie go przeciwko spółce krajowej z powodu braku chęci do kompromisu w sprawie niektórych zasad tego rodzaju jest naprawdę eskalacyjne i bezprecedensowe” – powiedział Fortune Seán Ó hÉigeartaigh, dyrektor wykonawczy Cambridge Center for the Study of Existential Risk.
Departament Wojny zagroził również powołaniem się na ustawę o produkcji obronnej z czasów zimnej wojny, wykorzystując to prawo, aby zmusić Anthropic do dostarczenia nieograniczonej wersji Claude na tej podstawie, że rząd uważa to za niezbędne dla bezpieczeństwa narodowego. Jeśli Pentagon pójdzie tą drogą, użyje uprawnień wyłącznie nadzwyczajnych, aby rozwiązać spór dotyczący umowy o czasie pokoju. Istnieje pewien precedens: administracja Bidena również powołała się na DPA w 2023 r., aby zmusić pionierskie laboratoria zajmujące się sztuczną inteligencją do przekazywania informacji o bezpieczeństwie ich modeli sztucznej inteligencji. Jednak zmuszanie firmy do wytwarzania produktu, zamiast po prostu dostarczania informacji, zbliża się do nacjonalizacji wiodącej firmy technologicznej.
„Jeśli zostaną skutecznie zmuszeni do zezwolenia na wykorzystanie swojej technologii w sposób, który nawet oni sami uważają za zawodny w sytuacjach wysokiego ryzyka życia i śmierci, np. na polu bitwy” – stwierdził Ó hÉigeartaigh – „stworzy się to bardzo niebezpiecznym precedensem”.
Departament Wojny publicznie oświadczył, że nie ma zamiaru prowadzić masowej inwigilacji ani wykluczać ludzi z podejmowania decyzji dotyczących namierzania broni, ale spór może zależeć od tego, jak którakolwiek ze stron definiuje w praktyce „autonomię” lub „inwigilację”. Przedstawiciele departamentu nie odpowiedzieli natychmiast na prośbę Fortune o komentarz.
Rzecznik Anthropic powiedział Fortune, że firma w dalszym ciągu „współpracuje w dobrej wierze” z Departamentem Wojny. Rzecznik powiedział jednak, że tekst umowy otrzymany z dnia na dzień nie przyniósł „praktycznie żadnego postępu” w kluczowych kwestiach. Nowy język „określony jako kompromis” został „połączony z żargonem prawniczym, który pozwoliłby na dowolne ignorowanie tych zabezpieczeń” – stwierdzili. Amodei nazwał groźby Departamentu Wojny „z natury sprzeczne”, ponieważ „jeden określa nas jako zagrożenie dla bezpieczeństwa, drugi określa Claude’a jako niezbędnego dla bezpieczeństwa narodowego”.
Anthropic zyskał uznanie w niektórych kręgach za gotowość do nieustannego utrzymywania się na swoim stanowisku. Profesor prawa na Harvardzie, Lawrence Lessig, pochwalił oświadczenie firmy jako „piękny akt uczciwości i zasad” i nazwał je „niezwykle rzadkim jak na nasze czasy”.
Rywale OpenAI i xAI zgodzili się na umowy z Pentagonem, które pozwalają na wykorzystanie ich modeli do wszelkich celów prawnych, a xAI idzie dalej, zgadzając się na wdrażanie swoich systemów w niektórych tajnych środowiskach. Jednak ponad 330 obecnych pracowników konkurencyjnych laboratoriów Google DeepMind i OpenAI również opublikowało list otwarty popierający Anthropic, wzywając swoich przywódców do pójścia w ślady firmy. „Próbują rozbić każdą firmę w obawie, że druga ustąpi” – napisano w liście. „Ta strategia działa tylko wtedy, gdy nikt z nas nie wie, na czym stoją inni”. Sygnatariuszami byli starsi naukowcy oraz zarówno imienni, jak i anonimowi badacze z obu firm.
Ó hÉigeartaigh powiedział, że wyniki sporu mogą wykraczać daleko poza samo Anthropic. „Jeśli Pentagonowi ujdzie to na sucho” – powiedział – „utworzy to precedensy, które nie będą dobre dla niezależności tych firm ani ich zdolności do przestrzegania standardów etycznych”.

