Thursday, February 26, 2026

W swojej walce z Hegsethem Anthropic staje w obliczu być może największego kryzysu w swoim pięcioletnim istnieniu | Fortuna

Koniecznie przeczytaj

Firma Anthropic zajmująca się sztuczną inteligencją stoi w obliczu prawdopodobnie największego kryzysu w swojej pięcioletniej historii, gdy zbliża się piątkowy termin usunięcia ograniczeń dotyczących korzystania przez Departament Wojny USA z jej technologii pod groźbą podjęcia przez Pentagon działań, które mogłyby sparaliżować jej działalność.

Pete Hegseth, sekretarz wojny Stanów Zjednoczonych, zażądał, aby firma Anthropic usunęła ograniczenia, które obecnie określa w swoich umowach, które zabraniają wykorzystywania jej modeli sztucznej inteligencji do celów masowej inwigilacji lub włączania ich do śmiercionośnej broni autonomicznej, która może podejmować decyzje o ataku bez interwencji człowieka. Zamiast tego Hegseth chce, aby firma Anthropic zastrzegła, że ​​jej technologię można wykorzystać w „dowolnym zgodnym z prawem celu”, jaki chce realizować Departament Wojny.

Jeśli firma nie zastosuje się do ustaleń do piątku, Hegseth zagroził nie tylko anulowaniem istniejącego kontraktu Anthropic ze swoim wydziałem na kwotę 200 milionów dolarów, ale także oznaczeniem firmy jako „ryzyka w łańcuchu dostaw”, co oznacza, że ​​żadna firma współpracująca z Departamentem Wojny nie będzie mogła korzystać z modeli Anthropic. Może to zahamować rozwój Anthropic, ponieważ firma, obecnie wyceniana na 380 miliardów dolarów, odnotowuje znaczny rozwój biznesowy i rozważa pierwszą ofertę publiczną już w przyszłym roku.

Wtorkowe spotkanie Hegsetha z dyrektorem generalnym Anthropic Dario Amodei w Waszyngtonie nie doprowadziło do rozwiązania konfliktu i zakończyło się powtórzeniem przez Hegsetha swojego ultimatum.

Spór toczy się na tle czasami otwartej wrogości wobec Anthropic ze strony innych urzędników administracji Trumpa. W szczególności car AI David Sacks publicznie zaatakował firmę w mediach społecznościowych za reprezentowanie „przebudzonej sztucznej inteligencji” i „fatalistycznego kompleksu przemysłowego”. Sacks oskarżył firmę o stosowanie „wyrafinowanej strategii przechwytywania przepisów opartej na sianiu strachu”. Ich argument jest zasadniczo taki, że kadra kierownicza Anthropic fałszywie ostrzega o ekstremalnych zagrożeniach związanych z systemami sztucznej inteligencji, aby uzasadnić regulacje dotyczące technologii, których tylko Anthropic i niektóre inne firmy zajmujące się sztuczną inteligencją mogą z łatwością przestrzegać.

Dyrektor generalny Anthropic, Dario Amodei, nazwał te poglądy „niewłaściwymi” i upierał się, że firma podziela wiele celów politycznych z administracją Trumpa, w tym chęć, aby Stany Zjednoczone pozostały w czołówce rozwoju technologii sztucznej inteligencji.

Mimo to Sacks i inne osoby w administracji mogą mieć nadzieję, że Hegseth spełni swoje groźby umieszczenia Anthropic na czarnej liście z łańcucha dostaw bezpieczeństwa narodowego.

Inne firmy zajmujące się sztuczną inteligencją, takie jak OpenAI i Google, najwyraźniej nie nałożyły żadnych ograniczeń na sposób, w jaki wojsko amerykańskie wykorzystuje swoją technologię.

Zasady a pragmatyzm

Współpraca z wojskiem budzi kontrowersje wśród niektórych pracowników branży technologicznej. W 2018 r. Google spotkało się z głośnym buntem pracowników w związku z decyzją o wsparciu Pentagonu w ramach „Projektu Maven” mającego na celu wykorzystanie sztucznej inteligencji do analizy obrazów z monitoringu lotniczego. Bunt pracowników zmusił Google do wycofania się z oferty przedłużenia umowy o pracę nad projektem. Jednak od tego czasu gigant internetowy po cichu odnowił swoje powiązania z establishmentem obronnym, a w grudniu Departament Wojny ogłosił, że wdroży modele sztucznej inteligencji Gemini firmy Google do szeregu zastosowań.

Owen Daniels, zastępca dyrektora ds. analiz w Centrum Bezpieczeństwa i Powstających Technologii (CSET) na Uniwersytecie Georgetown, powiedział Associated Press, że „rówieśnicy Anthropic, w tym Meta, Google i xAI, byli skłonni przestrzegać polityki wydziału dotyczącej stosowania modeli we wszystkich zastosowaniach prawnych. W związku z tym siła negocjacyjna firmy w tym przypadku jest ograniczona i istnieje ryzyko utraty wpływu na wysiłki departamentu na rzecz przyjęcia sztucznej inteligencji”.

Jednak zasady mogą być niezwykle silną motywacją dla pracowników Anthropic. Firma została założona przez grupę badaczy, którzy rozstali się z OpenAI po części ze względu na obawę, że laboratorium pozwala, aby presja komercyjna odciągnęła je od pierwotnej misji polegającej na zapewnieniu rozwoju potężnej sztucznej inteligencji z korzyścią dla ludzkości. Niedawno firma Anthropic przyjęła zasadnicze stanowisko, aby nie włączać reklam do swoich produktów Claude i nie tworzyć chatbotów zaprojektowanych specjalnie z myślą o towarzyszeniu w sytuacjach romantycznych lub erotycznych.

Biorąc pod uwagę kulturę firmy, niektórzy zewnętrzni komentatorzy spekulują, że przynajmniej część personelu Anthropic zrezygnuje, jeśli firma ustąpi żądaniom Hegsetha i usunie ograniczenia obecnie wbudowane w kontrakty rządowe.

Hegseth powiedział również, że Pentagon ma inną opcję, jeśli Anthropic dobrowolnie nie zastosuje się do jego prośby. Wiązałoby się to z wykorzystaniem ustawy o produkcji obronnej z 1950 r., aby zmusić firmę Anthropic do zaoferowania wojsku wersji modelu Claude bez żadnych ograniczeń.

Na tę DPA, która pierwotnie miała umożliwić rządowi przejęcie produkcji cywilnej w przypadku wojny, powołano się podczas pandemii Covid-19, aby zmusić firmy do produkcji sprzętu ochronnego i szczepionek. Od tego czasu był on wielokrotnie używany, głównie przez administrację Bidena, nawet w przypadku braku wyraźnego stanu nadzwyczajnego w kraju. Na przykład w 2023 r. Biały Dom Bidena powołał się na DPA, aby zmusić firmy technologiczne do dzielenia się z rządem informacjami na temat testów bezpieczeństwa ich zaawansowanych modeli sztucznej inteligencji.

Katie Sweeten, która do września 2025 r. pełniła funkcję łącznika Departamentu Sprawiedliwości z Departamentem Obrony, a obecnie jest partnerem w kancelarii prawnej Scale, powiedziała CNN, że stanowisko Hegsetha nie ma sensu z politycznego punktu widzenia. „Myślę, że nie chcemy wykorzystywać technologii, która stwarza ryzyko dla łańcucha dostaw, prawda? Nie wiem więc, jak to rozwiązać” – powiedział.

Dean Ball, który był doradcą ds. polityki sztucznej inteligencji w administracji Trumpa, pomagając w opracowaniu planu działania dotyczącego sztucznej inteligencji, a obecnie jest starszym członkiem Fundacji na rzecz Amerykańskich Innowacji, w poście na temat powiedział również, że stanowisko Pentagonu jest „niespójne”.

Ball powiedział Tech Crunch, że nałożenie etykiety ryzyka w łańcuchu dostaw byłoby strasznym sygnałem dla każdej firmy prowadzącej interesy z rządem. „Zasadniczo oznaczałoby to, że rząd powiedziałby: «Jeśli nie zgadzacie się z nami pod względem politycznym, spróbujemy wyrzucić pana z interesu»” – powiedział.

Niektórzy komentatorzy prawni zauważyli, że obie strony sporu miały uzasadnione argumenty. „Nie chcielibyśmy, aby Lockheed Martin sprzedał wojsku F-35, a następnie powiedział Pentagonowi, jakie misje może wykonać” – powiedział Alan Rozenshtein, profesor prawa na Uniwersytecie w Minnesocie i pracownik Brookings, w felietonie opublikowanym na stronie Lawfare.

Rozenshtein argumentował jednak również, że to Kongres, a nie Pentagon, powinien ustalić zasady wdrażania sztucznej inteligencji przez armię amerykańską. „Warunki regulujące sposób, w jaki wojsko wykorzystuje najbardziej rewolucyjną technologię stulecia, ustalane są w drodze dwustronnych targów pomiędzy Sekretarzem Obrony a dyrektorem generalnym startupu, bez wkładu demokracji i trwałych ograniczeń” – napisał.

W środku tygodnia spółka Anthropic nie wykazywała żadnych oznak wycofania się ze swojego stanowiska.

Stawką jest przyszłość Claude’a

Zaledwie w zeszłym tygodniu firma Anthropic ponownie pokazała, w innym kontekście, że czasami jest skłonna przedłożyć pragmatyzm i imperatywy biznesowe nad zasady altruistyczne. Firma zaktualizowała swoją Politykę odpowiedzialnego skalowania (RSP), rezygnując z wcześniejszego zobowiązania, aby nigdy nie szkolić modelu sztucznej inteligencji, chyba że będzie w stanie zapewnić mu odpowiednie środki kontroli bezpieczeństwa. Zamiast tego nowy RSP po prostu zobowiązuje Anthropic do dorównania lub przekroczenia wysiłków konkurentów w zakresie bezpieczeństwa. Mówi również, że Anthropic opóźni rozwój modelu, jeśli firma uzna, że ​​ma wyraźną przewagę nad konkurencją, a także uważa, że ​​model, który szkoli, stwarza poważne ryzyko katastrofalne. Jared Kaplan, szef działu badań w Anthropic, powiedział Timeowi, że „jednostronne zobowiązania” nie mają już sensu, jeśli „konkurenci idą do przodu”.

Czas pokaże, czy Anthropic pójdzie na podobne ustępstwo wobec nacisków handlowych w swojej walce z Departamentem Wojny.

- Advertisement -spot_img

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

- Advertisement -spot_img

Najnowszy artykuł