Anthropic, czołowa firma zajmująca się sztuczną inteligencją, spotyka się z ostrym sprzeciwem niektórych ze swoich najbardziej płodnych użytkowników w związku z zauważalnym spadkiem wydajności jej modeli AI Claude.
Problemy sprawiły, że firma – niedawno wyceniona na 380 miliardów dolarów i podobno zmierzająca do pierwszej oferty publicznej – z trudem reaguje na bunt użytkowników i internetowe spekulacje na temat jej motywów i zdolności do obsługi nowej fali klientów.
Wielu programistów i zwykłych użytkowników twierdzi, że popularny model AI Claude AI firmy Anthropic odnotował ostatnio znaczny spadek wydajności, twierdząc, że model coraz częściej nie postępuje zgodnie z instrukcjami, korzysta z czasami nieodpowiednich skrótów i popełnia więcej błędów w złożonych przepływach pracy.
Skargi wydają się być związane z niedawnymi zmianami, które Anthropic po cichu wprowadziła do sposobu działania Claude, zmniejszając domyślny poziom „wysiłku” modelu w celu zaoszczędzenia na liczbie tokenów, czyli jednostek danych, które model przetwarza w odpowiedzi na każde żądanie. (Rzecznik Anthropic powiedział publicznie, że zmiana została uwzględniona w dzienniku zmian, czyli zaktualizowanej liście aktualizacji dostępnych dla użytkowników.)
Im więcej tokenów przetwarzanych na zadanie, tym więcej mocy obliczeniowej zużywa to zadanie. Powszechne są spekulacje, że firmie Anthropic, która ogłosiła mniej wielomiliardowych transakcji na pojemność centrów danych niż niektórzy z jej rywali, może brakować zasobów obliczeniowych po gwałtownym wzroście wykorzystania jej produktów w ostatnich miesiącach.
Niezadowolenie użytkowników z nagłego spadku wyników Claude’a i złość z powodu rzekomego braku przejrzystości ze strony Anthropic mogą potencjalnie wykoleić niekontrolowany rozwój firmy, podobnie jak firma ma nadzieję przyciągnąć inwestorów do potencjalnej oferty publicznej. Twierdzenia, że Anthropic nie mówiła prawdy na temat zmian, jakie wprowadziła w sposobie działania Claude lub tego, jak zmiany mogą zwiększyć koszty korzystania z Claude, są dla Anthropic szczególnie groźne, ponieważ bardziej niż jakakolwiek inna firma zajmująca się sztuczną inteligencją starała się ona zbudować reputację marki, będąc bardziej przejrzystą niż inne firmy zajmujące się sztuczną inteligencją i lepiej dostosowaną do interesów swoich użytkowników.
Anthropic odmówił odpowiedzi na szczegółowe pytania Fortune dotyczące skargi użytkownika Claude. Boris Cherny, dyrektor Anthropic, który kieruje produktem Claude Code, odpowiedział na skargi użytkowników online, mówiąc, że Anthropic zmniejszył domyślny „wysiłek”, jaki Claude podejmuje w celu odpowiadania na żądania użytkowników, do „średniego” w odpowiedzi na opinie użytkowników, że Claude wcześniej zużywał zbyt wiele tokenów na zadanie. Jednak wielu użytkowników skarżyło się, że firma nie podkreśliła użytkownikom tej zmiany.
Sytuacja wywołała wiele spekulacji i oskarżeń, także ze strony części konkurentów, że firma celowo obniża wydajność ze względu na brak mocy obliczeniowej.
W całej branży firmy zajmujące się sztuczną inteligencją stoją w obliczu rosnących kosztów procesorów graficznych, ograniczonej rozbudowy centrów danych i trudnych kompromisów w kwestii tego, które produkty powinny stanowić priorytet, ponieważ popyt na „agentowe” systemy sztucznej inteligencji rośnie szybciej niż jest w stanie skalować infrastrukturę. Chociaż rzecznik Anthropic oświadczył publicznie, że laboratorium sztucznej inteligencji nie obniża poziomu swoich modeli, aby lepiej zaspokoić popyt, istnieją powody, aby sądzić, że firma stoi w obliczu bardziej dotkliwych ograniczeń niż niektórzy rywale.
Anthropic doświadczył serii niedawnych przestojów w związku ze wzrostem wykorzystania i wprowadzeniem bardziej rygorystycznych limitów użytkowania w godzinach szczytu, co spowodowało skargi niektórych użytkowników. W wewnętrznej notatce przekazanej przez CNBC dyrektor ds. przychodów OpenAI stwierdził również, że firma Anthropic popełniła „strategiczny błąd”, nie zapewniając wystarczającej mocy obliczeniowej i „działając na znacznie mniejszej krzywej” niż jej konkurenci. (Anthropic odmówił odpowiedzi na pytania CNBC dotyczące tych twierdzeń.)
W międzyczasie firma Anthropic ogłosiła w zeszłym tygodniu również, że wyszkoliła nowy, jeszcze nie wypuszczony na rynek model o nazwie Mythos, który ma znacznie większe możliwości niż model Opus AI, ale jest również większy i droższy w obsłudze, co oznacza, że prawdopodobnie zużywa więcej mocy obliczeniowej niż poprzednie modele. Anthropic podkreśliło, że nie udostępnia jeszcze modelu ogółowi społeczeństwa ze względów bezpieczeństwa, ale niektórzy kwestionują, czy Anthropic nie ma wystarczającej mocy obliczeniowej, aby umożliwić szerokie wdrożenie Mythos.
Ofiara własnego sukcesu
Analiza Anthropic podkreśla szybko zmieniający się charakter rynku sztucznej inteligencji i to, o co toczy się gra. W zeszłym tygodniu firma Anthropic zaskoczyła branżę, ogłaszając, że jej roczne przychody stałe, czyli ARR, wynoszą obecnie 30 miliardów dolarów, w porównaniu z 9 miliardami dolarów na koniec 2025 roku. OpenAI oświadczyło w zeszłym miesiącu, że generuje 2 miliardy dolarów miesięcznych przychodów, czyli 24 miliardy dolarów rocznie, chociaż obie firmy nie zgłaszają przychodów dokładnie w ten sam sposób, co utrudnia bezpośrednie porównania.
Firma Anthropic skorzystała ostatnio na napływie nowych użytkowników, najpierw ze względu na popularność narzędzia do kodowania sztucznej inteligencji, Claude Code, a następnie na fali wsparcia konsumentów po sporze z Departamentem Obrony USA. Wielu użytkowników przeszło na Claude od rywali, takich jak ChatGPT OpenAI, po tym, jak administracja Trumpa określiła Anthropic jako „ryzyko w łańcuchu dostaw”. Anthropic stwierdziła, że spór wynika z nalegań, aby rząd USA zgodził się w umowie na niewykorzystywanie technologii firmy do produkcji śmiercionośnej broni autonomicznej ani do masowej inwigilacji obywateli USA.
W ostatnich latach firma Anthropic zyskała znaczącą pozycję w wyścigu sztucznej inteligencji, wyłaniając się na lidera w dziedzinie sztucznej inteligencji dla przedsiębiorstw i generując znaczną dobrą reputację wśród programistów i użytkowników korporacyjnych. Jeśli jednak złość z powodu problemów Claude’a z wynikami będzie się utrzymywać, może to spowodować utratę części tej dobrej woli i doprowadzić firmę do upadku w krytycznym momencie.
W odpowiedzi na pewne kontrowersje wokół ostatnich problemów z wydajnością Claude’a, Cherny, szef Claude Code, powiedział, że Claude Opus 4.6 (sztandarowy model Anthropic) wprowadził na początku lutego „myślenie adaptacyjne”, umożliwiając modelowi decydowanie, ile rozumowania zastosować do danego zadania, zamiast korzystać ze stałego budżetu. Cherny powiedział, że na początku marca Anthropic zmienił także ustawienie domyślne na poziom „średniego wysiłku”. Chociaż użytkownicy Claude Code mogą ręcznie zmieniać poziomy wysiłku narzędzia, użytkownicy płacący za wersję Pro Cowork lub wersję Claude na komputery stacjonarne nie mogą obecnie zmieniać ustawień domyślnych.
Cherny powiedział, że aby rozwiązać niektóre problemy użytkowników, firma z dużym wysiłkiem przetestuje „domyślnych użytkowników aplikacji Teams i Enterprise, aby w przyszłości skorzystać z rozszerzonego myślenia, nawet jeśli będzie to miało kosztować dodatkowe tokeny i opóźnienia”.
Odrzuciła także spekulacje, że model został celowo rozwodniony oraz skargi użytkowników, że zmianę wprowadzono z brakiem przejrzystości, twierdząc, że zmiany wprowadzono w odpowiedzi na uwagi użytkowników i zwrócono na nie uwagę użytkowników poprzez wyskakujące okienko w interfejsie Claude Code.
„Nie nadaje się do złożonych zadań inżynierskich”
Większość skarg użytkowników dotyczy Claude Code, narzędzia do kodowania opartego na sztucznej inteligencji firmy Anthropic, które stało się jednym z najpopularniejszych i najszybciej rozwijających się produktów firmy.
Wydany na początku 2025 roku Claude Code działa jako agent wiersza poleceń, który może samodzielnie czytać, pisać i wykonywać kod w środowisku programisty. Od czasu debiutu został on powszechnie przyjęty przez indywidualnych programistów i duże zespoły inżynieryjne w przedsiębiorstwach, które polegają na nim w przypadku złożonych, wieloetapowych zadań związanych z kodowaniem.
Niedawne zmiany wydajności Claude Code zyskały szerokie zainteresowanie w mediach społecznościowych dzięki analizie GitHub, która prawdopodobnie została przeprowadzona przez Stellę Laurenzo, starszą dyrektor ds. sztucznej inteligencji w AMD. W szeroko rozpowszechnionej analizie Laurenzo stwierdził, że zmiany sprawiły, że Claude „nie nadawał się do wykonywania złożonych zadań inżynierskich”.
W swojej analizie odkrył, że od końca lutego do początku marca Claude przeszedł od podejścia „najpierw zbadaj” (czytanie wielu plików i zbieranie kontekstu przed wprowadzeniem zmian) na bardziej bezpośredni styl „najpierw edytuj”. Z analizy wynika, że model przed podjęciem działania czyta mniej kontekstu, popełnia więcej błędów i wymaga znacznie większej interwencji użytkownika. Analiza wskazuje również na wzrost zachowań takich jak zbyt szybkie zatrzymanie się, unikanie obowiązków czy proszenie o niepotrzebne pozwolenie, co wiąże się ze zmniejszeniem głębokości „myślenia” w tym samym okresie.
„Claude cofnął się do tego stopnia, że nie można mu ufać w wykonywaniu skomplikowanych prac inżynieryjnych” – napisał.
W komentarzu będącym odpowiedzią na analizę Cherny z Anthropic stwierdziła, że analiza prawdopodobnie błędnie interpretuje przynajmniej część danych, stwierdzając, że rozumowanie modelu nie zostało ograniczone, ale firma Anthropic wprowadziła zmianę w taki sposób, że pełny „ścieżka rozumowania” modelu nie jest już widoczna dla użytkownika.
Ale Laurenzo nie jest jedyną osobą, która ma problemy z narzędziem.
„W ciągu ostatnich dwóch tygodni odbyłem niezwykle frustrujące sesje z Claudem Code” – napisał w X. Dimitris Papailiopoulos, starszy dyrektor ds. badań w Microsoft. „Starałem się, co mogłem, ale on jest wyjątkowo nieostrożny, ignoruje instrukcje i powtarza błędy”.

