Ostatnie przyznanie, które nadeszło po tygodniach, w których Anthropic początkowo sugerowała w swoich komunikatach, że nic się nie dzieje i że za problemy z wydajnością w dużej mierze ponoszą użytkownicy, a następnie stwierdziła, że niektóre zmiany wprowadzono na korzyść użytkowników, niewiele pomogło, aby uspokoić klientów Anthropic, z których niektórzy twierdzą, że już anulowali swoje subskrypcje.
Poczucie wśród niektórych użytkowników, że Anthropic wprowadziło ich w błąd, potencjalnie podważa wysiłki Anthropic mające na celu promowanie siebie jako bardziej przejrzystej i dostosowanej do użytkowników niż konkurencyjne OpenAI. Przyznanie, że wystąpiły problemy z wydajnością, nie pomogło stłumić szalejących spekulacji, że firmie kończą się zasoby obliczeniowe i że wysiłki firmy Anthropic mające na celu racjonowanie cennej mocy obliczeniowej były prawdziwą przyczyną problemów z wydajnością.
„Zapotrzebowanie Claude wzrosło w bezprecedensowym tempie, a nasza infrastruktura była obciążona, aby mu sprostać, zwłaszcza w godzinach szczytu” – stwierdziła firma Anthropic w oświadczeniu dla Fortune. „Robimy wszystko, co w naszej mocy, aby rozwiązać ten problem i jesteśmy głęboko wdzięczni za cierpliwość naszych użytkowników”.
W dalszej części oświadczenia czytamy, że „przetwarzanie danych stanowi ograniczenie występujące w całej branży, dlatego skalujemy je szybko i odpowiedzialnie, w tym poprzez niedawno ogłoszone rozszerzenie naszego partnerstwa z Amazonem i Google, które w nadchodzących miesiącach zapewni znaczną nową wydajność online. Naszym priorytetem jest jak najszybsze udostępnienie tej mocy użytkownikom”.
Firma odrzuciła również wszelkie stwierdzenia, że nie była przejrzysta wobec użytkowników w kwestiach dotyczących Claude Code. „Problemy z Kodeksem Claude miały konkretne przyczyny techniczne, które w pełni udokumentowaliśmy podczas sekcji zwłok, a obecnie zgłoszono poprawki” – stwierdzono w oświadczeniu.
Anthropic w dużej mierze oparł swój niedawny sukces na lojalności programistów. Narzędzie Claude Code, wydane na początku 2025 roku, cieszy się popularnością wśród indywidualnych programistów i zespołów inżynieryjnych w przedsiębiorstwach. Ogromny sukces narzędzia pomógł podnieść roczną stopę powtarzalnych przychodów firmy do 30 miliardów dolarów, czyli ponad trzykrotnie więcej niż na koniec ubiegłego roku. Jednak trwające tygodnie spadki wydajności i powolna reakcja laboratorium na skargi użytkowników, a także kilka zmian, które według użytkowników stanowią ukryty wzrost cen, wystawiają tę lojalność na próbę.
Kontrowersje mogą uderzyć w wyniki finansowe Anthropic w obliczu coraz bardziej zaciętego wyścigu z konkurencyjnym OpenAI. Problemy te pojawiają się również w krytycznym momencie, ponieważ według doniesień obie spółki przygotowują się do pierwszych publicznych ofert akcji jeszcze w tym roku.
Najnowsze oświadczenie firmy Anthropic prawdopodobnie pogłębi i tak już powszechne spekulacje, że laboratorium może cierpieć z powodu obciążenia IT po gwałtownym wzroście wykorzystania jego produktów w ostatnich miesiącach.
Oprócz problemów z wydajnością Claude Code, AI Lab doświadczyło również serii przestojów w związku ze wzrostem wykorzystania, wprowadzeniem limitów użytkowania w godzinach szczytu i ograniczeniem wypuszczania najnowszego, największego i najdroższego modelu Mythos do wybranej grupy dużych firm. (Anthropic stwierdziła, że ostrożne wdrażanie modelu wynika z zagrożeń bezpieczeństwa stwarzanych przez bezprecedensowe możliwości cybernetyczne modelu).
Rywale firmy również podsycili pogłoski, że laboratorium może brakować mocy obliczeniowej niezbędnej do utrzymania niedawnego wzrostu liczby klientów. W wewnętrznej notatce opublikowanej po raz pierwszy przez CNBC dyrektor ds. przychodów OpenAI stwierdził, że firma Anthropic popełniła „strategiczny błąd”, nie zabezpieczając wystarczającej mocy obliczeniowej i „działała na znacznie mniejszej krzywej” niż jej konkurenci. Firma Anthropic ogłosiła także mniej wielomiliardowych transakcji na pojemność centrów danych niż niektórzy z jej rywali, tacy jak OpenAI. Podczas gdy inne firmy zajmujące się sztuczną inteligencją również borykają się z ograniczeniami obliczeniowymi, Anthropic wydaje się znajdować w najtrudniejszej sytuacji, ponieważ rozwija się znacznie szybciej, niż się spodziewano.
Anthropic odmówił odpowiedzi na pytania CNBC dotyczące notatki. Firma Anthropic oświadczyła również publicznie, że nie pogarsza celowo wydajności swoich modeli Claude.
Wydaje się również, że firma testuje możliwe sposoby ograniczenia nowego dostępu do Claude Code. Na początku tego tygodnia firma Anthropic zaktualizowała swoją stronę z cenami dla niektórych użytkowników, aby pokazać, że Claude Code nie jest dostępny w ramach firmowego planu Pro za 20 USD miesięcznie. Dyrektor ds. rozwoju w firmie Anthropic powiedział później, że zmianę przetestowano w przypadku około 2% nowych rejestracji, dodając, że wzorce użytkowania „zasadniczo się zmieniły” od czasu sporządzenia planów. Oddzielnie dziennik „The Information” podał, że firma Anthropic zmieniła ceny dla przedsiębiorstw na model oparty na konsumpcji, co według szacunków jednego z analityków może potencjalnie potroić koszty dla zwykłych użytkowników.
Reakcja użytkownika
Anthropic boryka się ze znacznym sprzeciwem ze strony niektórych swoich zaawansowanych użytkowników w związku z niedawnymi problemami z wydajnością Claude Code. Kilku oświadczyło, że anulowało subskrypcje, specjaliści ds. cyberbezpieczeństwa ostrzegali przed potencjalnie niebezpiecznie obniżoną jakością kodu, a starszy dyrektor AMD AI nazwał to narzędzie „nieprzydatnym do złożonych zadań inżynieryjnych”.
Użytkownicy skarżyli się, że poczuli się „podnieceni” odpowiedzią firmy na ich ciągłe skargi dotyczące działania narzędzia szyfrującego. Jakiś
„Doceniam sekcję zwłok, ale nie jestem pewien, czy wszystkie problemy zostały rozwiązane. Ogólnie rzecz biorąc, Claude Code w ostatnich dniach był dla mnie ledwo przydatny” – stwierdziła kolejna.
W poście opublikowanym w czwartek na swoim blogu inżynierskim firma Anthropic podała, że przypisuje problemy trzem odrębnym zmianom. Pierwsza, opublikowana 4 marca, zmniejszyła domyślny wysiłek Claude’a Code w zakresie rozumowania z „wysokiego” do „średniego”, aby zmniejszyć opóźnienia, co było kompromisem, który firma stwierdziła w poście na blogu jako błędny. Druga zmiana, wprowadzona 26 marca, zawierała błąd, który powodował, że model nieustannie odrzucał swoją własną historię rozumowania w trakcie sesji, przez co wyglądała na zapominalską i niekonsekwentną, a także wyczerpał limity użytkowania użytkowników szybciej niż oczekiwano. Trzecia, wprowadzona 16 kwietnia, dodała systemową instrukcję ostrzegawczą, która ograniczała odpowiedzi modelu do 25 słów między wywołaniami narzędzia. Zmiana, która według Anthropic wymiernie pogorszyła jakość kodowania, zanim została przywrócona cztery dni później.
Firma Anthropic zauważyła, że wszystkie trzy problemy zostały rozwiązane 20 kwietnia i że nie miało to żadnego wpływu na interfejs API. 23 kwietnia firma przywróciła limity wykorzystania dla wszystkich abonentów.
Firma potwierdziła frustrację użytkowników związaną z narzędziem, stwierdzając: „Nie takiego doświadczenia użytkownicy powinni oczekiwać od Claude Code”. Laboratorium obiecało także większą przejrzystość przyszłych zmian w Kodeksie Claude’a.
Pomimo publicznego uznania ze strony Anthropic, niektórzy użytkownicy za pośrednictwem mediów społecznościowych wyrażali swoje frustracje w związku z początkową reakcją laboratorium na obawy użytkowników dotyczące wyników Claude’a.
„Frustrujące jest to, że zespół Claude Code wraz z osobami głęboko pogrążonymi w psychozie sztucznej inteligencji krytykuje każdego, kto wyraża obawy dotyczące ostatnich problemów Claude Code” – powiedział Muratcan Koylan, członek personelu technicznego Sully.ai w poście na temat
Taka reakcja może zepchnąć część zaawansowanych użytkowników Anthropic w stronę konkurencyjnego OpenAI, którego najnowsze modele Codexu również cieszą się popularnością wśród programistów. W czwartek OpenAI udostępniło płatnym subskrybentom także GPT-5.5, swój najnowszy model AI. Firma podała, że ma obecnie 4 miliony aktywnych użytkowników Codexu, 9 milionów płacących klientów biznesowych, 900 milionów aktywnych użytkowników tygodniowo na ChatGPT i ponad 50 milionów abonentów. Firma Anthropic nie opublikowała porównywalnych danych dotyczących użytkowników. Firma ujawniła wskaźniki biznesowe, obejmujące ponad 300 000 klientów korporacyjnych, ale nie ujawniła liczby abonentów ani aktywnych użytkowników. Niezależna witryna dotycząca aplikacji i ruchu w sieci LikeWeb podała, że pod koniec lutego liczba aktywnych użytkowników aplikacji Claude firmy Anthropic osiągnęła 20 milionów, a w marcu wzrost liczby użytkowników wzrósł ponad dwukrotnie w ujęciu miesięcznym.
Wydaje się, że problemy z Claude Code znacząco wpłynęły na jakość kodu utworzonego przez narzędzia Anthropic w zeszłym miesiącu, zwłaszcza w porównaniu z ofertami OpenAI.
Analiza przeprowadzona przez firmę Veracode zajmującą się bezpieczeństwem szyfrowania wykazała, że Claude Opus 4.7, najnowszy model Claude firmy Anthropic, który został wydany 16 kwietnia, zawierał lukę w zabezpieczeniach w 52% testowanych zadań szyfrowania, w porównaniu z 51% w przypadku Opus 4.1 i 50% w przypadku tańszego Claude Sonnet 4.5. Veracode stwierdziło, że modele OpenAI działały zauważalnie lepiej, wprowadzając luki w około 30% zadań.
Dave Kennedy, dyrektor generalny firmy TrustedSec zajmującej się cyberbezpieczeństwem i były oficer wywiadu piechoty morskiej Stanów Zjednoczonych, powiedział Forbesowi, że jego zespół zaobserwował 47% spadek jakości kodu Claude’a, śledzenia defektów, problemów z bezpieczeństwem i współczynnika ukończenia zadań. Ryzyko, ostrzegał Kennedy, polega na tym, że początkujący programiści korzystający z Claude nie wykryją błędów, „wprowadzając poważne defekty” do kodu produkcyjnego.
W odpowiedzi na najnowszy post Anthropic Kennedy powiedział: „Cieszę się, że próbują rozwiązać ten problem, ale miesiąc na przedstawienie tego to bzdura”.

