Firma Anthropic zajmująca się sztuczną inteligencją nieumyślnie ujawniła szczegóły dotyczące zbliżającej się premiery modelu, ekskluzywnego wydarzenia dla dyrektora generalnego oraz inne dane wewnętrzne, w tym obrazy i pliki PDF, co wydaje się stanowić poważne naruszenie bezpieczeństwa.
Informacje niepubliczne zostały udostępnione poprzez firmowy system zarządzania treścią (CMS), którego Anthropic używa do publikowania informacji w sekcjach strony internetowej firmy.
Przed podjęciem tych działań firma Anthropic przechowywała całą zawartość swojej witryny internetowej, taką jak wpisy na blogu, obrazy i dokumenty, w systemie centralnym, do którego można było uzyskać dostęp bez logowania. Każda osoba posiadająca wiedzę techniczną mogła wysyłać żądania do tego publicznego systemu, prosząc o zwrot informacji o zawartych w nim plikach.
Chociaż część tych treści nie została opublikowana na stronie internetowej Anthropic, podstawowy system nadal zwracał przechowywane zasoby cyfrowe każdemu, kto wiedział, jak o to poprosić. Oznacza to, że można uzyskać bezpośredni dostęp do niepublikowanych materiałów, w tym wersji roboczych i zasobów wewnętrznych.
Problem wydaje się wynikać ze sposobu działania systemu zarządzania treścią (CMS) używanego przez firmę Anthropic. Wszystkie zasoby (takie jak logo, grafiki lub artykuły badawcze), które zostały przesłane do centralnej hurtowni danych, były domyślnie publiczne, chyba że zostały wyraźnie ustawione jako prywatne. Wygląda na to, że firma zapomniała ograniczyć dostęp do niektórych dokumentów, które nie powinny być publiczne, co spowodowało dużą liczbę plików dostępnych w publicznym jeziorze danych firmy – powiedzieli Fortune specjaliści ds. cyberbezpieczeństwa, którzy analizowali dane. Kilka zasobów firmy miało również publiczne adresy przeglądarek.
„Problem z jednym z naszych zewnętrznych narzędzi CMS spowodował, że wersja robocza stała się dostępna” – powiedział Fortune rzecznik Anthropic. Rzecznik przypisał problem „błędowi ludzkiemu w konfiguracji CMS”.
Ostatnio pojawiło się kilka głośnych przypadków, w których firmy technologiczne doświadczały usterek technicznych i problemów wynikających z problemów z kodem generowanym przez sztuczną inteligencję lub agentami sztucznej inteligencji. Jednak firma Anthropic, która tworzy popularne modele sztucznej inteligencji Claude i szczyci się automatyzacją większości własnego wewnętrznego rozwoju oprogramowania przy użyciu agentów kodujących AI opartych na Claude, stwierdziła, że sztuczna inteligencja nie jest w tym przypadku winna.
Problem z CMS „nie był związany z Claude, Cowork ani żadnymi narzędziami Anthropic AI” – powiedział rzecznik Anthropic.
Firma próbowała także bagatelizować część materiałów, które nie były chronione. „Te materiały były wstępnymi wersjami treści rozważanymi do publikacji i nie dotyczyły naszej podstawowej infrastruktury, systemów sztucznej inteligencji, danych klientów ani architektury bezpieczeństwa” – powiedział rzecznik.
Chociaż wiele dokumentów wygląda na wyrzucone lub nieużywane zasoby z poprzednich postów na blogu, takie jak obrazy, banery i logo, niektóre dane wydają się zawierać szczegółowe informacje.
Dokumenty zawierają szczegółowe informacje na temat nadchodzących zapowiedzi produktów, w tym informacje o niewydanym jeszcze modelu sztucznej inteligencji, który według Anthropic jest najpotężniejszym modelem, jaki dotychczas wytrenowano.
Po skontaktowaniu się z firmą Fortune firma przyznała, że opracowuje i testuje z klientami korzystającymi z wczesnego dostępu nowy model, który według niej stanowi „skokową zmianę” w możliwościach sztucznej inteligencji, charakteryzujący się znacznie lepszą wydajnością w zakresie „wnioskowania, kodowania i cyberbezpieczeństwa” niż poprzednie modele Anthropic.
Publicznie dostępne dane obejmowały także informacje o zbliżających się rekolekcjach dla dyrektorów generalnych dużych europejskich firm, które odbędą się w Wielkiej Brytanii, na które ma wziąć udział dyrektor generalny Anthropic Dario Amodei. Rzecznik Anthropic powiedział, że rekolekcje były „częścią ciągłej serii wydarzeń, które organizowaliśmy w ciągu ostatniego roku” oraz że firma „opracowuje model ogólnego przeznaczenia charakteryzujący się znaczącymi postępami w zakresie rozumowania, kodowania i cyberbezpieczeństwa”.
Wśród dokumentów znalazły się także zdjęcia, które prawdopodobnie były przeznaczone do użytku wewnętrznego, w tym zdjęcie z podpisem opisującym „urlop rodzicielski” pracownika.
Nie jest to pierwszy przypadek, gdy firma technologiczna nieumyślnie ujawniła zasoby wewnętrzne lub zasoby sprzed premiery, udostępniając je publicznie przed oficjalnymi ogłoszeniami.
Firma Apple dwukrotnie ujawniła informacje za pośrednictwem swojej witryny internetowej: raz w 2018 r., kiedy nazwy nadchodzących iPhone’ów pojawiły się w publicznie dostępnym pliku mapy witryny na kilka godzin przed premierą, i ponownie pod koniec 2025 r., kiedy programista odkrył, że Apple dostarczył przeprojektowany sklep App Store z aktywnymi plikami debugowania, dzięki czemu cały wewnętrzny kod witryny jest czytelny dla każdego użytkownika przeglądarki.
Firmy z branży gier, takie jak Epic Games i Nintendo, również zauważyły wyciek obrazów przedpremierowych, zasobów gier i innych multimediów za pośrednictwem systemów sieci dostarczania treści (CDN) lub serwerów przejściowych, podobnie jak w przypadku jeziora danych Anthropic użytego w tym przypadku. Nawet większe firmy, takie jak Google, przypadkowo ujawniły wewnętrzną dokumentację znajdującą się w publicznych adresach URL, a dane powiązane z pojazdami Tesli zostały ujawnione poprzez źle skonfigurowane serwery stron trzecich.
Jednak problem prawdopodobnie ulegnie zaostrzeniu w związku z dostępnymi obecnie na rynku narzędziami do kodowania AI, w tym własnym kodem Claude’a firmy Anthropic.
Narzędzia te mogą automatyzować indeksowanie, wykrywanie wzorców i korelację publicznie dostępnych zasobów, znacznie ułatwiając wykrywanie tego typu treści i obniżając bariery wejścia na rynek. Narzędzia sztucznej inteligencji, takie jak Claude Code czy Codex, mogą również generować skrypty lub zapytania, które skanują całe zestawy danych, szybko identyfikując wzorce lub konwencje nazewnictwa plików, które człowiek może przeoczyć.

