Tuesday, February 24, 2026

Anthropic twierdzi, że 3 chińskie firmy oszukały ją i wykorzystały narzędzia sztucznej inteligencji do szkolenia swoich modeli: „Jak działają gramofony” | Fortuna

Koniecznie przeczytaj

Anthropic oskarżyło trzy czołowe chińskie firmy zajmujące się sztuczną inteligencją o wykorzystywanie chatbota Claude na masową skalę do potajemnego szkolenia konkurencyjnych modeli, co jest nieoczekiwanym wydarzeniem w trwającej od lat globalnej debacie na temat tego, gdzie kończy się oszustwo, a zaczyna standardowe praktyki branżowe.

W poniedziałkowym poście na blogu firma Anthropic z siedzibą w San Francisco stwierdziła, że ​​chińskie laboratoria DeepSeek, Moonshot AI i MiniMax naruszyły prawo korporacyjne, wchodząc w interakcję z Claude, jej narzędziem do kodowania wibracji, które zmienia rynek. „Zidentyfikowaliśmy kampanie na skalę przemysłową prowadzone przez trzy laboratoria sztucznej inteligencji (DeepSeek, Moonshot i MiniMax), których celem jest nielegalne wydobywanie możliwości Claude w celu ulepszenia własnych modeli” – podała firma. „Laboratoria te wygenerowały ponad 16 milionów transakcji z Claudem za pośrednictwem około 24 000 fałszywych kont, co stanowiło naruszenie naszych warunków świadczenia usług i regionalnych ograniczeń dostępu”.

Według Anthropic chińskie firmy oparły się na technice zwanej „destylacją”, w której jeden model jest szkolony na podstawie wyników innego, często bardziej wydajnego systemu. Kampanie podobno skupiały się na obszarach, które Anthropic uważa za kluczowe wyróżniki Claude’a, w tym na złożonym rozumowaniu, pomocy w kodowaniu i użyciu narzędzi.

Anthropic utrzymuje, że chociaż destylacja jest „legalną i powszechnie stosowaną metodą szkoleniową”, wykorzystywanie jej w ten sposób przez chińskie firmy mogło być „w nielegalnych celach”. Wykorzystywanie rozległych sieci fałszywych kont do replikowania zastrzeżonego modelu konkurencji narusza warunki korzystania z usług i podważa amerykańską kontrolę eksportu mającą na celu ograniczenie dostępu Chin do najnowocześniejszej sztucznej inteligencji, stwierdziła Anthropic, wzywając do „szybkich, skoordynowanych działań podmiotów z branży, decydentów i globalnej społeczności sztucznej inteligencji”.

Jak oskarża się o to chińskie firmy

Firma twierdzi, że trzy laboratoria ominęły geofence i ograniczenia handlowe, które ograniczają komercyjną dostępność Claude w Chinach, kierując ruch za pośrednictwem usług proxy, które odsprzedają dostęp do wiodących zachodnich modeli sztucznej inteligencji. Jak twierdzi Anthropic, jeden z takich „klastrów Hydra” obsługiwał jednocześnie dziesiątki tysięcy kont w celu dystrybucji żądań pomiędzy różnymi kluczami API i dostawcami usług w chmurze.

Po utworzeniu tych kont laboratoria rzekomo zaplanowały długie rozmowy na wysokim szczeblu, których celem było wyodrębnienie szczegółowych odpowiedzi krok po kroku, które można było wprowadzić z powrotem do ich własnych systemów jako dane szkoleniowe. W rezultacie, jak twierdzi Anthropic, był to niezarejestrowany proces, który zmienił Claude’a w niechętnego mistrza modeli opracowywanych w coraz bardziej konkurencyjnym chińskim sektorze sztucznej inteligencji.

Anthropic nie ogłosił jeszcze konkretnych pozwów przeciwko trzem firmom, ale zauważył, że odciął znane punkty dostępu i nalega, aby Waszyngton zaostrzył kontrolę eksportu zaawansowanych chipów i usług sztucznej inteligencji, aby zapobiec podobnym wysiłkom w przyszłości.

„Jak role się odwracają”

Za atakami kryje się szersza walka o to, kto ustala zasady dla branży opartej na ponownym miksowaniu pracy ludzkiej. Amerykańskie firmy, takie jak Anthropic i OpenAI, coraz bardziej nalegają na agresywne działania wobec zagranicznych konkurentów, których oskarżają o kopiowanie zastrzeżonych systemów, nawet jeśli bronią własnego, poszerzającego się zbioru danych pod hasłem dozwolonego użytku.

Chińskie laboratoria, z których wiele wydaje więcej modeli open source, ścigają się, aby zniwelować różnicę w wydajności ze swoimi zachodnimi rywalami, wykorzystując każdą przewagę prawną, jaką mogą znaleźć. Podczas gdy Waszyngton debatuje już nad bardziej rygorystycznymi ograniczeniami w eksporcie chipów AI i usług w chmurze do Chin, zarzuty Anthropic prawdopodobnie podsycą wezwania do wprowadzenia nowych barier bezpieczeństwa, dając jednocześnie krytykom jeszcze jedną szansę na zwrócenie uwagi na niewygodną symetrię w sercu współczesnej sztucznej inteligencji.

W tej historii dziennikarze magazynu „Fortune” wykorzystali generatywną sztuczną inteligencję jako narzędzie dochodzeniowe. Redaktor sprawdził dokładność informacji przed ich opublikowaniem.

- Advertisement -spot_img

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

- Advertisement -spot_img

Najnowszy artykuł