Wyobraź sobie, że na koniec dnia mówisz agentowi AI, aby przeliczył 10 000 dolarów amerykańskich na dolary kanadyjskie. Agent wykonuje to… źle. Źle interpretujesz parametry, dokonujesz nieautoryzowanego zakładu z dźwignią, a Twój kapitał wyparowuje. Kto jest odpowiedzialny? Kto ci płaci?
W tej chwili nikt nie musi tego robić. I to właśnie, zdaniem grupy badaczy, jest luka, która definiuje erę sztucznej inteligencji agentów.
W artykule opublikowanym 8 kwietnia badacze z Microsoft Research, Columbia University, Google DeepMind, Virtuals Protocol i start-upu AI t54 Labs zaproponowali nowe, szerokie ramy ochrony finansowej zwane Agentic Risk Standard (ARS), mające zapewnić agentom AI to samo, co depozyty, ubezpieczenia i izby rozliczeniowe robią w przypadku tradycyjnych transakcji finansowych. Standard ma charakter open source i jest dostępny w serwisie GitHub za pośrednictwem t54 Labs.
Problem probabilistyczny
Podstawowym problemem, który identyfikuje zespół, jest to, co nazywa „luką gwarancyjną”, którą definiuje jako „rozdźwięk między probabilistyczną niezawodnością zapewnianą przez techniki bezpieczeństwa AI a możliwymi do wyegzekwowania gwarancjami, których użytkownicy potrzebują przed delegowaniem zadań wysokiego ryzyka”. Ten opis odzwierciedla słowa eksperta ds. przywództwa Jasona Wilda, które powiedział wcześniej Fortune na temat tego, jak narzędzia AI są probabilistyczne i mylące dla menedżerów na całym świecie. „Bez możliwości ograniczenia potencjalnych strat” – napisał zespół t54 – „użytkownicy racjonalnie ograniczają delegowanie sztucznej inteligencji do zadań niskiego ryzyka, ograniczając szersze zastosowanie usług opartych na agentach”.
Twierdzą, że ulepszenia bezpieczeństwa na poziomie modelu mogą zmniejszyć prawdopodobieństwo awarii sztucznej inteligencji, ale nie mogą go wyeliminować. Duże modele językowe są z natury stochastyczne, co oznacza, że niezależnie od tego, jak dobrze wyszkolony i dostrojony jest agent AI, nadal może on mieć halucynacje i popełniać błędy. Kiedy ten broker znajduje się na Twoim koncie maklerskim lub wykonuje wywołania finansowego API, nawet pojedyncza awaria może skutkować natychmiastową, zrealizowaną stratą.
„Bardziej niezawodne badania nad sztuczną inteligencją mają na celu zmniejszenie prawdopodobieństwa niepowodzenia” – powiedział Wenyue Hua, główny badacz w Microsoft Research. „Ta praca jest niezbędna, ale prawdopodobieństwo nie gwarantuje. ARS przyjmuje podejście uzupełniające: zamiast próbować doprowadzić model do perfekcji, formalizujemy finansowo to, co się dzieje, gdy tak nie jest. Rezultatem jest protokół rozliczeniowy, w którym ochrona użytkownika ma charakter deterministyczny, a nie probabilistyczny”.
Rozwiązanie badacza opiera się bezpośrednio na wielowiekowej inżynierii finansowej. ARS wprowadza wielopoziomową strukturę rozliczeń: skarbce depozytowe przechowujące opłaty za usługi i zwalniające je dopiero po dostarczeniu zweryfikowanych zadań; wymogi dotyczące zabezpieczeń, które dostawcy usług AI muszą opublikować przed uzyskaniem dostępu do środków użytkowników; oraz opcjonalna subskrypcja: podejmująca ryzyko strona trzecia, która ocenia ryzyko awarii AI, pobiera opłatę i zgadza się zwrócić użytkownikowi pieniądze, jeśli coś pójdzie nie tak.
W ramach rozróżniono dwa typy zadań związanych ze sztuczną inteligencją. Standardowe zadania serwisowe (wygenerowanie pokazu slajdów, napisanie raportu) wiążą się z ograniczonym zaangażowaniem finansowym, dlatego wystarczające jest rozliczenie w formie depozytu. Zadania związane z wymianą środków (handel na rynku Forex, pozycje lewarowane, wywołania finansowego API) wymagają od agenta dostępu do kapitału użytkownika, zanim możliwe będzie zweryfikowanie wyników, a wtedy subskrypcja staje się niezbędna. Ta sama logika rządzi rynkami instrumentów pochodnych, gdzie izby rozliczeniowe są umiejscowione pomiędzy kontrahentami, tak aby pojedyncze niewykonanie zobowiązania nie następowało kaskadowo.
W artykule wyraźnie powiązano w tabeli ARS z istniejącymi branżami alokacji ryzyka: budownictwo korzysta z gwarancji dobrego wykonania, handel elektroniczny korzysta z depozytów na platformie, rynki finansowe korzystają z wymogów dotyczących depozytów zabezpieczających i izb rozliczeniowych, a DeFi korzysta z inteligentnych zabezpieczeń kontraktowych. Naukowcy argumentują, że agenci sztucznej inteligencji to po prostu kolejna kategoria usług wysokiego ryzyka, które wymagają własnej wersji tej infrastruktury.
Ta chwila jest kluczowa
Organy nadzoru finansowego już krążą. Opublikowany w grudniu raport z nadzoru regulacyjnego FINRA za 2026 r. po raz pierwszy zawierał sekcję dotyczącą generatywnej sztucznej inteligencji, ostrzegającą brokerów-dealerów, aby opracowali procedury ukierunkowane specjalnie na halucynacje i zbadali agentów sztucznej inteligencji, którzy mogą działać „poza faktyczny lub zamierzony zakres i uprawnienia użytkownika”. SEC i inne agencje uważnie się temu przyglądają.
Jednak ARS jest przedstawiany jako coś, czego organy regulacyjne jeszcze nie zbudowały: nie zbiór zasad, ale protokół: ustandaryzowana maszyna stanu, która reguluje sposób blokowania środków, sposób zgłaszania roszczeń i sposób uruchamiania zwrotów środków w przypadku awarii agenta AI. Badacze zdają sobie sprawę, że ARS to jedna warstwa większego stosu zaufania i że prawdziwym wąskim gardłem będzie budowanie dokładnych modeli wyceny ryzyka dla zachowań agentów.
„Ten dokument stanowi pierwszy krok w ustanowieniu ogólnych ram umożliwiających ujęcie kompleksowego procesu związanego z transakcjami z agentami autonomicznymi oraz tego, jak wygląda ocena ryzyka” – Fang powiedział Fortune. „Później powinniśmy przedstawić bardziej szczegółowe szczegóły, modele i inne badania, aby zrozumieć, w jaki sposób obliczamy ryzyko w różnych przypadkach użycia”.

