Summer Yue nie jest najsłynniejszym pracownikiem Meta. Dyrektorka „zestrojenia superwywiadu i badań nad bezpieczeństwem” publikuje zdjęcia, na których spaceruje z psem po plaży, oraz wiadomości o testowaniu uczciwości asystentów AI. Ma niewielką liczbę obserwujących w mediach społecznościowych.
Ale przez jeden lutowy dzień Yue stał się najczęściej omawianą osobą w Meta. Nie poprzez wypuszczenie nowego, godnego uwagi produktu lub ogłoszenie przełomu w sztucznej inteligencji agentów, ale raczej poprzez dać się złapać.
„Nic nie upokarza cię bardziej niż powiedzenie OpenClawowi «Potwierdź przed podjęciem działania» i obserwowanie, jak przyspiesza to usuwanie skrzynki odbiorczej” – napisała Yue w X, a post ma obecnie prawie 10 milionów wyświetleń. „Nie mogłem tego zatrzymać za pomocą telefonu. Musiałem pobiec do Maca mini, jakbym rozbrajał bombę”.
To ważna rozmowa, tak ważna, że podczas Światowego Kongresu Mobilności w Barcelonie (największego na świecie zgromadzenia technologicznego) błąd Yue był omawiany na głównej scenie.
„Oczywiście wszyscy tutaj, na Światowym Kongresie, rozmawiali o OpenClaw i tym, jak możemy używać agentów” – powiedziała Kate Crawford, profesor naukowy na Uniwersytecie Południowej Kalifornii.
„Ale potem zobaczyliśmy, że szef Meta ds. bezpieczeństwa AI korzysta z OpenClaw i usunął całą swoją skrzynkę odbiorczą. To szef ds. bezpieczeństwa Meta. Jeśli więc masz problemy, myślę, że wszyscy musimy zadać sobie pytanie: «W jaki sposób upewniamy się, że te systemy są naprawdę wzmocnione? Jak możemy się upewnić, że są rygorystycznie testowane? Jak możemy się upewnić, że możemy im faktycznie delegować zadania w niezawodny sposób?» I to jest naprawdę najtrudniejszy problem do rozwiązania, prawda?
Dobry. Kiedy coś pójdzie nie tak, kto jest za to odpowiedzialny? Użytkownik? Deweloper? Brak regulacji? Co robimy, gdy rzeczywistość sztucznej inteligencji koliduje z jej obietnicami?
Skrzynka odbiorcza Yue może mieć dla niej ogromne znaczenie. Jeśli chodzi o związek między technologią a, powiedzmy, naszym zdrowiem lub, spójrz na Anthropic, obroną narodu, to jest to zupełnie inna kwestia. Nie tak dawno temu robot AI Grok firmy xAI od niechcenia „rozbierał” wizerunki kobiet i dziewcząt, ku rozczarowaniu milionów. Groźba działań rządu i państwa ostatecznie spowodowała zmianę podejścia.
„Jak możemy mieć pewność, że te systemy są naprawdę wytrzymałe? Jak możemy mieć pewność, że zostaną rygorystycznie przetestowane?”
Kate Crawford, profesor naukowy na Uniwersytecie Południowej Kalifornii
„Jak naprawdę można stworzyć odpowiedzialność?” – zapytał Crawford. „Tego właśnie pragniemy wszyscy. Jeśli zamierzasz korzystać z usług agentów w celu rezerwacji lotów i umawiania wizyt lekarskich, a także jeszcze bardziej intymnych i niezawodnych czynności w życiu codziennym, będziesz chciał wiedzieć, że informacje będą chronione.
„Jak więc to udowodnić? Jak zapewnić, że tak się dzieje? Jeśli spojrzymy na to, co wydarzyło się w przestrzeni technologicznej przez ostatnie 10 lat, niestety zaobserwowaliśmy wiele wybieleń, czyli wtedy, gdy firmy mogą powiedzieć: „No cóż, nie wiem. To znaczy, zrobił to algorytm”.

