Friday, April 17, 2026

Illinois to najnowsze pole bitwy OpenAI i Anthropic, podczas gdy stan próbuje ocenić odpowiedzialność za katastrofy spowodowane przez sztuczną inteligencję | Fortuna

Koniecznie przeczytaj

OpenAI i Anthropic popierają w Zgromadzeniu Ogólnym stanu Illinois przeciwstawne projekty ustaw dotyczące sztucznej inteligencji, które mają na celu znalezienie odpowiedzi na pytanie, co powinno się stać, gdy sztuczna inteligencja spowoduje, że coś pójdzie nie tak.

To ostatnia runda trwającego sporu firm dotyczącego bezpieczeństwa i regulacji dotyczących sztucznej inteligencji, ponieważ ich dyrektorzy generalni wymienili wzajemną krytykę wewnętrzną i publiczną na temat swojego podejścia.

OpenAI obsługuje normę SB 3444, zgodnie z którą pionierzy twórcy sztucznej inteligencji nie ponoszą odpowiedzialności za spowodowanie śmierci lub poważnych obrażeń 100 lub więcej osób lub spowodowanie szkód majątkowych o wartości ponad 1 miliarda dolarów. Ochrona ta obejmuje przypadki, w których sztuczna inteligencja powoduje lub w istotny sposób umożliwia tworzenie lub użycie broni chemicznej, biologicznej, radiologicznej lub nuklearnej.

W tym tygodniu Anthropic oświadczyła, że ​​sprzeciwia się ustawie, jak po raz pierwszy poinformował WIRED.

„Sprzeciwiamy się tej ustawie. Dobre przepisy dotyczące przejrzystości powinny zapewniać bezpieczeństwo publiczne i odpowiedzialność firm opracowujących tę zaawansowaną technologię, a nie kartę umożliwiającą wyjście z więzienia przed odpowiedzialnością” – powiedział w oświadczeniu dla Fortune César Fernández, szef ds. relacji z władzami stanowymi i lokalnymi USA w firmie Anthropic.

Zamiast tego Anthropic popiera oddzielną ustawę SB 3261, która wymagałaby od twórców sztucznej inteligencji umieszczenia na swojej stronie internetowej planu bezpieczeństwa publicznego i ochrony dzieci. Projekt ustawy tworzy także system zgłaszania incydentów, mający na celu informowanie prawodawców i opinii publicznej o „ryzyku katastrofalnym” lub incydencie, który może skutkować śmiercią lub poważnymi obrażeniami 50 lub więcej osób, w wyniku opracowania, przechowywania, wykorzystania lub wdrożenia modelu granicznego przez dewelopera granicznego.

Projekt ustawy uwzględnia także bezpieczeństwo dzieci, a tego aspektu brakuje w projekcie ustawy wspieranej przez OpenAI. Zgodnie z rozporządzeniem SB 3261 twórcy sztucznej inteligencji zostaną pociągnięci do odpowiedzialności, jeśli ich model spowoduje u dziecka poważny stres emocjonalny, śmierć lub obrażenia ciała, w tym samookaleczenie.

„Bardzo niski” pasek

Eksperci powiedzieli Fortune, że jest mało prawdopodobne, aby uchwała SB 3444 została przyjęta, ponieważ jest to wyraźnie słabe podejście do odpowiedzialności przedsiębiorstw za katastrofy, podczas gdy Illinois jest liderem w zakresie regulacji dotyczących sztucznej inteligencji. W zeszłym roku państwo zakazało terapii AI i zezwoliło na jej stosowanie w usługach administracyjnych i wsparcia dla licencjonowanych specjalistów.

Norma SB 3444 wymaga od firm posiadania publicznego planu bezpieczeństwa dotyczącego sztucznej inteligencji, ale nie ma środka egzekwowania prawa. Jeżeli deweloperzy nie spowodowali incydentu „celowo lub lekkomyślnie”, byliby chronieni przed odpowiedzialnością.

Działanie umyślne lub lekkomyślne nie jest powszechnym standardem prawnym w przypadku firm prowadzących wysoce niebezpieczną działalność, powiedziała Anat Lior, adiunkt prawa na Uniwersytecie Drexel, ekspert w zakresie odpowiedzialności za sztuczną inteligencję i zarządzania nią.

„Zwykle nie ma znaczenia nastrój ani poczucie winy związane ze szkodami” – wyjaśnił. „Ustawiają tutaj poprzeczkę bardzo nisko. Udowodnienie, że zrobiłeś coś celowo, co wiąże się z wykorzystaniem sztucznej inteligencji, będzie bardzo trudne”.

Profesor prawa na Uniwersytecie Touro, Gabriel Weil, który współpracował z prawodawcami z Nowego Jorku i Rhode Island nad ustawami nakładającymi większą odpowiedzialność na twórców sztucznej inteligencji, stwierdził, że podejście przyjęte w ustawie wspieranej przez OpenAI jest „całkiem nie do obrony”.

„Wydaje się, że to bardzo słaby wymóg, ale w zamian zapewnia się niemal całkowitą ochronę przed odpowiedzialnością za te ekstremalne zdarzenia” – Weil powiedziała Fortune. „Myślę, że to odwrotny kierunek, w którym powinniśmy zmierzać”.

Rzecznik OpenAI powiedział WIRED, że firma popiera podejście SB 3444, ponieważ zmniejsza ono „ryzyko poważnych szkód ze strony najbardziej zaawansowanych systemów sztucznej inteligencji, jednocześnie umożliwiając przedostanie się tej technologii w ręce ludzi i firm”.

Rzecznik OpenAI powiedział Fortune, że firma zdecydowanie wspiera wysiłki mające na celu poprawę przejrzystości i zmniejszenie ryzyka w protokołach bezpieczeństwa AI, powołując się na współpracę z prawodawcami z Kalifornii i Nowego Jorku w celu uchwalenia ram bezpieczeństwa i kar za nieprzestrzeganie przepisów. W przypadku braku ustawodawstwa federalnego firma będzie nadal współpracować ze stanami.

„Mamy nadzieję, że te przepisy stanowe posłużą jako podstawa ram krajowych, które pomogą Ameryce zachować wiodącą pozycję” – napisał rzecznik.

Website |  + posts
- Advertisement -spot_img
- Advertisement -spot_img

Najnowszy artykuł