Thursday, April 2, 2026

To „trochę irytujące”: laboratoria sztucznej inteligencji, takie jak Meta, Deepseek i Xai, uzyskały jedne z najgorszych możliwych wyników w indeksie bezpieczeństwa egzystencjalnego | Fortuna

Koniecznie przeczytaj

Niedawny raport sporządzony przez organ nadzorujący bezpieczeństwo sztucznej inteligencji nie jest czymś, co firmy technologiczne chcą trzymać w lodówce.

Najnowszy indeks bezpieczeństwa AI Instytutu Future of Life wykazał, że najlepsze laboratoria zajmujące się sztuczną inteligencją nie spełniły większości kryteriów odpowiedzialności za sztuczną inteligencję, z kilkoma ocenami wyższymi niż C. Organizacja oceniła osiem firm w kategoriach takich jak ramy bezpieczeństwa, ocena ryzyka i bieżące szkody.

Być może najbardziej oczywista była linia „bezpieczeństwa egzystencjalnego”, w przypadku której firmy ogólnie uzyskały oceny D i F. Choć wiele z tych firm wyraźnie dąży do superinteligencji, brakuje im planu bezpiecznego zarządzania nią – twierdzi Max Tegmark, profesor MIT i prezes Future of Life Institute.

„Krytycy zauważyli tego rodzaju niezgodność” – powiedział nam Tegmark.

Recenzentami, o których mowa, był panel złożony z naukowców zajmujących się sztuczną inteligencją i ekspertów w dziedzinie zarządzania, którzy przeanalizowali publicznie dostępne materiały, a także odpowiedzi na ankiety przesłane przez pięć z ośmiu firm.

Anthropic, OpenAI i GoogleDeepMind zajęły trzy pierwsze miejsca z ogólną oceną C+ lub C. Następnie uplasowały się kolejno Xai, Z.ai, Meta, DeepSeek i Alibaba Elona Muska, z których wszystkie uzyskały ocenę D lub D-.

Tegmark obwinia brak przepisów, który sprawił, że zaciekła rywalizacja w wyścigu AI ma pierwszeństwo przed środkami ostrożności. Kalifornia przyjęła niedawno pierwsze prawo wymagające od granicznych firm zajmujących się sztuczną inteligencją ujawniania informacji dotyczących bezpieczeństwa dotyczących katastrofalnych zagrożeń, a Nowy Jork również jest obecnie w zasięgu ręki. Jednak nadzieje związane z ustawodawstwem federalnym są nikłe.

„Firmy mają motywację, nawet jeśli mają najlepsze intencje, aby zawsze wprowadzać nowe produkty przed konkurencją, zamiast poświęcać dużo czasu na zapewnienie ich bezpieczeństwa” – stwierdził Tegmark.

Tegmark stwierdził, że zamiast norm narzuconych przez rząd, branża zaczęła poważniej traktować okresowo publikowane przez grupę oceny bezpieczeństwa; cztery z pięciu amerykańskich firm odpowiedziały obecnie na jego ankietę (jedyna firma Meta stawia opór). Tegmark stwierdził, że z biegiem czasu firmy wprowadziły pewne ulepszenia, podając jako przykład przejrzystość Google w zakresie polityki sygnalizowania nieprawidłowości.

Jednak rangę dyskusji podniosły także rzeczywiste krzywdy zgłaszane w związku z tematami takimi jak samobójstwa nastolatków rzekomo zachęcane przez chatboty, niewłaściwe interakcje z nieletnimi i duże cyberataki również podniosły poziom dyskusji.

„(Oni) naprawdę uświadomili wielu ludziom, że nie mówimy o przyszłości, mówimy o teraźniejszości” – powiedział Tegmark.

Instytut Future of Life niedawno zwerbował osobistości publiczne tak różne, jak książę Harry i Meghan Markle, były doradca Trumpa Steve Bannon, współzałożyciel Apple Steve Wozniak i raper Will.i.am do podpisania oświadczenia sprzeciwiającego się pracom, które mogą prowadzić do superinteligencji.

Tegmark powiedział, że chciałby stworzyć coś w rodzaju „agencji FDA zajmującej się sztuczną inteligencją, w której firmy muszą najpierw przekonać ekspertów, że ich modele są bezpieczne, zanim będą mogły je sprzedać”.

„Branża sztucznej inteligencji jest dość wyjątkowa, ponieważ jest jedyną branżą w Stanach Zjednoczonych, która wytwarza potężną technologię, która jest mniej uregulowana niż kanapki – w zasadzie nie jest uregulowana w ogóle” – powiedział Tegmark. „Jeśli ktoś powie: «Chcę otworzyć nowy sklep z kanapkami w pobliżu Times Square», zanim będziesz mógł sprzedać pierwszą kanapkę, inspektor zdrowia musi sprawdzić twoją kuchnię i upewnić się, że nie jest w niej pełno szczurów… Jeśli zamiast tego powiesz: «O nie, nie będę sprzedawać żadnych kanapek. Po prostu wyzwolę superinteligencję». W porządku! Nie ma potrzeby zatrudniania inspektorów, nie ma potrzeby uzyskiwania na nic zezwoleń”.

„Rozwiązanie tego problemu jest więc bardzo oczywiste” – dodał Tegmark. „To po prostu powstrzymuje dobro korporacji polegające na udzielaniu firmom AI zwolnień, których nie dostaje żadna inna firma”.

Raport ten został pierwotnie opublikowany przez Tech Brew.

Website |  + posts
- Advertisement -spot_img
- Advertisement -spot_img

Najnowszy artykuł