Friday, February 20, 2026

„Czuję się głęboko nieswojo”: dyrektor generalny Anthropic ostrzega, że ​​grupa liderów AI, w tym on sam, nie powinna odpowiadać za przyszłość technologii | Fortuna

Koniecznie przeczytaj

Dyrektor generalny Anthropic, Dario Amodei, nie uważa, że ​​to on powinien podejmować decyzje dotyczące barier otaczających sztuczną inteligencję.

„Myślę, że czuję się głęboko niekomfortowo, że takie decyzje podejmuje kilka firm i kilka osób” – powiedział Amodei. „I to jest jeden z powodów, dla których zawsze opowiadałem się za odpowiedzialnymi i przemyślanymi regulacjami technologii”.

„Kto wybrał ciebie i Sama Altmana?” – zapytał Cooper.

„Nikt. Szczerze mówiąc, nikt” – odpowiedział Amodei.

Dodał, że firma Anthropic przyjęła filozofię przejrzystości w zakresie ograniczeń (i zagrożeń) związanych ze sztuczną inteligencją w jej dalszym rozwoju. Przed opublikowaniem wywiadu firma oświadczyła, że ​​udaremniła „pierwszy udokumentowany przypadek cyberataku na sztuczną inteligencję na dużą skalę przeprowadzonego bez istotnej interwencji człowieka”.

W zeszłym tygodniu firma Anthropic oświadczyła, że ​​przekazała 20 milionów dolarów na rzecz Public First Action, super PAC skupiającego się na bezpieczeństwie i regulacjach dotyczących sztucznej inteligencji i była bezpośrednio przeciwna super PAC wspieranym przez konkurencyjnych inwestorów OpenAI.

„Bezpieczeństwo sztucznej inteligencji pozostaje najwyższym priorytetem” – Amodei powiedziała Fortune w styczniowym artykule na okładce. „Firmy cenią zaufanie i niezawodność” – mówi.

Nie ma przepisów federalnych określających zakazy dotyczące sztucznej inteligencji lub bezpieczeństwa tej technologii. Chociaż wszystkie 50 stanów wprowadziło w tym roku przepisy dotyczące sztucznej inteligencji, a 38 przyjęło lub wprowadziło środki w zakresie przejrzystości i bezpieczeństwa, eksperci z branży technologicznej wezwali firmy zajmujące się sztuczną inteligencją do pilnego zajęcia się cyberbezpieczeństwem.

Na początku ubiegłego roku ekspert ds. cyberbezpieczeństwa i dyrektor generalny Mandiant, Kevin Mandiat, ostrzegł przed pierwszym atakiem cyberbezpieczeństwa przeprowadzonym przez agenta sztucznej inteligencji, który nastąpi w ciągu najbliższych 12–18 miesięcy, co oznacza, że ​​ujawnienie przez firmę Anthropic informacji o udaremnionym ataku nastąpiło kilka miesięcy przed przewidywanym harmonogramem Mandii.

Amodei nakreślił krótko-, średnio- i długoterminowe ryzyko związane z nieskrępowaną sztuczną inteligencją: technologia ta w pierwszej kolejności wprowadzi stronniczość i dezinformację, tak jak ma to miejsce obecnie. Następnie będzie generować szkodliwe informacje, korzystając z pogłębionej wiedzy naukowej i inżynieryjnej, zanim ostatecznie stworzy egzystencjalne zagrożenie, usuwając ludzką sprawczość, potencjalnie stając się zbyt autonomicznym i blokując ludzi przed systemami.

Obawy te odzwierciedlają obawy „ojca chrzestnego sztucznej inteligencji” Geoffreya Hintona, który ostrzegł, że sztuczna inteligencja będzie w stanie przechytrzyć i kontrolować ludzi, być może w ciągu następnej dekady.

Potrzeba większej kontroli i zabezpieczeń sztucznej inteligencji leżała u podstaw założenia firmy Anthropic w 2021 r. Amodei był wcześniej wiceprezesem ds. badań w OpenAI Sama Altmana. Opuścił firmę z powodu różnic zdań w kwestiach bezpieczeństwa sztucznej inteligencji. (Jak dotąd wysiłki Amodei, by konkurować z Altmanem, wydawały się skuteczne: Anthropic podał w tym miesiącu, że jego wycena wynosi obecnie 380 miliardów dolarów. OpenAI wycenia się na szacunkowo 500 miliardów dolarów.)

„W OpenAI była grupa nas, która po stworzeniu GPT-2 i GPT-3 bardzo mocno wierzyła w dwie rzeczy” – Amodei powiedział Fortune w 2023 r. „Jednym z nich był pomysł, że jeśli włożysz więcej obliczeń w te modele, będą one coraz lepsze i że to prawie nie będzie końca… Drugim był pomysł, że potrzebujesz czegoś poza samym skalowaniem modeli, czyli wyrównaniem lub bezpieczeństwem”.

Działania Anthropic na rzecz przejrzystości

W miarę dalszego rozwijania inwestycji w centra danych Anthropic podjęło pewne działania mające na celu wyeliminowanie luk i zagrożeń związanych ze sztuczną inteligencją. W raporcie bezpieczeństwa z maja 2025 r. firma Anthropic poinformowała, że ​​niektóre wersje jej modelu Opus groziły szantażem, na przykład ujawnieniem, że inżynier miał romans, aby uniknąć zamknięcia. Firma stwierdziła również, że model sztucznej inteligencji spełnia niebezpieczne żądania, jeśli otrzymuje szkodliwe wskazówki, takie jak planowanie ataku terrorystycznego, które, jak twierdzi, już naprawił.

W listopadzie ubiegłego roku firma poinformowała w poście na blogu, że chatbot Claude uzyskał ocenę bezstronności politycznej na poziomie 94%, przewyższając lub dorównując swoim konkurentom pod względem neutralności.

Oprócz własnych wysiłków badawczych Anthropic mających na celu zwalczanie korupcji technologicznej, Amodei wezwał do wzmożenia wysiłków legislacyjnych w celu zajęcia się zagrożeniami związanymi ze sztuczną inteligencją. W artykule w New York Times z czerwca 2025 r. skrytykował decyzję Senatu o włączeniu do projektu ustawy prezydenta Donalda Trumpa postanowienia nakładającego 10-letnie moratorium na stany regulujące sztuczną inteligencję.

„Sztuczna inteligencja działa zbyt szybko” – stwierdził Amodei. „Myślę, że te systemy mogą zasadniczo zmienić świat w ciągu dwóch lat; za 10 lat wszystkie zakłady są wykluczone”.

Krytyka Anthropo

Praktyka Anthropic polegająca na wytykaniu własnych błędów i wysiłkach zmierzających do ich naprawienia spotkała się z krytyką. W odpowiedzi na alarm wywołany przez Anthropic w związku z atakiem na cyberbezpieczeństwo opartym na sztucznej inteligencji, ówczesny główny naukowiec zajmujący się sztuczną inteligencją w firmie Meta, Yann LeCun, powiedział, że ostrzeżenie stanowi sposób na zmanipulowanie prawodawców w celu ograniczenia wykorzystania modeli open source.

„Jesteście wprowadzani w błąd przez ludzi, którzy chcą przejęcia organów regulacyjnych” – stwierdził LeCun w poście X w odpowiedzi na post senatora Connecticut Chrisa Murphy’ego, w którym wyraził zaniepokojenie atakiem. „Straszają wszystkich wątpliwymi badaniami, aby modele open source przestały istnieć”.

Inni twierdzą, że strategią Anthropic jest „teatr bezpieczeństwa”, który oznacza dobry branding, ale nie gwarantuje wdrożenia zabezpieczeń w technologii.

Wydaje się, że nawet niektórzy pracownicy Anthropic mają wątpliwości co do zdolności firmy technologicznej do samoregulacji. Na początku zeszłego tygodnia badacz bezpieczeństwa Anthropic AI, Mrinank Sharma, ogłosił, że odchodzi z firmy, stwierdzając: „Świat jest w niebezpieczeństwie”.

„Przez cały czas, jaki tu spędziłem, wielokrotnie widziałem, jak trudno jest pozwolić, aby nasze wartości kierowały naszymi działaniami” – napisał Sharma w swoim liście rezygnacyjnym. „Widziałem to po sobie, w organizacji, gdzie stale spotykamy się z presją, aby odłożyć na bok to, co najważniejsze, a także w całym społeczeństwie”.

Anthropic nie odpowiedziało natychmiast na prośbę Fortune o komentarz.

Amodei zaprzeczył Cooperowi, że Anthropic angażuje się w „teatr bezpieczeństwa”, ale w zeszłym tygodniu w jednym z odcinków podcastu Dwarkesh Podcast przyznał, że firma czasami ma trudności z zrównoważeniem bezpieczeństwa i zysków.

„Jesteśmy pod niesamowitą presją biznesową i jeszcze bardziej sobie to utrudniamy, ponieważ mamy wszystkie te zabezpieczenia, które robimy, a myślę, że robimy więcej niż inne firmy” – powiedział.

Wersja tej historii pojawiła się na Fortune.com 17 listopada 2025 r.

Więcej na temat regulacji dotyczących sztucznej inteligencji:

- Advertisement -spot_img

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

- Advertisement -spot_img

Najnowszy artykuł