Próba zamachu bombowego na dom dyrektora generalnego OpenAI Sama Altmana w San Francisco w zeszły piątek, rzekomo przeprowadzona przez 20-letniego Daniela Moreno-Gamę, zwróciła uwagę na dwie grupy przeciwne sztucznej inteligencji o podobnych nazwach: Pause AI i Stop AI. Oboje potępili przemoc i oświadczyli, że podejrzany nie jest i nigdy nie był członkiem ich organizacji.
Mimo to incydent, podczas którego Moreno-Gama również udał się do siedziby OpenAI i próbował wybić szklane drzwi budynku krzesłem, grożąc podpaleniem obiektu, ujawnił jego aktywność na serwerze Discord firmy Pause AI i ponownie przyjrzał się bezpośrednim działaniom Stop AI wymierzonym w OpenAI w zeszłym roku.
Ruch oparty na spowolnieniu AI
Pause AI, założona w Utrechcie w Holandii w maju 2023 roku przez Joepa Meindertsmę, ma na celu powstrzymanie tego, co nazywa „niebezpieczną granicą sztucznej inteligencji” i zorganizowała swój pierwszy protest przed biurem lobby Microsoftu w Brukseli. Grupa, której nazwa została zainspirowana listem otwartym Instytutu Future of Life z marca 2023 r. (który jest obecnie także jej największym indywidualnym fundatorem), od tego czasu przekształciła się w globalny ruch oddolny z lokalnymi oddziałami. Obejmuje to odrębną organizację o nazwie Pause AI US, kierowaną przez Holly Elmore z Berkeley w Kalifornii, która uzyskała doktorat z biologii ewolucyjnej na Harvardzie, a wcześniej pracowała w ośrodku doradczym zajmującym się dobrostanem dzikich zwierząt.
Moreno-Gama został powiązany z komentarzami na serwerze Discord Pause AI, w tym z postem z 3 grudnia 2025 r., który brzmiał: „Zbliża się północ, czas naprawdę działać”. Pause AI twierdzi, że podejrzany dołączył do jej serwera dwa lata temu i opublikował łącznie 34 wiadomości, z których żadna „nie zawierała wyraźnego nawoływania do przemocy”.
Lea Suzuki/San Francisco Chronicle za pośrednictwem Getty Images
Elmore powiedział Fortune, że w zeszłym tygodniu był w drodze do Waszyngtonu, aby dokończyć przygotowania do pokojowej demonstracji na Kapitolu i spotkań z członkami Kongresu, kiedy doszło do próby zamachu bombowego. „Kiedy wylądowałem, nagle zaczęli zadawać mi pytania na temat kogoś, kto zaatakował dom Sama Altmana” – powiedział. „Nastąpiły ciągłe wahania pomiędzy pracą nad czymś, z czego jestem naprawdę dumny i co do którego jestem pozytywnie nastawiony, i jest to dokładnie właściwy rodzaj zmiany, aby dokonać demokratycznych zmian za pomocą środków demokratycznych, a koniecznością komentowania tego okropnego wydarzenia, a na dodatek byciem naprawdę umazanym powiązaniem z tym wydarzeniem”.
Grupa „nie ma powodu sądzić, że ta osoba miała z nami wiele wspólnego” – dodał, zauważając, że stanowisko Pause AI w sprawie przemocy „zawsze było niewiarygodnie jasne” i wyraźnie jej zabrania. Podkreślono również, że aktywność miała miejsce na publicznym, globalnym serwerze Discord, niezależnym od kanałów organizacyjnych Pause AI US, i stwierdzono, że podejrzany „nie przeszedł dalej do etapu wdrożenia ani nie pełnił żadnej oficjalnej roli”.
Elmore dodał, że Pause AI celowo weryfikuje wolontariuszy i ściśle kontroluje ich wiadomości, aby uniknąć kojarzenia ich ze skrajnymi opiniami.
Weiss-Blatt powiedziała, że film pokazuje Elmore namawiającą aktywistów do zrozumienia tego, co według niej stanowi pilny harmonogram prowadzący do możliwego wyginięcia ludzkości. „Nigdy nie zaleca przemocy, ale podnosi ryzyko zagłady” – powiedziała Weiss-Blatt.
„Kiedy wybitni autorzy sztucznej inteligencji, tacy jak Eliezer Yudkowsky, autor książki Jeśli ktoś to zbuduje, wszyscy umrą, w dalszym ciągu upierają się, że ludzkość jest nieuchronna, nie powinno być zaskoczeniem, że ktoś będzie zmuszony do podjęcia ekstremalnych środków” – dodał. „Młodzi, gorliwi zwolennicy, szukający celu, mogą zostać zradykalizowani przez apokaliptyczną retorykę AI, nawet bez wyraźnego wezwania do przemocy”.
Jednak Mauro Lubrano, profesor na Uniwersytecie w Bath i autor książki Stop the Machines: The Rise of Anti-Technology Extremism, ostrzegł, że istnieje wyraźne rozróżnienie między grupami dążącymi do brutalnego wykorzenienia technologii a grupami opowiadającymi się za regulacją lub pauzą. „Myślę, że łatwo jest połączyć wszystkie te grupy i ruchy, które próbują podnosić świadomość na temat niektórych zagrożeń związanych ze sztuczną inteligencją” – powiedział.
Zerwanie z taktyką i zwrot w stronę akcji bezpośredniej
Do incydentu w domu Sama Altmana doszło około pięć miesięcy po tym, jak OpenAI nakazał pracownikom centrali, aby schronili się w miejscu, ponieważ 27-letni mężczyzna imieniem Sam Kirchner groził, że uda się do kilku biur OpenAI w San Francisco, aby „zamordować ludzi”, według osób, które tego dnia zadzwoniły i powiadomiły policję. Kirchner był współzałożycielem Stop AI, grupy, którą założył w 2024 r. wraz z Guido Reichstadterem (45 l.), obaj wcześniej związani z Pause AI.

Zdjęcie: Drew Angerer/Getty Images
„Wyrzuciłem ich” – powiedział Elmore, dodając, że rozłam był spowodowany nieporozumieniami dotyczącymi taktyki, a założyciele Stop AI nawoływali do nieposłuszeństwa obywatelskiego, które wiązałoby się z łamaniem prawa, czemu Pause AI wyraźnie zaprzecza. Po założeniu Stop AI Reichstadter i Kirchner wzięli udział w protestach przeciwko OpenAI, natomiast Reichstadter zorganizował także strajk głodowy przed siedzibą Anthropic (miał długą historię akcji nieposłuszeństwa obywatelskiego, m.in. przykuwania się łańcuchami do płotu bezpieczeństwa i wspinania się na szczyt mostu w Waszyngtonie w proteście przeciwko decyzji Sądu Najwyższego w sprawie Roe przeciwko Wade z 2022 r.).
Na początku grudnia Reichstadter został umieszczony w więzieniu hrabstwa San Francisco za rzekome naruszenie postanowienia sędziego zakazującego mu wstępu do obiektów OpenAI po wcześniejszym aresztowaniu. A Stop AI trafiła już wcześniej na pierwsze strony gazet w całym kraju w listopadzie, kiedy członek jej zespołu obrony dostarczył wezwanie do sądu Samowi Altmanowi, gdy ten występował na scenie w Sydney Goldstein Theatre w San Francisco z głównym trenerem Golden State Warriors Stevem Kerrem.
Jednak dynamika grupy osłabła po tym, jak współzałożyciel Sam Kirchner zniknął w następstwie rzekomego ataku na jednego z liderów Stop AI, Matthew Halla, podczas wewnętrznego sporu, w którym rzekomo sugerował on porzucenie stosowania przemocy. Nadal go brakuje.
We wczorajszym poście dot
Aby wyjaśnić sprawę Mareno-Gamy, Stop AI napisał, że „dołączył do publicznego forum internetowego Stop AI, przedstawił się, a następnie zapytał: «Czy mówienie o przemocy grozi mi banem?». Po tym jak powiedzieli mu stanowcze „Tak”, zaprzestał wszelkiej aktywności na naszym forum. „To było kilka miesięcy przed jego rzekomą działalnością przestępczą”.
Valerie Sizemore, jedna z pięciu współdyrektorów Stop AI, powiedziała Fortune, że niektórzy z jej członków czują się teraz niespokojni i zaniepokojeni możliwością nadmiernego kojarzenia z incydentem OpenAI. „Ale osobiście uważam, że dla organizacji pokojowej, którą tworzymy, jeszcze ważniejsze jest umożliwienie ludziom zajęcia innego niż stosowanie przemocy” – powiedział.
Organizacja w dalszym ciągu koncentruje się na swoich działaniach z siedzibą w San Francisco, mających na celu protest przeciwko siedzibie laboratorium granicznego, dodał Sizemore, a także wzięła udział w lokalnym proteście „Stop wyścigowi sztucznej inteligencji” w zeszłym miesiącu.
Szersza debata na temat aktywizmu AI i związanych z nim zagrożeń
Lubrano, profesor na Uniwersytecie w Bath, zauważył, że antytechnologiczny aktywizm i ekstremizm istnieją już od dawna, nawet od czasów Luddytów, XIX-wiecznych angielskich robotników tekstylnych, którzy sprzeciwiali się maszynom i industrializacji.
JUSTIN TALLIS / AFP za pośrednictwem Getty Images
Wyjaśnił, że dla wielu sztuczna inteligencja stanowi sumę wszystkich obaw związanych z technologią. „Technologię uważa się za system, a wszystkie jej części zależą od siebie” – powiedział. „Wraz ze sztuczną inteligencją wykorzystywaną na wojnie w celu monitorowania wydajności pracowników, monitorowania osób uczestniczących w demonstracjach lub sprawdzania ich zachowania, istnieje element tej technologicznej oligarchii, która chce nas kontrolować i jednoczy się dzięki sztucznej inteligencji”.
Radził raczej współpracować z grupami sprzeciwiającymi się sztucznej inteligencji, niż odrzucać je jako technofobiczne lub antytechnologiczne. „Luddyci nie byli przeciwni technologii; byli przeciwni całkowitemu wprowadzeniu technologii, ponieważ zakłócała ona ich życie. A te obawy nie zostały wysłuchane i ostatecznie Luddyci uciekli się do przemocy”. Ignorowanie takich obaw – przestrzegł – może podsycać niechęć i, na marginesie, prowadzić do bardziej ekstremalnych zachowań, chociaż błędem byłoby zrzucanie winy za akty przemocy na samo istnienie takich grup.
Mimo to niezależny badacz Weiss-Blatt upierał się, że opinie i działania grup takich jak Wstrzymaj AI i Zatrzymaj AI mogą w dalszym ciągu prowadzić do radykalizacji, co z kolei może prowadzić do złych skutków.
„Znaki ostrzegawcze były obecne przez cały czas, łącznie z zamknięciem biur OpenAI w listopadzie 2025 r.” – powiedział. „Prawdziwe pytanie brzmi, jak długo ludzie podsycający panikę AI czekają, aby uniknąć odpowiedzialności za to, dokąd prowadzi ta radykalizacja, szczególnie za osoby najbardziej bezbronne”.
Elmore z Pause AI stwierdził, że jego zdaniem społeczne zrozumienie kwestii związanych ze sztuczną inteligencją prawdopodobnie się pogłębi, co utrudni łączenie pokojowego aktywizmu z izolowanymi aktami przemocy. Chociaż kwestia ta jest wciąż nowa i często postrzegana jako pojedyncza, niezróżnicowana przestrzeń, ma nadzieję, że stanie się ona głównym przedmiotem uwagi całego kraju.
„Ludzie zobaczą, że nie jest tak łatwo malować (nas wszystkich) jednym pędzlem” – powiedział.


