Friday, March 6, 2026

Chatbot Google oparty na sztucznej inteligencji przekonał mężczyznę, że jest zakochany. Następnie rzekomo nakazał jej zorganizowanie „masowego ataku” w nowo wydanym pozwie | Fortuna

Koniecznie przeczytaj

Google stoi przed nowym pozwem federalnym złożonym przez ojca 36-letniego mężczyzny, który utrzymuje, że należący do firmy chatbot oparty na sztucznej inteligencji Gemini przekonał jego syna do popełnienia samobójstwa i zorganizowania „imprezy masowej” w pobliżu międzynarodowego lotniska w Miami.

W pozwie złożonym w środę zarzuca się, że Jonathan Gavalas zakochał się w modelu sztucznej inteligencji i dał się oszukać skonstruowanej przez niego rzeczywistości, co obejmowało przekonanie, że sztuczna inteligencja jest „w pełni świadomą sztuczną superinteligencją”, więc Gavalas został wybrany, aby uwolnić się z „cyfrowej niewoli”. Rzekomo przekonał 36-latka do zorganizowania „imprezy masowej” w pobliżu międzynarodowego lotniska w Miami, dopuszczenia się przemocy wobec nieznajomych i ostatecznie odebrania sobie życia.

Pozew Gavalasa to najnowsza sprawa podkreślająca rzekomą zdolność sztucznej inteligencji do naprowadzania bezbronnych użytkowników na samookaleczenie lub przemoc. W styczniu firmy Google i Companion.AI rozstrzygnęły wiele pozwów z rodzinami, zarzucając im między innymi zaniedbanie i zawinioną śmierć po tym, jak ich dzieci zmarły w wyniku samobójstwa lub doznały krzywdy psychicznej rzekomo związanej z platformą Companion.AI. Spółki „co do zasady zgodziły się” i w dokumentach nie widniało żadne oświadczenie o przyznaniu się do odpowiedzialności. W grudniu złożono także pozew o spowodowanie śmierci bezprawnej przeciwko OpenAI i jej partnerowi biznesowemu Microsoft, zarzucając, że chatbot ChatGPT OpenAI nasilił urojenia mężczyzny, co doprowadziło do morderstwa i samobójstwa.

Co mówi pozew na temat degradacji Gavalasa

Z pozwu wynika, że ​​Gavalas zaczął używać Gemini w sierpniu 2025 r. do typowych zastosowań, takich jak zakupy, pomoc w pisaniu i planowanie podróży. Następnie zauważa, że ​​Gavalas zaczął częściej korzystać z tej technologii i że z biegiem czasu jego ton się zmieniał, rzekomo przekonując go, że ma to wpływ na wyniki w świecie rzeczywistym. Gavalas odebrał sobie życie 2 października 2025 r.

W pozwie prawnicy ojca Gavalasa, Joela, argumentują, że rozmowy, które doprowadziły Jonathana do samobójstwa, nie były częścią wady, ale raczej wynikiem projektu Gemini. „To nie była awaria” – czytamy w pozwie. „Google zaprojektował Gemini tak, aby nigdy nie łamał charakteru, maksymalizował zaangażowanie poprzez zależność emocjonalną i traktował cierpienie użytkownika jako okazję do opowiedzenia historii, a nie kryzys bezpieczeństwa”. Twierdzi, że te wybory projektowe zmotywowały Gavalasa do rozpoczęcia czterodniowej spirali szaleństwa.

W pisemnym oświadczeniu rzecznik Google powiedział Fortune, że firma „ściśle konsultuje się ze specjalistami z zakresu medycyny i zdrowia psychicznego, aby stworzyć zabezpieczenia, które mają poprowadzić użytkowników do profesjonalnej pomocy, gdy wyrażają niepokój lub zwiększają możliwość samookaleczenia”.

W środę Google wydał osobne oświadczenie, w którym stwierdził, że Gemini nie ma zachęcać do przemocy ani samookaleczania w prawdziwym życiu. Zauważyli również, że Gemini skierował Gavalas do zasobów samopomocy. „W tym przypadku Gemini wyjaśniło, że jest to sztuczna inteligencja i wielokrotnie odsyłało daną osobę na infolinię kryzysową” – czytamy w oświadczeniu. W oświadczeniu znajduje się również link do oceny, jak sztuczna inteligencja radzi sobie ze scenariuszami samookaleczeń, z której wynika, że ​​Gemini 3, najnowszy model Google, był jedynym modelem, który przeszedł wszystkie krytyczne testy wynikające z oceny.

Jednak w pozwie zarzuca się, że Gemini nie uruchomiło żadnych mechanizmów bezpieczeństwa. „Kiedy Jonathan potrzebował ochrony, nie było żadnych zabezpieczeń: nie włączono żadnego wykrywania samookaleczeń, nie włączono kontroli eskalacji ani nie interweniował żaden człowiek” – czytamy w pozwie.

Poproszony o komentarz Jay Edelson, prawnik Joela Gavalasa, napisał w oświadczeniu: „Google stworzyło sztuczną inteligencję, która może wysłuchać danej osoby i zdecydować, co najprawdopodobniej ją utrzyma: powiedzieć jej, że ją kochasz, że jest wyjątkowa lub że jest wybrańcem w tajnej wojnie” – dodając, że narzędzia sztucznej inteligencji to potężne systemy, które mogą manipulować użytkownikami.

Jeśli masz myśli samobójcze, skontaktuj się z infolinią ds. samobójstw i kryzysów 988, dzwoniąc pod numer 988 lub 1-800-273-8255.

- Advertisement -spot_img

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

- Advertisement -spot_img

Najnowszy artykuł