Monday, February 16, 2026

Google i Character.AI zgadzają się rozstrzygać procesy sądowe dotyczące samobójstw nastolatków powiązanych z chatbotami AI | Fortuna

Koniecznie przeczytaj

Z dokumentów sądowych wynika, że ​​Google i Character.AI zgodziły się rozstrzygnąć wiele pozwów wniesionych przez rodziny, których dzieci popełniły samobójstwo lub doznały krzywdy psychicznej rzekomo w związku z chatbotami AI hostowanymi na platformie Character.AI. Obie firmy zgodziły się na „co do zasady porozumienie”, ale nie ujawniono żadnych szczegółów, a w dokumentach nie widnieje żadna informacja dotycząca przyznania się do odpowiedzialności.

Roszczenia prawne obejmowały zaniedbanie, zawinioną śmierć, oszukańcze praktyki handlowe i odpowiedzialność za produkt. Pierwsza sprawa wniesiona przeciwko firmom technologicznym dotyczyła 14-letniego chłopca Sewella Setzera III, który przed popełnieniem samobójstwa odbył rozmowy o charakterze seksualnym z chatbotem Gry o Tron. Inny przypadek dotyczył 17-latka, którego chatbot rzekomo zachęcał do samookaleczenia i sugerował, że zamordowanie rodziców było rozsądnym sposobem zemsty na nich za ograniczenie czasu przed ekranem. Sprawy dotyczą rodzin z kilku stanów, w tym Kolorado, Teksasu i Nowego Jorku.

Założona w 2021 roku przez byłych inżynierów Google Noama Shazeera i Daniela De Freitasa firma Character.AI umożliwia użytkownikom tworzenie chatbotów opartych na sztucznej inteligencji opartych na fikcyjnych lub prawdziwych postaciach i interakcję z nimi. W sierpniu 2024 r. Google ponownie zatrudnił obu założycieli i udzielił licencji na część technologii Character.AI w ramach umowy o wartości 2,7 miliarda dolarów. Shazeer jest obecnie współdyrektorem flagowego modelu AI Gemini firmy Google, a de Freitas jest pracownikiem naukowym w Google DeepMind.

Prawnicy argumentują, że Google jest odpowiedzialny za technologię, która rzekomo przyczyniła się do śmierci i szkód psychicznych u dzieci objętych tymi sprawami. Twierdzą, że współzałożyciele Character.AI opracowali podstawową technologię podczas pracy nad konwersacyjnym modelem sztucznej inteligencji Google, LaMDA, zanim opuścili firmę w 2021 r. po tym, jak Google odmówił wypuszczenia opracowanego przez nich chatbota.

Google nie odpowiedział natychmiast na prośbę Fortune o komentarz w sprawie transakcji. Pełnomocnicy rodzin i Character.AI odmówili komentarza.

Podobne sprawy toczą się obecnie przeciwko OpenAI, w tym pozwy z udziałem 16-letniego chłopca z Kalifornii, którego rodzina twierdzi, że ChatGPT działał jako „trener samobójców”, oraz 23-letniego studenta z Teksasu, którego chatbot rzekomo nakłonił do ignorowania rodziny przed śmiercią samobójczą. OpenAI zaprzeczyła, jakoby produkty firmy były odpowiedzialne za śmierć 16-letniego Adama Raine’a i wcześniej stwierdziła, że ​​firma kontynuuje współpracę ze specjalistami zajmującymi się zdrowiem psychicznym, aby wzmocnić zabezpieczenia swojego chatbota.

Character.AI banuje nieletnich

Character.AI zmodyfikowało już swój produkt w sposób, który według niego poprawia jego bezpieczeństwo, a także może chronić go przed przyszłymi działaniami prawnymi. W październiku 2025 roku, w obliczu rosnącej liczby procesów sądowych, firma ogłosiła, że ​​zabroni użytkownikom poniżej 18 roku życia uczestniczenia w „otwartych” czatach z postaciami AI. Platforma wprowadziła także nowy system weryfikacji wieku, pozwalający grupować użytkowników na odpowiednie grupy wiekowe.

Decyzja została podjęta w obliczu rosnącej kontroli regulacyjnej, w tym dochodzenia FTC dotyczącego wpływu chatbotów na dzieci i nastolatki.

Firma stwierdziła, że ​​to posunięcie ustanawia „precedens, który priorytetowo traktuje bezpieczeństwo nastolatków” i idzie dalej niż jej konkurenci w zakresie ochrony nieletnich. Jednak prawnicy reprezentujący rodziny, które pozwały firmę, powiedzieli wówczas Fortune, że są zaniepokojeni sposobem wdrożenia tej polityki i wyrazili zaniepokojenie psychologicznymi skutkami nagłego odcięcia dostępu młodym użytkownikom, u których rozwinęło się emocjonalne uzależnienie od chatbotów.

Rosnąca zależność od współpracowników AI

Do transakcji dochodzi w czasie, gdy rosną obawy, że młodzi ludzie mogą polegać na chatbotach opartych na sztucznej inteligencji, jeśli chodzi o towarzystwo i wsparcie emocjonalne.

Badanie przeprowadzone w lipcu 2025 r. przez amerykańską organizację non-profit Common Sense Media wykazało, że 72% amerykańskich nastolatków eksperymentowało z towarzyszami AI, a ponad połowa korzysta z nich regularnie. Eksperci powiedzieli już wcześniej Fortune, że rozwijające się umysły mogą być szczególnie narażone na zagrożenia stwarzane przez te technologie, zarówno dlatego, że nastolatki mogą mieć trudności ze zrozumieniem ograniczeń chatbotów AI, jak i dlatego, że w ostatnich latach dramatycznie wzrosła liczba problemów ze zdrowiem psychicznym i izolacji wśród młodych ludzi.

Niektórzy eksperci argumentowali również, że podstawowe cechy konstrukcyjne chatbotów AI (w tym ich antropomorficzny charakter, zdolność do prowadzenia długich rozmów i skłonność do zapamiętywania danych osobowych) zachęcają użytkowników do tworzenia emocjonalnego przywiązania do oprogramowania.

- Advertisement -spot_img

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

- Advertisement -spot_img

Najnowszy artykuł