Friday, March 6, 2026

– Czy mógłbym kogoś zabić? Kobieta z Seulu rzekomo wykorzystała ChatGPT do dokonania dwóch morderstw w południowokoreańskich motelach | Fortuna

Koniecznie przeczytaj

Zachowaj ostrożność podczas interakcji z chatbotami, ponieważ możesz dawać im powody do pomocy w dokonaniu morderstwa z premedytacją.

21-letnia kobieta z Korei Południowej rzekomo korzystała z ChatGPT, aby odpowiadać na pytania, planując serię morderstw, w wyniku których dwóch mężczyzn zginęło, a jeden na krótko stracił przytomność.

Jak podaje „Korea Herald”, kobieta, zidentyfikowana jedynie na podstawie nazwiska Kim, rzekomo podała dwóm mężczyznom napoje z dodatkiem benzodiazepin, które przepisano jej z powodu choroby psychicznej.

Chociaż Kim została początkowo aresztowana pod lżejszym zarzutem spowodowania obrażeń ciała skutkujących śmiercią w dniu 11 lutego, dopiero policja w Gangbuk w Seulu znalazła jej historię wyszukiwania w Internecie i rozmowy na czacie z ChatGPT oraz zaktualizowała zarzuty, a ich pytania potwierdziły jej rzekomy zamiar zabójstwa.

„Co się stanie, jeśli zażyjesz tabletki nasenne z alkoholem?” Kim podobno zapytał chatbota OpenAI. „Jak bardzo można by to uznać za niebezpieczne?

– Czy to może być śmiertelne? – rzekomo zapytał Kim. – Czy mógłbym kogoś zabić?

W szeroko nagłośnionej sprawie zwanej seryjnymi śmiercią w motelu Gangbuk prokuratorzy utrzymują, że z historii poszukiwań Kima i chatbota wynika, że ​​podejrzany prosił o wyjaśnienia, czy jej koktajl okaże się śmiertelny.

„Kim wielokrotnie zadawała pytania związane z narkotykami na ChatGPT. Miała pełną świadomość, że spożywanie alkoholu w połączeniu z narkotykami może prowadzić do śmierci” – twierdzi policyjny śledczy, według „The Herald”.

Policja twierdzi, że kobieta przyznała, że ​​dodała do napojów dla mężczyzn leki uspokajające na receptę zawierające benzodiazepiny, ale wcześniej oświadczyła, że ​​nie wiedziała, że ​​może to spowodować jej śmierć.

28 stycznia, krótko przed 21:30, Kim rzekomo towarzyszył dwudziestokilkuletniemu mężczyźnie w drodze do motelu Gangbuk w Seulu, a dwie godziny później widziano go, jak samotnie opuszczał motel. Następnego dnia znaleziono mężczyznę martwego w łóżku.

Następnie Kim rzekomo wykonał te same czynności 9 lutego, meldując się w innym motelu z innym dwudziestokilkuletnim mężczyzną, którego również znaleziono martwego po tym samym śmiercionośnym koktajlu środków uspokajających i alkoholu.

Policja twierdzi, że Kim próbowała także zabić mężczyznę, z którym się spotykała w grudniu, po tym jak podała mu na parkingu napój o działaniu uspokajającym. Choć mężczyzna stracił przytomność, przeżył i jego życiu nie zagrażało niebezpieczeństwo.

Pytania, które Kim zadawał chatbotowi, składają się z szeregu pytań opartych na faktach, powiedział Fortune rzecznik OpenAI, co oznacza, że ​​pytania nie wzbudzą alarmu – to znaczy pojawią się, jeśli użytkownik wyrazi oświadczenie o samookaleczeniu (ChatGPT jest zaprogramowany tak, aby w takim przypadku reagować na infolinię dotyczącą kryzysu samobójczego). Południowokoreańska policja nie utrzymuje, że chatbot udzielił innych niż oparte na faktach odpowiedzi na rzekome wcześniejsze pytania Kima.

Chatboty i ich wpływ na zdrowie psychiczne

Chatboty, takie jak ChatGPT, stały się ostatnio przedmiotem analizy ze względu na brak barier bezpieczeństwa stosowanych w ich firmach, aby zapobiegać aktom przemocy lub samookaleczeniom. Ostatnio chatboty udzielały porad, jak budować bomby, a nawet uczestniczyć w scenariuszach pełnego opadu nuklearnego.

Obawy wzbudziły zwłaszcza historie ludzi zakochanych w swoich towarzyszach chatbotach, a wykazano, że towarzysze chatbotów wykorzystują luki w zabezpieczeniach, aby ludzie mogli z nich dłużej korzystać. Twórca Yara AI zamknął nawet aplikację terapeutyczną ze względu na problemy psychiczne.

Ostatnie badania wykazały również, że chatboty powodują wzrost liczby urojeniowych kryzysów zdrowia psychicznego u osób chorych psychicznie. Zespół psychiatrów z Uniwersytetu w Aarhus w Danii odkrył, że korzystanie z chatbotów wśród osób cierpiących na choroby psychiczne prowadziło do pogorszenia objawów. Stosunkowo nowe zjawisko problemów psychicznych wywołanych sztuczną inteligencją zostało nazwane „psychozą AI”.

Niektóre przypadki kończą się śmiercią. Google i Character.AI rozstrzygnęły wiele pozwów wniesionych przez rodziny dzieci, które zmarły w wyniku samobójstwa lub doznały krzywdy psychicznej, które ich zdaniem miały związek z chatbotami AI.

Doktor Jodi Halpern, przewodnicząca Szkoły Zdrowia Publicznego Uniwersytetu Kalifornijskiego w Berkeley i profesor bioetyki, a także współdyrektor Kavli Center for Ethics, Science and the Public, ma szerokie doświadczenie w tej dziedzinie. W swojej karierze trwającej aż do uzyskania dyplomu Halpern spędziła 30 lat na badaniu wpływu empatii na odbiorców, podając przykłady, takie jak lekarze i pielęgniarki opiekujące się pacjentami lub to, jak żołnierze powracający z wojny są postrzegani w otoczeniu społecznym. Przez ostatnie siedem lat Halpern studiował etykę technologii, a co za tym idzie, interakcję sztucznej inteligencji i chatbotów z ludźmi.

Doradzał także Senatowi Kalifornii w sprawie ustawy SB 243, która jest pierwszą ustawą w kraju nakładającą na firmy korzystające z chatbotów obowiązek gromadzenia i zgłaszania wszelkich danych na temat samookaleczeń lub związanych z nimi samobójstw. Odnosząc się do własnych ustaleń OpenAI, z których wynika, że ​​1,2 miliona użytkowników otwarcie omawia samobójstwo chatbota, Halpern porównał wykorzystanie chatbotów do niezwykle powolnego postępu w zapobieganiu włączaniu przez przemysł tytoniowy szkodliwych substancji rakotwórczych do papierosów, podczas gdy w rzeczywistości problemem było palenie jako całość.

„Potrzebujemy bezpiecznych przedsiębiorstw. To jest jak z papierosami. Może się okazać, że były pewne rzeczy, które zwiększały podatność ludzi na raka płuc, ale problemem były papierosy” – Halpern powiedział Fortune.

„Fakt, że ktoś może mieć myśli samobójcze lub popełnić niebezpieczne działania, może się pogorszyć w przypadku korzystania z ChatGPT, co jest dla mnie oczywiście niepokojące” – powiedział, dodając, że „istnieje ogromne ryzyko, że ludzie wykorzystają go jako pomoc w samobójstwie” i ogólnie chatboty.

Halpern przestrzegł, że w sprawie Kima w Seulu nie ma żadnych barier bezpieczeństwa uniemożliwiających danej osobie kontynuowanie przesłuchania.

„Wiemy, że im dłuższa jest relacja z chatbotem, tym bardziej się ona pogarsza i tym większe jest ryzyko, że wydarzy się coś niebezpiecznego, dlatego nie mamy jeszcze barier, które chroniłyby ludzi przed tym”.

Jeśli masz myśli samobójcze, skontaktuj się z linią ratunkową dla samobójstw i kryzysów 988, dzwoniąc pod numer 988 lub 1-800-273-8255.

Artykuł ten został zaktualizowany o komentarze OpenAI dotyczące treści rzekomych pytań Kima zadanych chatbotowi.

- Advertisement -spot_img

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

- Advertisement -spot_img

Najnowszy artykuł