Zachowaj ostrożność podczas interakcji z chatbotami, ponieważ możesz dawać im powody do pomocy w dokonaniu morderstwa z premedytacją.
21-letnia kobieta z Korei Południowej rzekomo korzystała z ChatGPT, aby odpowiadać na pytania, planując serię morderstw, w wyniku których dwóch mężczyzn zginęło, a jeden na krótko stracił przytomność.
Jak podaje „Korea Herald”, kobieta, zidentyfikowana jedynie na podstawie nazwiska Kim, rzekomo podała dwóm mężczyznom napoje z dodatkiem benzodiazepin, które przepisano jej z powodu choroby psychicznej.
Chociaż Kim została początkowo aresztowana pod lżejszym zarzutem spowodowania obrażeń ciała skutkujących śmiercią w dniu 11 lutego, dopiero policja w Gangbuk w Seulu znalazła jej historię wyszukiwania w Internecie i rozmowy na czacie z ChatGPT oraz zaktualizowała zarzuty, a ich pytania potwierdziły jej rzekomy zamiar zabójstwa.
„Co się stanie, jeśli zażyjesz tabletki nasenne z alkoholem?” Kim podobno zapytał chatbota OpenAI. „Jak bardzo można by to uznać za niebezpieczne?
– Czy to może być śmiertelne? – rzekomo zapytał Kim. – Czy mógłbym kogoś zabić?
W szeroko nagłośnionej sprawie zwanej seryjnymi śmiercią w motelu Gangbuk prokuratorzy utrzymują, że z historii poszukiwań Kima i chatbota wynika, że podejrzany prosił o wyjaśnienia, czy jej koktajl okaże się śmiertelny.
„Kim wielokrotnie zadawała pytania związane z narkotykami na ChatGPT. Miała pełną świadomość, że spożywanie alkoholu w połączeniu z narkotykami może prowadzić do śmierci” – twierdzi policyjny śledczy, według „The Herald”.
Policja twierdzi, że kobieta przyznała, że dodała do napojów dla mężczyzn leki uspokajające na receptę zawierające benzodiazepiny, ale wcześniej oświadczyła, że nie wiedziała, że może to spowodować jej śmierć.
28 stycznia, krótko przed 21:30, Kim rzekomo towarzyszył dwudziestokilkuletniemu mężczyźnie w drodze do motelu Gangbuk w Seulu, a dwie godziny później widziano go, jak samotnie opuszczał motel. Następnego dnia znaleziono mężczyznę martwego w łóżku.
Następnie Kim rzekomo wykonał te same czynności 9 lutego, meldując się w innym motelu z innym dwudziestokilkuletnim mężczyzną, którego również znaleziono martwego po tym samym śmiercionośnym koktajlu środków uspokajających i alkoholu.
Policja twierdzi, że Kim próbowała także zabić mężczyznę, z którym się spotykała w grudniu, po tym jak podała mu na parkingu napój o działaniu uspokajającym. Choć mężczyzna stracił przytomność, przeżył i jego życiu nie zagrażało niebezpieczeństwo.
Pytania, które Kim zadawał chatbotowi, składają się z szeregu pytań opartych na faktach, powiedział Fortune rzecznik OpenAI, co oznacza, że pytania nie wzbudzą alarmu – to znaczy pojawią się, jeśli użytkownik wyrazi oświadczenie o samookaleczeniu (ChatGPT jest zaprogramowany tak, aby w takim przypadku reagować na infolinię dotyczącą kryzysu samobójczego). Południowokoreańska policja nie utrzymuje, że chatbot udzielił innych niż oparte na faktach odpowiedzi na rzekome wcześniejsze pytania Kima.
Chatboty i ich wpływ na zdrowie psychiczne
Chatboty, takie jak ChatGPT, stały się ostatnio przedmiotem analizy ze względu na brak barier bezpieczeństwa stosowanych w ich firmach, aby zapobiegać aktom przemocy lub samookaleczeniom. Ostatnio chatboty udzielały porad, jak budować bomby, a nawet uczestniczyć w scenariuszach pełnego opadu nuklearnego.
Obawy wzbudziły zwłaszcza historie ludzi zakochanych w swoich towarzyszach chatbotach, a wykazano, że towarzysze chatbotów wykorzystują luki w zabezpieczeniach, aby ludzie mogli z nich dłużej korzystać. Twórca Yara AI zamknął nawet aplikację terapeutyczną ze względu na problemy psychiczne.
Ostatnie badania wykazały również, że chatboty powodują wzrost liczby urojeniowych kryzysów zdrowia psychicznego u osób chorych psychicznie. Zespół psychiatrów z Uniwersytetu w Aarhus w Danii odkrył, że korzystanie z chatbotów wśród osób cierpiących na choroby psychiczne prowadziło do pogorszenia objawów. Stosunkowo nowe zjawisko problemów psychicznych wywołanych sztuczną inteligencją zostało nazwane „psychozą AI”.
Niektóre przypadki kończą się śmiercią. Google i Character.AI rozstrzygnęły wiele pozwów wniesionych przez rodziny dzieci, które zmarły w wyniku samobójstwa lub doznały krzywdy psychicznej, które ich zdaniem miały związek z chatbotami AI.
Doktor Jodi Halpern, przewodnicząca Szkoły Zdrowia Publicznego Uniwersytetu Kalifornijskiego w Berkeley i profesor bioetyki, a także współdyrektor Kavli Center for Ethics, Science and the Public, ma szerokie doświadczenie w tej dziedzinie. W swojej karierze trwającej aż do uzyskania dyplomu Halpern spędziła 30 lat na badaniu wpływu empatii na odbiorców, podając przykłady, takie jak lekarze i pielęgniarki opiekujące się pacjentami lub to, jak żołnierze powracający z wojny są postrzegani w otoczeniu społecznym. Przez ostatnie siedem lat Halpern studiował etykę technologii, a co za tym idzie, interakcję sztucznej inteligencji i chatbotów z ludźmi.
Doradzał także Senatowi Kalifornii w sprawie ustawy SB 243, która jest pierwszą ustawą w kraju nakładającą na firmy korzystające z chatbotów obowiązek gromadzenia i zgłaszania wszelkich danych na temat samookaleczeń lub związanych z nimi samobójstw. Odnosząc się do własnych ustaleń OpenAI, z których wynika, że 1,2 miliona użytkowników otwarcie omawia samobójstwo chatbota, Halpern porównał wykorzystanie chatbotów do niezwykle powolnego postępu w zapobieganiu włączaniu przez przemysł tytoniowy szkodliwych substancji rakotwórczych do papierosów, podczas gdy w rzeczywistości problemem było palenie jako całość.
„Potrzebujemy bezpiecznych przedsiębiorstw. To jest jak z papierosami. Może się okazać, że były pewne rzeczy, które zwiększały podatność ludzi na raka płuc, ale problemem były papierosy” – Halpern powiedział Fortune.
„Fakt, że ktoś może mieć myśli samobójcze lub popełnić niebezpieczne działania, może się pogorszyć w przypadku korzystania z ChatGPT, co jest dla mnie oczywiście niepokojące” – powiedział, dodając, że „istnieje ogromne ryzyko, że ludzie wykorzystają go jako pomoc w samobójstwie” i ogólnie chatboty.
Halpern przestrzegł, że w sprawie Kima w Seulu nie ma żadnych barier bezpieczeństwa uniemożliwiających danej osobie kontynuowanie przesłuchania.
„Wiemy, że im dłuższa jest relacja z chatbotem, tym bardziej się ona pogarsza i tym większe jest ryzyko, że wydarzy się coś niebezpiecznego, dlatego nie mamy jeszcze barier, które chroniłyby ludzi przed tym”.
Jeśli masz myśli samobójcze, skontaktuj się z linią ratunkową dla samobójstw i kryzysów 988, dzwoniąc pod numer 988 lub 1-800-273-8255.
Artykuł ten został zaktualizowany o komentarze OpenAI dotyczące treści rzekomych pytań Kima zadanych chatbotowi.

