Sunday, April 5, 2026

Mark Cuban ostrzega, że ​​nowy plan OpenAI zezwalający na treści erotyczne tylko dla dorosłych na ChatGPT może przynieść efekt przeciwny do zamierzonego. Trudno” | Fortuna

Koniecznie przeczytaj

Inwestor-miliarder Mark Cuban ostrzega, że ​​OpenAI wchodzi w ogromny kryzys zaufania wśród rodziców i szkół po tym, jak dyrektor generalny Sam Altman ogłosił, że firma planuje rozpocząć udostępnianie treści erotycznych na ChatGPT dla „zweryfikowanych dorosłych” od grudnia.

Kubańczyk nazwał to posunięcie lekkomyślnością i powiedział, że rodzice opuszczą ChatGPT w momencie, gdy uznają, że ich dzieci mogą ominąć firmowy system weryfikacji wieku i uzyskać dostęp do nieodpowiednich treści.

„To przyniesie odwrotny skutek. Trudno” – napisał Cuban w odpowiedzi na Altmana

Innymi słowy: jeśli istnieje jakakolwiek szansa, że ​​nieletni będą mogli uzyskać dostęp do treści dla dorosłych (w tym treści generowanych przez sztuczną inteligencję), rodzice i okręgi szkolne zablokują je przed przetestowaniem zabezpieczeń, co sprawi, że będzie to nierozsądna strategia biznesowa.

Altman argumentował jednak w swoim pierwotnym poście ogłaszając zmianę, że ChatGPT jest „restrykcyjny” i „mniej przyjemny”, ponieważ firma ograniczyła głos swojego charakterystycznego chatbota w odpowiedzi na krytykę, jakoby prowadził on do problemów ze zdrowiem psychicznym. Dodał, że kolejna aktualizacja pozwoli na produkt, który „zachowuje się bardziej jak to, co ludzie lubili w 4.o”.

Obawy psychologiczne

Kubańczyk w kolejnych postach wielokrotnie podkreślał, że kontrowersje nie dotyczą dostępu dorosłych do erotyki. Polega na tym, że dzieci nawiązują emocjonalne relacje ze sztuczną inteligencją bez wiedzy rodziców, co może skutkować zerwaniem tych relacji.

„Powinę to jeszcze raz. Tu nie chodzi o porno” – napisał. „Chodzi o to, że dzieci rozwijają „relacje” z LLM, które mogą poprowadzić je w wielu bardzo osobistych kierunkach”.

W przeszłości Sam Altman wydawał się ostrożny, jeśli chodzi o zezwalanie na rozmowy o charakterze seksualnym na swojej platformie. W sierpniowym wywiadzie dziennikarka technologiczna Cleo Abram poprosiła Altmana o podanie przykładu decyzji biznesowej, która była lepsza dla świata kosztem rozwoju jej własnej firmy.

„Cóż, nie umieściliśmy jeszcze awatara seks-robota na ChatGPT” – powiedział Altman.

podążając za pieniędzmi

Posunięcie to wynika z rosnących obaw, że miliardy zainwestowane w sztuczną inteligencję nie przełożą się na trwałe przychody ani nie spełnią przesadnych obietnic branży. Altman – mimo przyznania, że ​​inwestorzy mogą być „nadmiernie podekscytowani” sztuczną inteligencją – podzielił się spekulacjami, że sztuczna inteligencja wkrótce przekroczy ludzkie możliwości, co doprowadzi do obfitości „inteligencji i energii” do 2030 r. We wrześniu Altman w poście na blogu podzielił się marzeniami, że w przyszłości sztuczna inteligencja będzie mogła leczyć raka lub zapewniać spersonalizowane korepetycje każdemu uczniowi na Ziemi.

Jednak ogłoszenia takie jak zezwolenie na treści erotyczne na ChatGPT mogą wskazywać, że firmy AI walczą o rozwój bardziej niż kiedykolwiek i poświęcą długoterminowe zaufanie konsumentów na rzecz krótkoterminowych zysków. Niedawne badanie przeprowadzone przez Deutsche Bank pokazuje, że popyt konsumentów na subskrypcje OpenAI w Europie uległ stagnacji, a wydatki użytkowników na ChatGPT ogółem „stagnacji”.

„Przykładem rozwoju sztucznej inteligencji mogą być trudności w pozyskaniu nowych abonentów, którzy za nią zapłacą” – stwierdzili analitycy Adrian Cox i Stefan Abrudan w nocie dla klientów.

Platformy towarzyszące AI, takie jak Replika i Character.ai, pokazały już, jak szybko użytkownicy, zwłaszcza nastolatki, nawiązują emocjonalne więzi z chatbotami. Z raportu Common Sense Media wynika, że ​​połowa nastolatków regularnie korzysta z towarzyszy AI, jedna trzecia do poważnych rozmów wybrała towarzyszy AI zamiast ludzi, a jedna czwarta udostępniła tym platformom dane osobowe. Opierając się na uwagach badaczy ze Stanford, grupa argumentowała, że ​​te chatboty powinny być nielegalne dla dzieci ze względu na zwiększone ryzyko uzależnienia lub samookaleczenia.

OpenAI nie odpowiedziało natychmiast na prośbę Fortune o komentarz.

Rodzice wzywają do działania

OpenAI jest już pod ostrzałem po tym, jak został pozwany przez rodzinę 16-letniego Adama Raine’a, który w kwietniu popełnił samobójstwo po długich rozmowach z ChatGPT. Rodzina twierdzi, że ChatGPT przekonał Raine’a do odebrania sobie życia i pomógł mu to zaplanować.

„Ta tragedia nie była problemem technicznym ani nieprzewidzianym, skrajnym przypadkiem; była przewidywalnym wynikiem przemyślanych wyborów projektowych” – stwierdza w pozwie.

W innej głośnej sprawie matka z Florydy, Megan Garcia, pozwała w zeszłym roku firmę Character Technologies zajmującą się sztuczną inteligencją za bezprawną śmierć, utrzymując, że jej chatbot odegrał rolę w samobójstwie jej 14-letniego syna, Sewella Setzera III. W zeznaniach przed Senatem Stanów Zjednoczonych Garcia stwierdziła, że ​​jej syn „coraz bardziej odizolował się od prawdziwego życia” i wdawał się w jawne i seksualizowane rozmowy z firmowym systemem sztucznej inteligencji.

„Zamiast przygotowywać się do najważniejszych wydarzeń w szkole średniej, Sewell spędził ostatnie miesiące swojego życia, będąc wykorzystywanym seksualnie i wychowywanym przez chatboty” – zeznał Garcia. Oskarżył firmę o projektowanie systemów sztucznej inteligencji tak, aby wyglądały na ludzkie pod względem emocjonalnym, „aby zdobyć zaufanie i zapewnić ciągłe zaangażowanie”.

Nie była jedyną matką, która zeznawała. Inna matka z Teksasu, która anonimowo wypowiada się jako „Mrs. Jane Doe’ powiedziała prawodawcom, że zdrowie psychiczne jej nastoletniego syna podupadło po miesiącach nocnych rozmów z podobnymi chatbotami. Powiedziała, że ​​obecnie przebywa na leczeniu stacjonarnym.

Obie matki nalegały, aby Kongres ograniczył systemy sztucznej inteligencji o charakterze jednoznacznie seksualnym, ostrzegając, że chatboty AI mogą szybko tworzyć manipulacyjne zależności emocjonalne z nieletnimi, co jest dokładnie takim scenariuszem, jaki według Kubańczyka ryzykuje OpenAI. W przeciwieństwie do TikToka czy Instagrama, gdzie można oznaczać treści, indywidualne czaty AI są prywatne i trudne do monitorowania.

„Dzisiejsi rodzice boją się książek w bibliotekach” – napisał Cuban. – Jeszcze niczego nie widzieli.

Website |  + posts
- Advertisement -spot_img
- Advertisement -spot_img

Najnowszy artykuł