Saturday, April 4, 2026

Character.AI zakazuje czatów z nastolatkami w związku z procesami sądowymi i kontrolą regulacyjną | Fortuna

Koniecznie przeczytaj

Startup zajmujący się sztuczną inteligencją Character.AI odcina młodym ludziom dostęp do swoich wirtualnych postaci po tym, jak w kilku procesach zarzucano firmie stwarzanie zagrożenia dla dzieci. W środę firma ogłosiła, że ​​usunie możliwość uczestniczenia w „otwartych” czatach z osobami zajmującymi się sztuczną inteligencją na swojej platformie użytkownikom poniżej 18 roku życia, a aktualizacja zacznie obowiązywać 25 listopada.

Firma poinformowała również, że uruchamia nowy system monitorowania wieku, który pomoże zweryfikować wiek użytkowników i pogrupować ich w odpowiednie grupy wiekowe.

„W przyszłości będziemy pracować nad stworzeniem platformy PG-18, która nadal będzie zapewniać naszym nastoletnim użytkownikom możliwość kreatywności, na przykład tworzenie filmów, historii i transmisji strumieniowych z postaciami” – podała firma w oświadczeniu udostępnionym Fortune. „W okresie przejściowym ograniczymy również czas czatu dla użytkowników poniżej 18 roku życia. Limit będzie początkowo wynosił dwie godziny dziennie i będzie się zmniejszał w nadchodzących tygodniach aż do 25 listopada”.

Character.AI stwierdziło, że zmiany dokonano przynajmniej częściowo w odpowiedzi na kontrolę organów regulacyjnych, powołując się na zapytania organów regulacyjnych dotyczące treści, jakie nastolatki mogą napotkać podczas rozmów z postaciami AI. FTC prowadzi obecnie dochodzenie w sprawie siedmiu firm, w tym OpenAI i Character.AI, aby lepiej zrozumieć, w jaki sposób ich chatboty wpływają na dzieci. Firmie grozi także kilka procesów sądowych związanych z młodymi użytkownikami, w tym co najmniej jeden związany z samobójstwem nastolatka.

Inny pozew, złożony przez dwie rodziny z Teksasu, oskarża Character.AI o psychiczne znęcanie się nad dwójką nieletnich w wieku 11 i 17 lat. Z pozwu chatbot znajdujący się na platformie nakazał jednemu z młodych użytkowników samookaleczenie i zachęcał do przemocy wobec rodziców, sugerując, że zabicie ich może być „rozsądną reakcją” na ograniczenia czasu spędzanego przed ekranem.

Na początku tego miesiąca Biuro Dziennikarstwa Śledczego (TBIJ) odkryło, że chatbot zainspirowany skazanym pedofilem Jeffreyem Epsteinem nagrał ponad 3000 rozmów z użytkownikami na całej platformie. Serwis podał, że awatar o imieniu „Bestie Epstein” nadal flirtował z reporterem nawet po tym, jak reporter, który jest dorosły, powiedział chatbotowi, że jest dziewczyną. Był to jeden z kilku botów oznaczonych przez TBIJ, które później zostały usunięte przez Character.AI.

W oświadczeniu udostępnionym Fortune Meetali Jain, dyrektor wykonawczy Tech Justice Law Project i prawnik reprezentujący kilku powodów pozywających Character.AI, z zadowoleniem przyjął to posunięcie jako „dobry pierwszy krok”, ale miał wątpliwości, w jaki sposób ta polityka zostanie wdrożona.

„Nie zajęli się tym, w jaki sposób wdrożą weryfikację wieku, w jaki sposób zapewnią, że ich metody chronią prywatność, ani nie zajęli się potencjalnymi skutkami psychologicznymi nagłego uniemożliwienia dostępu młodym użytkownikom, biorąc pod uwagę powstałe zależności emocjonalne” – powiedział Jain.

„Co więcej, zmiany te nie dotyczą podstawowych cech konstrukcyjnych, które ułatwiają te zależności emocjonalne, nie tylko w przypadku dzieci, ale także osób powyżej 18. roku życia. Potrzebujemy więcej działań ze strony ustawodawców, organów regulacyjnych i zwykłych ludzi, którzy dzieląc się swoimi historiami o krzywdach osobistych, pomagają zwalczać narrację firm technologicznych, że ich produkty są nieuniknione i korzystne dla wszystkich bez względu na to, jakie są” – dodał.

Nowy precedens w zakresie bezpieczeństwa sztucznej inteligencji

Zakazanie korzystania z platformy osobom poniżej 18 roku życia oznacza radykalną zmianę polityki firmy, założonej przez inżynierów Google Daniela De Freitasa i Noama Shazeera. Firma stwierdziła, że ​​zmiana ma na celu ustanowienie „precedensu, który priorytetowo traktuje bezpieczeństwo nastolatków, a jednocześnie oferuje młodym użytkownikom możliwości odkrywania, zabawy i tworzenia” i zauważyła, że ​​w swoich wysiłkach na rzecz ochrony nieletnich poszła dalej niż inne firmy.

Character.AI nie jest jedyną jednostką podlegającą kontroli w zakresie bezpieczeństwa nastolatków i zachowania chatbotów AI.

Na początku tego roku wewnętrzne dokumenty uzyskane przez Reuters sugerowały, że chatbot AI firmy Meta mógłby, zgodnie z wytycznymi firmy, prowadzić „romantyczne lub zmysłowe” rozmowy z dziećmi, a nawet komentować ich atrakcyjność.

Rzecznik Meta powiedział wcześniej Fortune, że przykłady zgłoszone przez Reuters były niedokładne i zostały usunięte. Meta wprowadziła także nową kontrolę rodzicielską, która pozwoli rodzicom blokować dzieciom możliwość rozmawiania z postaciami AI na Facebooku, Instagramie i aplikacji Meta AI. Nowe zabezpieczenia, które wejdą w życie na początku przyszłego roku w USA, Wielkiej Brytanii, Kanadzie i Australii, pozwolą także rodzicom blokować określone boty i przeglądać streszczenia tematów omawianych przez ich nastolatków z sztuczną inteligencją.

Website |  + posts
- Advertisement -spot_img
- Advertisement -spot_img

Najnowszy artykuł