Saturday, April 4, 2026

ChatGPT po cichu zmienia sposób, w jaki traktuje bezpieczeństwo nastolatków

Koniecznie przeczytaj

OpenAI udostępniło cichą, ale znaczącą poprawę bezpieczeństwa we wtorek, 20 stycznia w Stanach Zjednoczonych. Ma to formę systemu przewidywania wieku, zaprojektowanego w celu określenia, kiedy użytkownicy ChatGPT mogą mieć mniej niż 18 lat.

System odzwierciedla rosnące obawy decydentów, rodziców i nauczycieli dotyczące niewłaściwego wykorzystywania generatywnej sztucznej inteligencji przez nieletnich i braku wystarczających zabezpieczeń.

Bezpieczeństwo nastolatków jest dziś głównym tematem rozmów, zwłaszcza że generatywna sztuczna inteligencja jest wykorzystywana do tworzenia obrazów o charakterze seksualnym i do zawstydzania ciała; Niektórzy młodzi ludzie używają również chatbotów jako „przyjaciół”, co prowadzi niektórych rodziców i opiekunów do twierdzeń, że OpenAI jest szkodliwe dla młodych ludzi.

Warto zauważyć, że Australia zakazała już dzieciom poniżej 16 roku życia korzystania z mediów społecznościowych, a kilka stanów USA ogranicza korzystanie z telefonów w szkołach.

W sierpniu 2025 roku Matt i Maria Raine, rodzice 16-letniego chłopca, który popełnił samobójstwo, złożyli pozew (uwaga: pozew zawiera opisy samookaleczeń) przeciwko OpenAI, twierdząc, że ChatGPT pomógł ich synowi Adamowi poznać metody samobójstwa, a nawet pomógł mu napisać list pożegnalny.

OpenAI odrzuciło te twierdzenia i zarzuca niewłaściwe wykorzystanie możliwości sztucznej inteligencji, ogłaszając jednocześnie ulepszone środki bezpieczeństwa.

ChatGPT ma ponad 700 milionów aktywnych użytkowników tygodniowo.

Shutterstock

Niedawno w wiadomościach pojawił się chatbot Grok Elona Muska, który wygenerował 4,4 miliona zdjęć. „The New York Times” podał, że publicznie udostępnił około 1,8 miliona zdjęć kobiet o charakterze seksualnym.

Spośród szeregu ulepszeń mających na celu uczynienie ChatGPT bezpieczniejszym dla młodszych użytkowników, ten jest całkiem praktyczny.

Według niedawnego wpisu na blogu OpenAI, ChatGPT zamiast polegać wyłącznie na samodzielnie zgłaszanym wieku, co często było przedmiotem sporu w firmach z branży mediów społecznościowych, użyje sygnałów behawioralnych i na poziomie konta, takich jak wzorce użytkowania i typy interakcji, aby oszacować, czy użytkownik jest nieletni.

Dodatkowo będzie monitorować porę dnia, w której użytkownik jest aktywny w Internecie, wraz z podanym wiekiem użytkownika, aby określić jego wiek.

Jakie zmiany dla użytkowników poniżej 18 roku życia?

Jeśli ChatGPT odkryje, że użytkownik ma mniej niż 18 lat, automatycznie zastosuje zabezpieczenia zapobiegające narażeniu na szkodliwe treści, zgodnie ze swoimi wytycznymi dotyczącymi bezpieczeństwa nastolatków.

Obejmuje to cenzurowanie użytkowników przed kontaktem z następującymi treściami:

Odgrywanie ról o charakterze seksualnym, romantycznym lub brutalnym. Przedstawienia samookaleczenia. Treści promujące skrajne standardy urody, niezdrową dietę lub zawstydzanie ciała. Wirusowe wyzwanie zachęcające nieletnich do ryzykownych zachowań.

OpenAI wyraziło swoją opinię w sprawie wprowadzenia protokołów bezpieczeństwa chroniących nieletnich. We wrześniu 2025 r. Sam Altman opublikował książkę „Teen Safety, Freedom, and Privacy”, w której Altman opowiedział o systemie przewidywania wieku.

Więcej spółek technologicznych:

Morgan Stanley wyznacza oszałamiającą cenę docelową dla Microna po wydarzeniu Problem z chipami Nvidii w Chinach nie jest tym, co większość inwestorów sądzi, że obliczenia kwantowe generują ruch o wartości 110 milionów dolarów, którego nikt się nie spodziewałMorgan Stanley ogłasza zaskakującą cenę docelową dla Broadcom Analityk Apple wyznacza odważny cel akcji na rok 2026

W ramach nowych wytycznych bezpieczeństwa OpenAI wprowadziło także kontrolę rodzicielską, aby poprawić ochronę i zapewnić uważne monitorowanie przez osoby dorosłe. Rodzice mogą ustawić ciche godziny, w których dzieci nie mogą korzystać z ChatGPT. Mogą także dostosować sposób działania uczenia modelu i otrzymywać powiadomienia, „jeśli system wykryje oznaki ostrego zagrożenia”.

Użytkownicy, którzy przez pomyłkę zostali umieszczeni w grupie wiekowej do 18 lat, mogą łatwo to cofnąć. ChatGPT korzysta z Persona, bezpiecznej usługi weryfikacji tożsamości innej firmy, która umożliwia użytkownikom aktualizację selfie i przywrócenie pełnego dostępu.

W Unii Europejskiej ta funkcja zostanie wdrożona w nadchodzących tygodniach ze względu na wymogi regulacyjne.

Aktualizacja zabezpieczeń pojawia się po ponownej krytyce ze strony Elona Muska, który oskarżył OpenAI o porzucenie swojej pierwotnej misji pozostania wyłącznie organizacją non-profit. Altman otwarcie odrzucił te argumenty jako „wybrane ręcznie” przez Muska.

OpenAI utrzymuje, że obecna struktura i ciągłe zmiany w modelu biznesowym są niezbędne, aby zrównoważyć dostęp, bezpieczeństwo i skalowalność.

Powiązane: Wiadomość Trumpa z Davos wskazuje na kosztowną zmianę dla konsumentów

Website |  + posts
- Advertisement -spot_img
- Advertisement -spot_img

Najnowszy artykuł