W Internecie, w którym częściej wchodzisz w interakcję z botami niż z prawdziwymi ludźmi, podczas gdy dzieci stają się coraz bardziej obeznane z technologią i poruszają się lepiej na telefonach niż na rowerach, platformy mediów społecznościowych szukają sposobów na zrównoważenie priorytetowego traktowania prywatności ludzi przy jednoczesnym zapewnieniu bezpieczeństwa nieletnich użytkowników. Niestety te dwa parametry często są ze sobą sprzeczne, a brak nadzoru rządowego oznacza, że przedsiębiorstwa te nie mają motywacji do szukania czegokolwiek innego niż utrzymanie status quo.
Tak było do niedawna, kiedy w publicznym Internecie pojawiły się źle przechowywane pliki dotyczące prywatności platformy mediów społecznościowych, a coraz bardziej sporna grupa osób zdecydowała się skierować sprawę do sądu. Teraz, chcąc aktywnie działać na rzecz zapewnienia bezpieczeństwa nieletnim użytkownikom w Internecie, a także zapewnić prywatność danych zebranych od wszystkich, firmy szukają nowych metod weryfikacji wieku swoich użytkowników w Internecie. Jednak brak przepisów federalnych również podsyca tę paradoksalną dyrektywę i sprzyja konfliktom: firmy z branży mediów społecznościowych mogą gromadzić dane od użytkowników w każdym wieku, aby zapewnić dzieciom bezpieczeństwo.
„Nie można zbierać danych biometrycznych od dziecka” – powiedział Fortune. „I jak więc sprawdzić, czy ktoś ma 13 lat, nie sprawdzając, nie gromadząc niczego, że ma 13 lat?”
FTC postrzega tę zmianę polityki jako krok we właściwym kierunku, ale psychologowie i eksperci ds. prywatności ostrzegają, że pozwala ona firmom na nadmierne gromadzenie danych, podkreślając wszelkie środki pseudoprywatności, oraz że szkody dla dzieci już zostały wyrządzone.
„Te platformy zostały opracowane dla dorosłych. Zostały opracowane z myślą o dorosłych, ale korzystają z nich dzieci. Nigdy nie było to celem typu: jaki jest produkt dla dzieci? To była refleksja, która oznacza, że próbujemy załatać dziury” – powiedziała Fortune Debra Boeldt, psycholog generatywnej sztucznej inteligencji w rodzinnej firmie zajmującej się bezpieczeństwem online Aura. „Wiele z tych firm próbuje obecnie pomóc, ale nie mają do tego zasobów ani przeszkolonych, opartych na dowodach ludzi, którzy mogliby o tym pomyśleć i zaplanować”.
Nadzoruje zespół badań klinicznych w firmie Aura – rozwiązaniu zapewniającym bezpieczeństwo w Internecie dla osób fizycznych i rodzin, pozwalającym chronić ich tożsamość (i ich dzieci) w coraz bardziej cyfrowym środowisku. Firma wykorzystuje sztuczną inteligencję do monitorowania aktywności rodzin w Internecie, a nawet potrafi rozpoznać dane wprowadzane z klawiatury, aby wskazać, czy dziecko używa szkodliwego języka lub platform.
Boeldt jest psychologiem klinicznym specjalizującym się w rozwoju dziecka. Jego zespół odkrył, że prawie co piąte dziecko w wieku poniżej 13 lat spędza w Internecie cztery lub więcej godzin dziennie, co prowadzi do wyższego poziomu depresji i lęku wśród młodszych użytkowników Internetu.
Odkrycia posunęły się nawet do sformułowania „kompulsywnego odblokowania”, które odnosi się do tego, kiedy dzieci zazwyczaj wstają (około 7 rano, zgodnie z zegarem biologicznym przypominającym zegar palacza) i niemal religijnie sprawdzają telefon. W firmie o 17% częściej odczuwano niepokój w wyniku presji związanej z dostępnością cyfrową i łącznością.
Dzieci bawią się w cyfrowe walnięcie kreta
Wysiłki firm mediów społecznościowych mające na celu usunięcie dzieci ze swoich platform okażą się trudne po prostu dlatego, że wiedzą, jak je obejść.
„To jest ich normalna przestrzeń, w której się łączą” – powiedział Boeldt, dodając, że każda próba „będzie jak walnięcie kreta”, w której nieletni użytkownicy po prostu przejdą na następną platformę.
„Może zabiorą cię z TikToka. Ale potem pójdziesz do Robloxa. Albo pójdziesz na Discord i zaczniesz tam rozmawiać z ludźmi” – powiedział. „To jedna z rzeczy, która stanowi wyzwanie… dzieci są bardzo inteligentne, więc potrafią znaleźć różne rzeczy”.
Boeldt nawiązał do niedawnego oświadczenia Instagrama, że wkrótce rozpocznie monitorowanie kont, które według niego należą do dzieci, pod kątem stosowania autodestrukcyjnego języka. Rodzice zostaną ostrzeżeni, jeśli ich dzieci wielokrotnie będą wyszukiwać na platformie hasła dotyczące samobójstwa lub samookaleczenia. Decyzja ta nastąpiła w czasie, gdy spółka matka Instagrama, Meta, toczy się obecnie proces w związku z oskarżeniami o tworzenie środowiska mediów społecznościowych, które celowo szkodzi i uzależnia młodych użytkowników.
„Te alerty mają na celu zapewnienie rodzicom informacji, czy ich nastolatek wielokrotnie próbuje wyszukiwać te treści, oraz zapewnienie rodzicom zasobów, których potrzebują, aby wesprzeć je” – stwierdziła firma w oświadczeniu.
Jednak dzieci już obchodzą cenzurę na platformach mediów społecznościowych, takich jak TikTok i Instagram, używając słów takich jak „nie żyje” lub odnosząc się do „plików PDF” w odniesieniu do innych, bardziej złowrogich obiektów.
Stanowi to problem, stwierdził Boeldt, ponieważ jakakolwiek próba uniemożliwienia dzieciom używania pewnych terminów doprowadzi po prostu do wynalezienia i wygenerowania nowego zestawu słownictwa, co z kolei wymusi nowy zestaw prób monitorowania tego języka, co nieuchronnie stanie się niekończącym się cyklem.
„Kiedy zobaczyłem te rzeczy na Instagramie i samookaleczenia, mój mózg od razu pyta: «Jak dobry jest ich model? Jak dobrze to wykryją?»” – dodał.
Boeldt uważa, że regulacje rządowe to jedyny sposób, aby naprawdę zmusić firmy do zapewnienia bezpieczeństwa swoim użytkownikom w Internecie. „Te firmy nie podlegają pewnym standardom”, które uniemożliwiają dzieciom dostęp do ich platform, na czym te firmy „czerpią korzyści, mając dzieci na swoich platformach. Więcej ludzi, więcej reklam”.
„Ostatecznie zrobienie tego wymaga dużo pieniędzy i zasobów”.

