Liczby są zdumiewające, ale eksperci twierdzą, że to, co widzimy, to dopiero początek. Ponieważ generowane przez sztuczną inteligencję materiały przedstawiające wykorzystywanie seksualne dzieci (CSAM) osiągają rekordowy poziom, badacze ostrzegają, że technologia ta nie tylko generuje bardziej szkodliwe treści, ale zasadniczo zmienia sposób, w jaki dzieci są atakowane; w jaki sposób osoby, które przeżyły, są ponownie ofiarami; i jak badacze są przytłoczeni.
Badacze byli już zajęci usuwaniem CSAM z Internetu. Jednak w przypadku generatywnej sztucznej inteligencji wyzwanie to uległo zaostrzeniu. Internet Watch Foundation (IWF), największa w Europie infolinia zajmująca się zwalczaniem obrazów przedstawiających wykorzystywanie seksualne dzieci w Internecie, udokumentowała 260-krotny wzrost liczby filmów przedstawiających wykorzystywanie seksualne dzieci generowanych przez sztuczną inteligencję w 2025 r. Liczba filmów wzrosła z zaledwie 13 w roku poprzednim do 3443. Naukowcy, którzy spędzili lata zgłębiając ten temat, twierdzą, że eksplozja nie jest niespodzianką. Jest to jednak ostrzeżenie.
„Każda liczba, którą widzimy, to wierzchołek góry lodowej” – powiedziała Melissa Stroebel, wiceprezes ds. badań i spostrzeżeń strategicznych w Thorn, organizacji non-profit opracowującej technologię zwalczania wykorzystywania seksualnego dzieci w Internecie. „Chodzi o to, co zostało aktywnie wykryte lub zgłoszone”.
Wzrost ten jest bezpośrednią konsekwencją tego, że generatywna sztuczna inteligencja staje się szybsza, tańsza i bardziej dostępna dla złych aktorów. Thorn zidentyfikował trzy różne sposoby wykorzystania tych narzędzi jako broni przeciwko dzieciom.
Pierwszą z nich jest rewiktymizacja osób, które przeżyły przemoc historyczną. Chłopiec, który doświadczył przemocy w 2010 r. i którego zdjęcia krążą w Internecie od ponad dziesięciu lat, stoi teraz w obliczu zupełnie nowego poziomu krzywdy. Przestępcy wykorzystują sztuczną inteligencję do pobierania istniejących obrazów i personalizowania ich, wchodząc w nagrane sceny przemocy w celu stworzenia nowego materiału.
„Tak jak można przerobić w Photoshopie babcię, która przegapiła swoje świąteczne zdjęcie” – Stroebel powiedziała „Fortune”, „źli aktorzy mogą przerobić w Photoshopie sceny i nagrania zidentyfikowanego dziecka”. Proces ten stwarza nową wiktymizację dla ofiar, które mogły spędzić lata próbując przezwyciężyć przemoc.
Drugim jest użycie niewinnych obrazów jako broni. Zdjęcie dziecka na stronie internetowej szkolnej drużyny piłkarskiej jest obecnie potencjalnym materiałem do nadużycia. Dzięki powszechnie dostępnym narzędziom sztucznej inteligencji przestępca może w ciągu kilku minut zamienić ten całkowicie łagodny obraz w materiał przedstawiający wykorzystywanie seksualne. Thorn dokumentuje także przypadki kontaktów rówieśniczych, w których młoda osoba tworzy obelżywe obrazy kolegi z klasy, nie rozumiejąc w pełni powagi wyrządzanej przez siebie krzywdy.
Trzeci wpływ, najbardziej systemowy, to presja wywierana na i tak już przeciążone kanały raportowania. Krajowe Centrum ds. Dzieci Zaginionych i Wykorzystywanych otrzymuje co roku dziesiątki milionów raportów CSAM. Szybkość, z jaką sztuczna inteligencja może obecnie generować nowatorskie materiały, radykalnie zwiększa te obciążenia i stwarza nowe pilne potrzeby. Kiedy pojawi się nowy obraz, badacze muszą ustalić, czy przedstawia on dziecko znajdujące się obecnie w czynnym niebezpieczeństwie, czy też jest to obraz wygenerowany przez sztuczną inteligencję.
„To naprawdę kluczowe dane, które pomogą im w selekcji i reagowaniu na takie przypadki” – powiedział Stroebel. Treści generowane przez sztuczną inteligencję znacznie utrudniają te ustalenia, dodał jednak, że władze zgłaszają i traktują przypadki obrazu wykonanego w czasie rzeczywistym i obrazu wygenerowanego przez sztuczną inteligencję w ten sam sposób.
Technologia sprawiła również, że niektóre z najczęściej powtarzanych wytycznych dotyczących bezpieczeństwa dzieci stały się niebezpiecznie nieaktualne. Przez lata ostrzegano dzieci, aby nie udostępniały zdjęć w Internecie, co stanowi podstawowe zabezpieczenie przed wykorzystywaniem. Ta rada jest już nieaktualna. Własne badania Thorna wykazały, że jedna na 17 młodych osób osobiście doświadczyła wykorzystywania fałszywego obrazu, a jedna na osiem znała osobę, która została zaatakowana. Ofiarom przemocy na tle seksualnym wysyłane są teraz zdjęcia, które wyglądają dokładnie tak, jak one, obrazy, których nigdy nie robiły.
„Dziecko nie musi już udostępniać zdjęcia, aby mogło zostać wykorzystane” – stwierdziła Stroebel.
Jeśli chodzi o wykrywanie, tradycyjna technologia mieszania, która działa jak odcisk palca znanych plików nadużyć, nie jest w stanie zidentyfikować treści generowanych przez sztuczną inteligencję, ponieważ każdy syntetycznie utworzony obraz jest technicznie nowy. Zrób na przykład zdjęcie czegoś dobrze znanego, na przykład Statuy Wolności. Na zdjęciu posągu są odciski palców. Załóżmy teraz, że powiększasz, jeszcze bardziej i jeszcze raz, aby zmienić cieniowanie piksela o 0,1%. Zmiana ta jest prawdopodobnie niezauważalna dla ludzkiego oka. Jednak odcisk palca tego zdjęcia jest teraz zupełnie nowy, co oznacza, że technologia mieszania nie rozpoznaje go jako tego samego zdjęcia oddalonego o ten sam piksel.
Wcześniej w przypadku tradycyjnej technologii hashowania różnica jednego piksela w porównaniu ze zdjęciem znanym jako CSAM oznaczała, że technologia go nie wykryje. Jednak technologia klasyfikacji, która ocenia zawartość obrazu, a nie dopasowuje go do znanego pliku, jest obecnie niezbędna do wykrywania treści, które w innym przypadku zostałyby całkowicie przeoczone.
Dla rodziców przesłanie Stroebela jest pilne i jednoznaczne. Rozmowa nie może czekać i musi wyjść poza stare ostrzeżenia. Jeśli dziecko się zgłosi, pierwszą reakcją nie może być sceptycyzm: „Naszym zadaniem jest: «Czy jesteś bezpieczny i jak mogę ci pomóc w przejściu do następnego kroku?»”.

