Joseph Stiglitz twierdzi, że sztuczna inteligencja nie tylko zmieni kształt pracy i rynków, ale także po cichu zniszczy informacje, od których zależą te systemy. W miarę jak duże modele językowe (LLM) eliminują nasze złośliwe komentarze na Reddicie i nasze głośne skrajne głosy na forach ekstremistycznych, laureat Nagrody Nobla ostrzega przed światem, w którym wszystko wydaje się bardziej oparte na danych, ale dane leżące u ich podstaw są w coraz większym stopniu, no cóż, „śmieciami”.
„Uważam, że w przypadku sztucznej inteligencji istnieje kilka głębszych problemów” – powiedział ekonomista Fortune. „Nie tylko mamy problem na rynku pracy… ale istnieje też druga strona tego, co nazwałbym informacyjnymi efektami zewnętrznymi”, które Stiglitz opisuje po prostu jako „śmieci wchodzą, wyrzucają śmieci” (GIGO).
Ryzyko nie polega tylko na utracie pracy; Jest to przerwana pętla sprzężenia zwrotnego pomiędzy prawdą a systemami, których używamy do interpretacji rzeczywistości: od rynków prognostycznych, przez modele finansowe, po debatę polityczną. Zasadniczo sztuczna inteligencja jest na tyle inteligentna, na ile otrzymuje informacje, a gdy w dalszym ciągu zbiera nieprecyzyjne informacje, dane wyjściowe stają się tak samo zniekształcone, jak informacje, które wchłonęła.
Ich zdaniem obecne modele opierają się na wadliwej umowie: żarliwie tłumią dziennikarstwo, badania i rozmowy w Internecie, podważając przy tym przede wszystkim instytucje wytwarzające wiedzę wysokiej jakości. W efekcie, obawia się, powstanie świat, w którym ludzi da się ponieść internetowej retoryce utrwalanej przez sztuczną inteligencję (pomyśl o kryzysie rynkowym spowodowanym artykułem Citrini Research promującym „Phantom PKB” lub wirusowym esejem Matta Shumera o apokaliptycznej sztucznej inteligencji), a nie światem opartym na rzeczywistej rzeczywistości.
Sztuczna inteligencja „kradnie informacje” z potrzebnych jej źródeł
Mimo to, stwierdził Stiglitz, sztuczna inteligencja nie ma ani zainteresowania, ani możliwości tworzenia nowych, wysokiej jakości informacji. „W rezultacie istnieje realne ryzyko pogorszenia się ogólnego ekosystemu informacyjnego”.
Jeśli najlepsze źródła informacji będą powoli wycofywane, a tańsze formy (takie jak wątki z komentarzami, stronnicze memy i treści niewymagające dużego wysiłku) będą się mnożyć, dane szkoleniowe będą skupiać się na tym, czego jest najwięcej i najtaniej, co oznacza, że chatboty w przeważającej mierze będą powtarzać to, co zaczerpną z forów internetowych.
To pierwszy sposób, w jaki głód sztucznej inteligencji na to, co online, może przynieść odwrotny skutek: kanibalizm modeli biznesowych wspierających poważną pracę i przede wszystkim zmiana zestawu tego, co istnieje, co należy wyrzucić.
Śmieci wprowadzane, śmieci wyrzucane na skalę przemysłową
Stiglitz, który w swojej książce z 2024 r. zatytułowanej The Road to Freedom: Economics and the Good Society nawiązuje do ekosystemu informacyjnego, nawiązał do stereotypu GIGO. „Jeśli przetwarzasz i rozpowszechniasz śmieci, otrzymujesz tylko śmieci: śmieci przychodzą, śmieci wyrzucają, GIGO”.
To sformułowanie może być stare, ale Stiglitz twierdzi, że jest nadal aktualne. Systemy sztucznej inteligencji świetnie radzą sobie z przetwarzaniem wszystkiego, co im przekazujemy, ale nie są tak skuteczne w odróżnianiu wiedzy od szumu. „Istnieje realne ryzyko, że pomimo potencjału nowych technologii w zakresie poprawy ekosystemu informacyjnego w krytycznych obszarach… w rzeczywistości możemy znaleźć się w gorszej sytuacji” – stwierdził. Im więcej śmieci (niezweryfikowanych twierdzeń, spisków, kampanii astroturfowych, komentarzy niskiej jakości), tym więcej dopracowanych śmieci.
Martwi się, że użytkownicy pomylą ten lakier z prawdą. „Będą myśleć, że uzyskali wysoce przetworzone informacje, nie zdając sobie w pełni sprawy, w jakim stopniu jedyne, co robią, to ponowne przetwarzanie śmieci” – powiedział. „Przetwarzanie śmieci przez sztuczną inteligencję nie zastąpi jednej dobrej pracy naukowej”.
Kiedy antyszczepionki prześcigną naukowców
Nigdzie ryzyko to nie jest tak wyraźnie widoczne jak w najodleglejszych zakątkach Internetu, gdzie często najgłośniej słychać skrajne poglądy. Pomyśl o swoim stereotypowym forum społecznościowym na określony temat. Dzięki anonimowości Internetu użytkownicy mogą wyrażać swoje opinie na temat najnowszych decyzji politycznych czy wydarzeń kulturalnych. W rezultacie te zakątki to obszary, w których dezinformacja jest najbardziej rozpowszechniona, a nauka, która je obala, jest rzadko wspominana lub wspominana. Szczepionki są doskonałym studium przypadku, mówi Stiglitz.
„Zwolennicy antyszczepionek są znacznie bardziej aktywni w Internecie niż ludzie twierdzący, że szczepionki działają” – powiedział. Naukowcy przeprowadzają badania, publikują gęste artykuły i idą dalej. Teoretycy spiskowi codziennie zalewają fora i platformy społecznościowe.
„Więc może być o wiele więcej artykułów przeciwko temu niż jeden krytyczny artykuł, który mówi: «Oto dowód na to, że szczepionka działa… Oto skuteczność»” – wyjaśnił Stiglitz. „Czy dzisiejsza sztuczna inteligencja jest w stanie powiedzieć, że potrzebny jest nam dany przedmiot? Nie.
W przypadku modeli przeszkolonych w zakresie surowej częstotliwości i zaangażowania wygrywają najgłośniejsze głosy. Głód większej ilości informacji przez sztuczną inteligencję może zniekształcić rzeczywistość, wypychając żarliwą mniejszość zamiast ostrożnej większości, szczególnie w dziedzinach, w których dobro publiczne zależy od zaufania do powolnej, metodycznej nauki.
Prognozy rynkowe oparte na braku informacji.
W artykule z 1980 r. napisanym wspólnie z Sanfordem Grossmanem Stiglitz argumentował, że w sercu efektywnych rynków kryje się paradoks: jeśli ceny w pełni odzwierciedlają wszystkie dostępne informacje, nikt nie ma motywacji do płacenia za zebranie tych informacji, w związku z czym znikają te same informacje, które decydują o „wydajności” rynków.
Mówi, że współczesne rynki sztucznej inteligencji i prognoz powtarzają tę historię na większą skalę. „To ciekawe, że wspomniałeś o Grossmanie-Stiglitzu” – powiedział Fortune – „ponieważ napisałem artykuł z jednym z moich doktorantów, Maxem Venturą, rozszerzając Grossmana-Stiglitza na sztuczną inteligencję, a wynik, który opisałem wcześniej, dotyczący tego, jak możemy pogorszyć ekosystem informacyjny, był w rzeczywistości odniesieniem do tego rozszerzenia”.
Kiedy „firmy zajmujące się sztuczną inteligencją wydobywające dane z Fortune i wszystkich innych producentów mediów” nie są zmuszone płacić za to, co pobierają, „nie czerpią korzyści, w związku z czym zachęta do prowadzenia wysokiej jakości badań podstawowych prowadzących do dobrego ekosystemu informacyjnego zostaje osłabiona”. Rynki prognostyczne i algorytmy handlowe opierają się następnie na wynikach tych modeli, jeszcze bardziej oddzielając swoje zakłady od wszelkich rzeczywistych inwestycji.
„Osłabiło to zachęty do tworzenia informacji wysokiej jakości, zwiększając możliwość tworzenia informacji o niskiej jakości, a co za tym idzie, przybywało i wyrzucano więcej śmieci” – stwierdził. System mający na celu dodawanie wiedzy kończy się wzmacnianiem tego, co najtańsze i najobfitsze.
AI jako dodatek, a nie wyrocznia
Mimo to Stiglitz nie uważa, że rozwiązaniem jest zakaz lub ignorowanie sztucznej inteligencji. Sam z tego korzysta i stara się tego samego uczyć swoich uczniów, nie myląc dowcipnej odpowiedzi z solidnym argumentem.
„Próbujemy ich nauczyć, jak wykorzystywać sztuczną inteligencję jako narzędzie badawcze” – powiedział. „Wiesz więc, że nie odchodzimy od sztucznej inteligencji. Wykorzystuję sztuczną inteligencję w moich badaniach. Jest to więc niesamowite narzędzie badawcze, ale nie zastępuje myślenia i analizy.
„Może pomóc w znalezieniu źródeł i opracowaniu pomysłów” – dodał. „Ale w końcu musisz wykonać ciężką pracę”. Według niego wyniki modelu „naprawdę pomagają zacząć myśleć o rzeczach może nieco inaczej”, a nie werdykty, które należy zaakceptować bez zmian.
Uważa jednak, że konieczna jest interwencja na szczeblu rządowym, aby zapobiec dalszemu pogarszaniu się stanu informacji. „W przypadku braku regulacji rządowych” – ostrzegł – „istnieje co najmniej znaczne ryzyko, że w wielu obszarach problematycznych będziemy mieli gorszy ekosystem informacyjny”.

