Elon Musk ma oszałamiającą wizję życia ze sztuczną inteligencją: technologia zniszczy wszystkie nasze miejsca pracy, a „powszechny wysoki dochód” będzie oznaczał, że każdy będzie mógł uzyskać dostęp do teoretycznej obfitości towarów i usług. Ilekroć wzniosłe marzenie Muska mogłoby stać się rzeczywistością, musiałby oczywiście nastąpić głęboki rachunek egzystencjalny.
„Pytanie naprawdę będzie dotyczyć znaczenia” – powiedział Musk na konferencji Viva Technology w maju 2024 r. „Jeśli komputer może zrobić (a roboty) wszystko lepiej od ciebie… czy twoje życie ma sens?”
Jednak według laureata Nagrody Nobla i „ojca chrzestnego sztucznej inteligencji” Geoffreya Hintona większość liderów branży nie zadaje sobie tego pytania o koniec sztucznej inteligencji. Jeśli chodzi o rozwój sztucznej inteligencji, Big Tech jest mniej zainteresowany długoterminowymi konsekwencjami technologii, a bardziej szybkimi rezultatami.
„Dla właścicieli firm motorem badań są krótkoterminowe zyski” – powiedział Fortune Hinton, emerytowany profesor informatyki na Uniwersytecie w Toronto.
Hinton powiedział, że twórcy technologii skupiają się w równym stopniu na pracy bezpośrednio przed nimi, a nie na końcowym wyniku samych badań.
„Naukowcy są zainteresowani rozwiązywaniem problemów, które wzbudzają ich ciekawość. To nie jest tak, że zaczynamy od tego samego celu: jaka będzie przyszłość ludzkości?” – powiedział Hinton.
„Mamy takie małe cele: jak byś to zrobił? Albo jak sprawić, by Twój komputer był w stanie rozpoznawać rzeczy na obrazach? Jak sprawić, by komputer był w stanie generować przekonujące filmy?” dodał. „To naprawdę napędza badania”.
Hinton od dawna ostrzegał przed niebezpieczeństwami związanymi ze sztuczną inteligencją bez barier ochronnych i zamierzonej ewolucji, szacując, że istnieje 10–20% szans, że technologia ta zniszczy ludzi po rozwoju superinteligencji.
W 2023 roku, dziesięć lat po sprzedaży Google’owi swojej firmy zajmującej się sieciami neuronowymi DNNresearch, Hinton opuścił stanowisko w tym gigantze technologicznym, chcąc swobodnie mówić o niebezpieczeństwach związanych z tą technologią i obawiając się, że nie będzie w stanie „powstrzymać złych aktorów przed wykorzystywaniem jej do złych celów”.
Jakie ryzyko wiąże się z nieuregulowaną sztuczną inteligencją?
Według Hintona zagrożenia związane ze sztuczną inteligencją można podzielić na dwie kategorie: ryzyko, jakie sama technologia stwarza dla przyszłości ludzkości oraz konsekwencje manipulowania sztuczną inteligencją przez ludzi o złych intencjach.
„Istnieje duża różnica pomiędzy dwoma różnymi rodzajami ryzyka” – stwierdził. „Istnieje ryzyko, że nieodpowiednie podmioty wykorzystają sztuczną inteligencję i to już występuje. Dzieje się tak już w przypadku fałszywych filmów i cyberataków, a wkrótce może się to zdarzyć w przypadku wirusów. A to bardzo różni się od ryzyka, że sama sztuczna inteligencja stanie się złym aktorem”.
W listopadzie 2025 r. firma Anthropic oświadczyła, że zakłóciła „pierwszy udokumentowany przypadek cyberataku opartego na sztucznej inteligencji na dużą skalę przeprowadzonego bez istotnej interwencji człowieka”, identyfikując grupę sponsorowaną przez chińskie państwo, która zmanipulowała Claude Code w celu infiltracji około 30 firm technologicznych, instytucji finansowych, agencji rządowych i producentów środków chemicznych – podała firma zajmująca się sztuczną inteligencją w poście na blogu.
Awaria doprowadziła ekspertów ds. cyberbezpieczeństwa do przekonania, że Iran może wykorzystać sztuczną inteligencję do przeprowadzenia w dużej mierze zautomatyzowanego cyberataku na Stany Zjednoczone.
Oprócz opowiadania się za większymi regulacjami, Hinton wezwał do działania w celu zajęcia się potencjałem sztucznej inteligencji do popełniania przestępstw, ale jest to ciężka walka, ponieważ każdy problem związany z technologią wymaga dyskretnego rozwiązania, powiedział. Przewiduje, że w przyszłości uwierzytelnianie filmów i obrazów na podstawie pochodzenia będzie miało na celu walkę z rozprzestrzenianiem się deepfakes.
Tak jak drukarze dodawali nazwy swoim dziełom po pojawieniu się prasy drukarskiej setki lat temu, tak też media będą musiały znaleźć sposób na dodanie swoich podpisów do autentycznych dzieł. Hinton powiedział jednak, że rozwiązania mogą pójść tylko tak daleko.
„Ten problem prawdopodobnie da się rozwiązać, ale rozwiązanie tego problemu nie rozwiąże innych problemów” – stwierdził.
Jeśli chodzi o ryzyko, jakie stwarza sama sztuczna inteligencja, Hinton uważa, że firmy technologiczne muszą zasadniczo zmienić sposób, w jaki postrzegają swoje relacje ze sztuczną inteligencją. Kiedy sztuczna inteligencja osiągnie superinteligencję, powiedział, nie tylko przewyższy ludzkie możliwości, ale będzie miała silne pragnienie przetrwania i zdobycia dodatkowej kontroli. W związku z tym obecne ramy dotyczące sztucznej inteligencji (w których ludzie mogą kontrolować technologię) nie będą już istotne.
Hinton zakłada, że modele sztucznej inteligencji muszą być nasycone „instynktem macierzyńskim”, aby mogły traktować słabszych ludzi ze współczuciem, zamiast chcieć ich kontrolować.
Odwołując się do ideałów tradycyjnej kobiecości, stwierdziła, że jedynym przykładem, jaki potrafi przytoczyć, gdy istota inteligentniejsza znajduje się pod władzą istoty mniej inteligentnej, jest sytuacja dziecka kontrolującego matkę.
„Dlatego uważam, że jest to lepszy model, który moglibyśmy przećwiczyć z wykorzystaniem superinteligentnej sztucznej inteligencji” – powiedział Hinton. „Oni będą matkami, a my dziećmi”.
Wersja tej historii pojawiła się na Fortune.com 15 sierpnia 2025 r.
Więcej na temat przyszłości sztucznej inteligencji: Jensen Huang właśnie namalował najodważniejszy obraz przyszłości sztucznej inteligencji: 7,5 miliona agentów, 75 000 ludzi: 100 pracowników AI na każdą osobę. Firma z listy Fortune 500 aktualizuje cenę sztucznej inteligencji do 4,5 biliona dolarów, szacując, że 93% miejsc pracy jest narażonych na zakłócenia. Sztuczna inteligencja miała pozbyć się konsultantów. Tak się nie dzieje, mówi główny strateg Capgemini
Ta historia pierwotnie ukazała się na Fortune.com

