Tuesday, April 7, 2026

Sam Altman twierdzi, że superinteligencja sztucznej inteligencji jest tak wielka, że ​​potrzebujemy „Nowego Ładu”. Krytycy twierdzą, że idee polityczne OpenAI są przykrywką dla „nihilizmu regulacyjnego” | Fortuna

Koniecznie przeczytaj

OpenAI twierdzi, że świat musi przemyśleć wszystko, od systemu podatkowego po długość dnia pracy, aby przygotować się na drastyczne zmiany w technologii superinteligencji, czyli momencie, w którym systemy sztucznej inteligencji są w stanie przewyższyć najbardziej inteligentnych ludzi.

W poniedziałek w 13-stronicowym artykule zatytułowanym „Polityka przemysłowa w erze inteligencji” OpenAI stwierdziła, że ​​chce „rozpocząć” rozmowę od „listy pomysłów politycznych, które stawiają ludzi na pierwszym miejscu”. Jednak to, ile wiary pokładać w słowach i motywach OpenAI, wydaje się być jednym z kluczowych pytań wielu osób czytających ten artykuł. Dokument opublikowano tego samego dnia, w którym dziennik „The New Yorker” opublikował wyniki półtorarocznego śledztwa w sprawie OpenAI, które wzbudziło wątpliwości co do wiarygodności dyrektora generalnego Sama Altmana w kilku kwestiach, w tym w zakresie bezpieczeństwa sztucznej inteligencji.

Napisany przez zespół ds. globalnych OpenAI artykuł przedstawia wiele oczekiwanych skutków ekonomicznych superinteligencji i proponuje kilka podejść do nich. „Oferujemy je nie jako kompleksowy lub ostateczny zestaw zaleceń, ale jako punkt wyjścia do dyskusji, do opracowania, udoskonalenia, kwestionowania lub wyboru w drodze procesu demokratycznego zapraszamy innych” – czytamy we wprowadzającym poście na blogu.

Opisana w dokumencie „lista pomysłów” (która obejmuje zarówno finansowanie publiczne, jak i krótsze tygodnie pracy) może niewiele pomóc w uspokojeniu opinii publicznej, która jest coraz bardziej zdenerwowana i rozczarowana tempem i konsekwencjami zmian napędzanych sztuczną inteligencją. OpenAI jest oczywiście jedną z najmniej neutralnych stron w tej toczącej się dyskusji, która stanowi główne napięcie w dokumencie, powiedziała Lucía Velasco, starsza ekonomistka i kierownik ds. polityki sztucznej inteligencji w Międzyamerykańskim Banku Rozwoju z siedzibą w Waszyngtonie oraz była szefowa polityki sztucznej inteligencji w Biurze Narodów Zjednoczonych ds. Technologii Cyfrowych i Wschodzących.

„OpenAI jest stroną najbardziej zainteresowaną przebiegiem tej rozmowy, a przedstawione przez nią propozycje kształtują środowisko, w którym OpenAI działa ze znaczną swobodą w ramach ograniczeń, które w dużej mierze pomogło zdefiniować” – powiedział, dodając, że nie był to powód do porzucenia papieru, ale „jest to powód, aby upewnić się, że rozmowa, którą próbuje rozpocząć, nie zakończy się na tej samej firmie, która ją rozpoczęła”.

Mimo to podkreślił, że OpenAI ma rację, twierdząc, że rządy pozostają w tyle w ulepszaniu rozwiązań politycznych. „Większość nadal traktuje sztuczną inteligencję jako problem technologiczny, podczas gdy w rzeczywistości jest to strukturalna zmiana gospodarcza wymagająca odpowiedniej polityki przemysłowej” – stwierdził. „To pożyteczny wkład i dokument zasługuje na poważne potraktowanie jako narzędzie ustalania programu, nawet jeśli ma stanowić punkt wyjścia”.

Soribel Feliz, niezależny doradca ds. polityki w zakresie sztucznej inteligencji, który wcześniej pełnił funkcję starszego doradcy ds. polityki w zakresie sztucznej inteligencji i technologii w Senacie USA, zgodziła się, że OpenAI zasługuje na uznanie za „przelanie tego na papier”. Stwierdził, że stwierdzenie, że zarówno amerykańskie instytucje, jak i sieci bezpieczeństwa pozostają w tyle w rozwoju i wdrażaniu sztucznej inteligencji, jest słuszne, „a rozmowa musi toczyć się na tym szczeblu już teraz”.

Podkreślił jednak, że większość propozycji nie jest nowa: „Niektóre z tych filarów („szerokie dzielenie się dobrobytem, ​​ograniczanie ryzyka, demokratyzacja dostępu”) stanowią ramy każdej większej dyskusji na temat zarządzania sztuczną inteligencją od czasu premiery ChatGPT w listopadzie 2022 r.

„Pracowałem w Senacie Stanów Zjednoczonych w latach 2023–2024 i odbyliśmy dziewięć sesji na forum poświęconym polityce sztucznej inteligencji, podczas których wszystko to zostało powiedziane. Mam to w moich odręcznych notatkach! Wszystko to już zostało powiedziane, wszystko” – napisał do Fortune w bezpośredniej wiadomości. „Język wokół partnerstw publiczno-prywatnych, umiejętności korzystania z sztucznej inteligencji i głosu pracowników wydaje się przypominać raport dotyczący ram polityki w zakresie sztucznej inteligencji UNESCO lub OECD. Pomysły nie są błędne. Problemem jest rozbieżność między nazywaniem rozwiązań a budowaniem rzeczywistych mechanizmów ich osiągnięcia”.

Oczywiście docelową grupą odbiorców nie są setki milionów użytkowników ChatGPT tygodniowo. Zamiast tego to decydenci Beltway na różne sposoby nawołują do uregulowania sztucznej inteligencji (lub wstrzymują się) od czasu uruchomienia ChatGPT w listopadzie 2022 r. W tym sensie niektórzy twierdzili, że stanowi to postęp w stosunku do poprzednich wysiłków.

„Uznałem, że ten dokument stanowi prawdziwy postęp w stosunku do poprzednich dokumentów, które były jeszcze bardziej płynne i zawierały wysoki poziom” – powiedział Nathan Calvin, wiceprezes ds. spraw państwowych i główny radca prawny w Encode AI. „Myślę, że niektóre konkretne sugestie dotyczące takich kwestii, jak audyty lub zgłaszanie incydentów oraz ograniczenia rządowe dotyczące niektórych zastosowań sztucznej inteligencji, są dobrymi pomysłami”.

Wskazał jednak również na wysiłki lobbingowe prowadzone przez dyrektorów OpenAI z PAC Leading the Future, które forsują politykę korzystną dla branży sztucznej inteligencji. Szef spraw globalnych Chris Lehane jest postrzegany jako siła stojąca za tymi wysiłkami, a największym darczyńcą jest prezydent Greg Brockman.

„Mam nadzieję, że ten dokument sygnalizuje krok w kierunku bardziej konstruktywnego zaangażowania, a nie atakuje polityków, którzy forsują te same zasady, które obecnie wspiera OpenAI” – powiedział Calvin, wskazując w szczególności na lobbing organizacji Leading the Future przeciwko kandydatowi do Kongresu w Nowym Jorku Alexowi Boresowi, autorowi i głównemu sponsorowi ustawy RAISE Act, nowojorskiej ustawy o bezpieczeństwie i przejrzystości sztucznej inteligencji, podpisanej niedawno przez gubernator Kathy Hochul.

Calvin oskarżył także OpenAI o stosowanie taktyk zastraszania w celu podważenia kalifornijskiej ustawy SB 53, kalifornijskiej ustawy o przejrzystości granic AI, gdy była ona wciąż przedmiotem debaty. Zarzucano również, że OpenAI wykorzystało toczącą się batalię prawną z Elonem Muskiem jako pretekst do ataku i zastraszenia krytyków, w tym Encode, które – jak sugerowała firma – było potajemnie finansowane przez Muska.

Mimo to, chociaż dyrektor generalny OpenAI Sam Altman w wywiadzie dla Axios porównał poniedziałkową listę pomysłów politycznych z Nowym Ładem, niektórzy twierdzą, że nie przypomina to ustawodawstwa z epoki FDR, a bardziej eksperyment myślowy z Doliny Krzemowej, który w magiczny sposób nie zamieni się w działanie.

Na przykład Anton Leicht, wizytujący naukowiec z zespołu ds. technologii i spraw międzynarodowych w Carnegie Endowment, napisał w artykule: „Nie wyłonią się one po prostu jako organiczna alternatywa” – napisał. „W tym sensie jest to wysiłek komunikacyjny mający na celu ukrycie nihilizmu regulacyjnego”.

Lepszą wersją tego, stwierdził, byłoby przekierowanie finansowania politycznego i umiejętności lobbowania branży sztucznej inteligencji w celu wspierania tego rodzaju programu politycznego. Stwierdził jednak, że „niejasny charakter i moment powstania dokumentu” „nie napawają mnie nadmiernym optymizmem”.

Website |  + posts
- Advertisement -spot_img
- Advertisement -spot_img

Najnowszy artykuł