Witamy w Eye on AI z reporterką AI Sharon Goldman. Proirańska maszyna do memów trolluje Trumpa za pomocą kreskówek Lego AI… Andy Jassy z Amazonu broni szaleństwa wydatków Amazona na kwotę 200 miliardów dolarów… OpenAI wstrzymuje centrum danych Stargate w Wielkiej Brytanii, powołując się na koszty energii.
To był kolejny z tych szalonych tygodni w AI – Anthropic zdecydowało się nie wypuszczać swojego nowego modelu Claude Mythos ze względu na obawy związane z zagrożeniami dla cyberbezpieczeństwa, jakie stwarza (i utworzyło koalicję na rzecz wykorzystania wczesnej wersji modelu do wzmocnienia zabezpieczeń cybernetycznych); Meta wprowadza na rynek swój pierwszy model sztucznej inteligencji od czasu zatrudnienia Alexandra Wanga; oraz rosnące oczekiwania co do nadchodzącego nowego modelu „Spud” OpenAI.
Większość tych modeli sztucznej inteligencji jest zasilana przez procesory graficzne Nvidia, wyrafinowane i drogie chipy AI (po ponad 30 000 dolarów każdy), które wspomagają ich szkolenia i produkcję. Jednak w całej branży dostęp do tych chipów pozostaje wąskim gardłem. Na przykład prezes OpenAI Greg Brockman powiedział, że przydzielanie procesorów graficznych w OpenAI to „ból i cierpienie”.
W tym tygodniu na konferencji HumanX w San Francisco odkryłem, że nawet w Nvidii brakuje procesorów graficznych.
Spotkałem się z Bryanem Catanzaro, który prowadzi badania nad uczeniem stosowanym w firmie Nvidia i nadzoruje zespoły pracujące nad grafiką opartą na sztucznej inteligencji, rozpoznawaniem mowy i symulacjami. Catanzaro był także jedną z pierwszych osób, które na początku i w połowie 2010 roku zauważyły, że badacze wykorzystują procesory graficzne Nvidia do uczenia modeli sztucznej inteligencji, co pomogło skłonić dyrektora generalnego Jensena Huanga do podwojenia wykorzystania sztucznej inteligencji, przygotowując grunt pod historyczny już rozwój firmy.
Jednak dzisiaj nawet zespoły Catanzaro mają trudności z dostępem do wystarczającej liczby procesorów graficznych. „Mój zespół bardzo intensywnie wykorzystuje sztuczną inteligencję w swojej pracy, a ich głównym zarzutem jest to, że chcą wyższych limitów” – powiedział mi Catanzaro. „Chcą więcej procesorów graficznych”.
„Efektywność to także inteligencja”
Powiedział, że obecnie jednym z jego głównych zadań jest po prostu zapewnienie większej ilości zasobów obliczeniowych swoim zespołom. „Wszyscy mamy ograniczoną podaż” – powiedział. „Jensen powie: «Przykro mi, Bryan, ale zostały już sprzedane». Działamy w ramach tych ograniczeń”.
Jeden z projektów Catanzaro kierował zespołem tworzącym Nemotron firmy Nvidia – rodzinę modeli o otwartym kodzie źródłowym, co oznacza, że użytkownicy mogą je swobodnie pobierać w celu używania, studiowania lub modyfikowania. Żeby było jasne, Nvidia nie stara się konkurować w wyścigu budowania modeli z takimi firmami jak OpenAI i Anthropic. Zamiast tego buduje je, aby wzmocnić ekosystem programistów, który pozostaje powiązany ze sprzętem i oprogramowaniem Nvidii.
Wiadomo, że modele Nemotron są szczególnie wydajne pod względem wydajności GPU. Catanzaro powiedział, że to te same ograniczenia dostępu do GPU w samej Nvidii, które napędzają dążenie do zwiększenia wydajności modeli Nemotron. „W świecie ograniczonej podaży wydajność to także inteligencja” – powiedział.
To już nie jest projekt naukowy
Ale, co zaskakujące, wydajność nie jest zła dla biznesu. Catanzaro powiedział, że w grę wchodzi paradoks Jevona: kiedy coś staje się bardziej wydajne, popyt często wzrasta. „Ludzie znajdują mnóstwo nowych sposobów wykorzystania rzeczy, gdy staje się ona bardziej wydajna” – powiedział.
Mimo to przyznał, że rosnąca widoczność Nemotronu w Nvidii pomogła również odblokować więcej zasobów. „Pracowaliśmy nad Nemotronem przez długi czas, ale tak naprawdę dopiero w ciągu ostatnich sześciu miesięcy przyciągnęliśmy do niego więcej uwagi. Gdy ludzie w Nvidii lepiej zrozumieją znaczenie tej pracy, uzyskasz lepszą narrację, lepszą współpracę i większe wsparcie w całej firmie”.
Nvidia zdała sobie sprawę – dodał – że nie może już dłużej bezrefleksyjnie podchodzić do ekosystemu sztucznej inteligencji. W przeszłości Nvidia mogła polegać na innych w zakresie tworzenia modeli i aplikacji, które napędzały popyt na jej chipy. Teraz, gdy sztuczna inteligencja staje się coraz bardziej konkurencyjna i ograniczona przez chipy, firma widzi dla siebie bardziej aktywną rolę w kształtowaniu rozwoju tego ekosystemu.
„W przeszłości niektórzy uważali, że możemy pozwolić, aby ekosystem sam o siebie zadbał” – powiedział. „Teraz jest znacznie bardziej oczywiste, że Nvidia ma do odegrania większą rolę – prawdziwa odpowiedzialność i możliwości związane z Nemotronem”.
Ramy te pomagają również usprawnić pracę Nemotron w Nvidii, gdzie zespoły rywalizują o ograniczone zasoby procesora graficznego. „To nie jest projekt naukowy” – powiedział Catanzaro. „Nie tylko proszę o zasoby dla mojego zespołu. Tu chodzi o przyszłość Nvidii”.
FORTUNA W AI
Meta przedstawia Muse Spark, swój pierwszy model sztucznej inteligencji od czasu zatrudnienia Alexandra Wanga i wodza wielomiliardowego projektu dyrektora generalnego Marka Zuckerberga na rzecz sztucznej inteligencji, autorstwa Jeremy’ego Kahna
Supermicro wszczyna wewnętrzne dochodzenie po aresztowaniu współzałożyciela oskarżonego o przemyt chipów o wartości 2,5 miliarda dolarów – autor: Amanda Gerut
Pracownik Meta stworzył dashboard, dzięki któremu jego współpracownicy mogą konkurować o miano największego użytkownika tokenów AI w firmie (a Zuckerberga nie ma nawet w pierwszej 250) autor: Jacqueline Munis
AI W WIADOMOŚCIACH
Proirańska maszyna do memów, która trolluje Trumpa za pomocą kreskówek AI Lego. Nowy raport Wired opisuje, jak grupa młodych proirańskich twórców o nazwie Explosive Media wykorzystuje wygenerowane przez sztuczną inteligencję filmy w stylu klocków Lego do szerzenia wyrafinowanej propagandy wirusowej podczas obecnego konfliktu, docierając do milionów na TikTok, X i Instagramie. W przeciwieństwie do tradycyjnych przekazów państwowych, filmy łączą w sobie humor, odniesienia do kultury internetowej i uproszczone opowiadanie historii, aby trafić do amerykańskiej publiczności, włączając nawet anglojęzyczne memy i rap. Naukowcy twierdzą, że strategia jest skuteczna, ponieważ podsumowuje złożone wydarzenia geopolityczne w treści, które można łatwo udostępnić, jednocześnie wykorzystując istniejące niezadowolenie w Stanach Zjednoczonych, co ilustruje, jak narzędzia sztucznej inteligencji umożliwiają nowy rodzaj wojny „slopaganda”, w ramach której kampanie wywierania wpływu są szybsze, bardziej ukierunkowane i znacznie bardziej płynne kulturowo niż w przeszłości.
Andy Jassy z Amazona broni szaleństwa wydatków Amazona na kwotę 200 miliardów dolarów. GeekWire poinformował o najnowszym liście dyrektora generalnego Amazona, Andy’ego Jassy’ego, do akcjonariuszy, w którym ujawniono, że działalność AWS w zakresie sztucznej inteligencji osiągnęła już roczną stopę przychodów w wysokości 15 miliardów dolarów, co według Jassy’ego oznacza, że popyt jest wystarczająco duży, aby uzasadnić planowane nakłady kapitałowe w wysokości około 200 miliardów dolarów. Jassy określił sztuczną inteligencję jako szansę „jedyną w życiu” i umieścił Amazon w samym środku obecnego „gorączki na rynku sztucznej inteligencji”, wskazując na rosnące zapotrzebowanie na niestandardowe chipy, takie jak Trainium (z których niektóre są już w dużej mierze niedostępne z kilkuletnim wyprzedzeniem), a także zainteresowanie klientów chcących zabezpieczyć przyszłą wydajność. Z listu jasno wynika, że Amazon agresywnie stawia na posiadanie większej części stosu sztucznej inteligencji, od infrastruktury po chipy, i potencjalnie sprzedaje te możliwości na zewnątrz.
OpenAI wstrzymuje centrum danych Stargate w Wielkiej Brytanii, powołując się na koszty energii. Według Bloomberga OpenAI wstrzymuje planowany projekt centrum danych Stargate w Wielkiej Brytanii, podkreślając, że nawet najbardziej agresywna infrastruktura AI napotyka na rzeczywiste ograniczenia, takie jak koszty energii i regulacje. Posunięcie to następuje, gdy firma powstrzymuje wydatki przed potencjalną pierwszą ofertą publiczną i koncentruje się na swojej podstawowej działalności ChatGPT w obliczu rosnącej konkurencji ze strony Anthropic i Google. Choć OpenAI twierdzi, że nadal widzi w Wielkiej Brytanii długoterminowy potencjał, decyzja ta podkreśla szerszą rzeczywistość: ogromne inwestycje w infrastrukturę sztucznej inteligencji – od Teksasu, przez Norwegię po Zjednoczone Emiraty Arabskie – w coraz większym stopniu determinowane są nie tylko ambicjami, ale także ekonomią, geopolityką i dostępem do niedrogiej energii.
ZWRÓĆ UWAGĘ NA LICZBY IA75%.
Oto, jak wielu menedżerów twierdzi, że ich strategia sztucznej inteligencji opiera się bardziej na optyce niż na jakichkolwiek rzeczywistych wewnętrznych wytycznych, wynika z nowego raportu Writer dotyczącego przyjęcia AI w przedsiębiorstwie w 2026 r., w którym wzięło udział 2400 pracowników umysłowych, w tym 1200 dyrektorów wyższego szczebla i 1200 pracowników. Ponadto 39% nie ma planu, w jaki sposób sztuczna inteligencja faktycznie generuje przychody. Jednak 69% planuje zwolnienia w tym roku.
W poście na LinkedIn dyrektor generalna Writer May Habib nazwała ten trend „teatrem sztucznej inteligencji” w najgorszym wydaniu” i dodała, że „ta odgórna strategia dosłownie rozdziera firmy na kawałki”.
MASZ KALENDARZ
8–10 czerwca: Fortune Brainstorm Tech, Aspen, Kolorado. Poproś o pomoc tutaj.
6-11 lipca: Międzynarodowa konferencja na temat uczenia maszynowego (ICML), Seul, Korea Południowa.
7–10 lipca: Szczyt AI for Good, Genewa, Szwajcaria.
4-6 sierpnia: Ai4, Las Vegas.

