Monday, March 30, 2026

Wall Street nie spodobało się to, co właśnie ujawnił Google

Koniecznie przeczytaj

Google właśnie dał Wall Street powód do ponownego przemyślenia największego dostępnego handlu sztuczną inteligencją.

Na początku marca dział Google Research należący do Alphabet poinformował, że opracował nową rodzinę algorytmów kompresji: TurboQuant, PolarQuant i Quantized Johnson-Lindenstrauss, czyli QJL.

Jaki jest w tym wszystkim sens? Jego celem jest zmniejszenie pamięci potrzebnej do uruchamiania dużych modeli językowych i systemów wyszukiwania wektorowego.

W testach Google TurboQuant zmniejszył zapotrzebowanie na pamięć podręczną typu klucz-wartość co najmniej sześciokrotnie, zachowując jednocześnie dokładność, co rodzi ważne pytania dotyczące największego problemu dla inwestorów. Co stanie się z zapotrzebowaniem na pamięć i pamięć masową, jeśli modele sztucznej inteligencji ulegną radykalnej poprawie?

To pytanie szybko zapadło w pamięć. Micron Technology (MU), Western Digital (WDC), Seagate Technology (STX) i SanDisk (SNDK) spadły, gdy inwestorzy przetrawili możliwość, że obciążenia AI mogą nie wymagać tak dużej mocy.

Zasięg rynku powiązał ten spadek bezpośrednio z dużym wzrostem Google’a, który miał miejsce w czasie, gdy akcje spółek zajmujących się infrastrukturą AI odnotowały już ogromny wzrost w oparciu o przekonanie, że większe modele przekładają się na więcej pamięci, więcej miejsca i większe wydatki kapitałowe.

Właśnie dlatego reakcja była tak niepokojąca. Wall Street nie tylko odpowiadała na blog badawczy. Była odpowiedzią na pomysł, że część wartości boomu na sztuczną inteligencję może odsunąć się od dostawców sprzętu. Gdzie pójdzie dalej? Cóż, firmy prawdopodobnie będą szukać sposobów na uzyskanie większej wydajności w ramach tej samej bazy infrastruktury.

W przypadku handlu opartego na niedoborze jest to nieco niepokojące.

„W miarę jak sztuczna inteligencja będzie coraz bardziej zintegrowana ze wszystkim, od LLM po wyszukiwanie semantyczne, prace nad kwantyfikacją wektorów podstawowych będą ważniejsze niż kiedykolwiek” – napisali w firmowym poście na blogu naukowiec Google Amir Zandieh i Google Fellow Vahab Mirrokni.

TurboQuant firmy Google wkracza do handlu pamięcią AI

Google określił TurboQuant jako rozwiązanie jednego z najbardziej bolesnych wąskich gardeł współczesnej sztucznej inteligencji: obciążenia pamięci.

W miarę jak modele przetwarzają dłuższe podpowiedzi i większe okna kontekstowe, wzrasta zapotrzebowanie na pamięć do przechowywania pamięci podręcznych typu klucz-wartość, co może spowolnić wnioskowanie i zwiększyć koszty operacyjne.

Tradycyjna kwantyzacja wektorowa może zmniejszyć ten ślad, ale często powoduje dodatkowe koszty, ponieważ systemy nadal muszą przechowywać stałe kwantyzacji z dużą precyzją.

Powiązane: Dyrektor generalny Nvidii ogłasza wybuchowe oświadczenie na temat kolejnego wielkiego przełomu w dziedzinie sztucznej inteligencji

Google twierdzi, że TurboQuant rozwiązuje tę słabość, łącząc PolarQuant do podstawowej kompresji z QJL w celu niedrogiej korekcji błędów.

To techniczne rozróżnienie jest powodem tak dużej reakcji rynku. W ciągu ostatnich dwóch lat inwestorzy chwalą pogląd, że sztuczna inteligencja będzie w dalszym ciągu zmuszać podmioty zajmujące się hiperskalem i konstruktorów modeli do zakupu systemów o większej pojemności pamięci, większej pojemności pamięci masowej i większej infrastruktury pomocniczej.

Praca Google’a nie eliminuje tezy. Jednak myli to zagadnienie, pokazując, że innowacje w oprogramowaniu mogą zakrzywić krzywą popytu na sprzęt.

Kiedy sektor jest wyceniany ze względu na jego nieustanną intensywność, nawet cień przyszłej efektywności doprowadzi do znacznej rewizji cen.

Nadal istnieje ważny kontrargument. TurboQuant pozostaje technologią na etapie badań, a Google twierdzi, że planuje zaprezentować artykuły na konferencji ICLR 2026, natomiast PolarQuant zaplanowano na AISTATS 2026.

Oznacza to, że przyczyną likwidacji mogło być zarówno opuszczenie przez osoby zatłoczonych pozycji i realizacja zysków, jak i nagła zmiana popytu na rynku końcowym. A byki wciąż mają powód do popisu: ostatnie wiadomości pokazały, że w 2026 r. wydatki na infrastrukturę hiperskalową będą nadal ogromne.

Sandisk dodał kolejny zwrot do tej historii, ponieważ tego samego dnia ludzie dowiedzieli się o wielkim strategicznym posunięciu w pamięci.

Nanya Technology poinformowała 25 marca, że ​​Sandisk Technologies, spółka zależna należąca w całości do Sandisk Corp., subskrybowała 138,685 milionów akcji zwykłych Nanya w ramach oferty prywatnej Nanya po cenie 223,9 dolarów tangowych za akcję.

Nanya powiedziała, że ​​dochody zostaną przeznaczone na budowę obiektów fabrycznych i sprzętu produkcyjnego do zaawansowanej produkcji pamięci, aby sprostać zapotrzebowaniu na obliczenia oparte na sztucznej inteligencji.

Według doniesień Sandisk był największym inwestorem, który zebrał fundusze o wartości około 2,5 miliarda dolarów, a także podpisał długoterminową umowę na dostawę pamięci DRAM z firmą Nanya.

Tworzy to najciekawszy podzielony ekran w historii. Z jednej strony nowe dokumenty Google sugerują, że przyszłe modele AI mogą wymagać mniej pamięci na każde obciążenie.

Z drugiej strony Sandisk nadal wydaje prawdziwe pieniądze, aby zapewnić sobie zasoby pamięci potrzebne do długoterminowego rozwoju sztucznej inteligencji. Nie jest to coś, co inwestorzy mogą zignorować. Prawdziwą debatą jest teraz to, co będzie dalej w handlu infrastrukturą AI.

Głębsze pytanie brzmi, czy sztuczna inteligencja pozostaje głównie problemem sprzętowym, czy staje się problemem optymalizacji. Jak dotąd rynek w przeważającej mierze nagradza beneficjentów sprzętu, od producentów pamięci po dostawców sieci i partnerów zajmujących się procesorami graficznymi.

Google przypomina nam jednak, że największe korzyści w ekonomii sztucznej inteligencji mogą wynikać z inteligentniejszej kompresji, lepszego routingu, wnioskowania przy niższych kosztach i wydajniejszej obsługi danych. To nie kończy budowy; po prostu dokonuje redystrybucji części puli zysków.

Dlatego te działania zareagowały tak gwałtownie. Inwestorzy nie tylko kupowali i sprzedawali wiadomości na temat algorytmu. Zakładali się, że oprogramowanie może zacząć działać szybciej, niż przewidywały rynek na temat sprzętu. Jeśli tak się stanie, zwycięzcy w ramach sztucznej inteligencji nadal będą mogli odnieść duże wygrane. Najważniejsze jest jednak to, że nie wygrają w ten sam sposób.

Google wywołuje nową wyprzedaż zapasów pamięci AI

Zdjęcie: LUDOVIC MARIN w serwisie Getty Images

Sandisk i Micron stoją teraz przed trudniejszą narracją związaną ze sztuczną inteligencją

Na razie najwyraźniejszy odczyt nie jest taki, że Google złamał i zniszczył rynek pamięci. Po prostu Google zakłócił prostotę handlu pamięciami.

Więcej spółek technologicznych:

Morgan Stanley wyznacza oszałamiającą cenę docelową za Micron po wydarzeniu Problem z chipami Nvidii w Chinach nie jest tym, co większość inwestorów sądzi, że obliczenia kwantowe generują ruch o wartości 110 milionów dolarów, którego nikt się nie spodziewał

Micron, Western Digital, Seagate i Sandisk korzystają z prostej narracji.

Powiązane: Dyrektor generalny Micron rzuca bombę po przekroczeniu ogromnych zysków Micron

Większe modele, bardziej intensywne wnioskowanie i większy ruch AI powinny wymagać większej liczby chipów, większej pamięci i większych wydatków w całym stosie centrum danych. Nie zrozumcie mnie źle, ta narracja ma jeszcze wiele do zrobienia.

Ostatnie wyniki firmy Micron pokazały, że zapotrzebowanie na sztuczną inteligencję pozostaje bardzo wysokie, a najnowsze wiadomości mówią, że duże przedsiębiorstwa hiperskalowalne nadal planują duże wydatki na infrastrukturę w 2026 r.

Rzecz w tym, że popyt nie maleje. Chodzi o to, aby inwestorzy dokładnie przemyśleli, jaka część tego popytu zostanie zrównoważona przez wzrost efektywności po stronie modelu.

Wtedy obliczenie wartości staje się trudniejsze. Jeśli sztuczna inteligencja będzie nadal stawała się coraz inteligentniejsza, ale ilość pamięci potrzebnej do wykonania każdego zadania będzie się zmniejszać, producenci sprzętu nadal będą mogli odnotować wysoką sprzedaż, ale nie taki stały wzrost, jakiego oczekiwali inwestorzy.

Możliwość ta jest najważniejsza w przypadku akcji, które już znacznie zwyżkują, ponieważ gdy rynek widzi nowy powód do kwestionowania nachylenia przyszłego popytu, zwykle w pierwszej kolejności odczuwają to duzi zwycięzcy. Dokładnie to zrobił post Google z 24 marca.

Najważniejsze wnioski na temat Google, Micron i Sandisk Firma Google Research wprowadziła 24 marca rozwiązania TurboQuant, PolarQuant i QJL, aby zmniejszyć obciążenie pamięci AI. Google stwierdził, że w swoich testach TurboQuant co najmniej sześciokrotnie zmniejszył zapotrzebowanie na pamięć podręczną typu klucz-wartość, nie tracąc przy tym na dokładności. Akcje pamięci i pamięci masowych, w tym Micron, Western Digital, Seagate i Sandisk, zostały wyprzedane, gdy inwestorzy ponownie ocenili założenia dotyczące popytu na sprzęt AI. Sandisk zgodził się na osobną inwestycję w Nanyę i zablokowanie dostaw DRAM, sygnalizując ciągłe zaufanie co do zapotrzebowania na pamięć długoterminową. Najważniejszym pytaniem dla rynku jest to, czy kolejne zyski ze sztucznej inteligencji będą płynąć bardziej do dostawców sprzętu, czy do producentów oprogramowania i modeli, które zwiększają efektywność infrastruktury.

Handel pamięcią AI nie umarł. Zapraszamy. Ale nie jest to już tak proste, jak „więcej modeli, więcej żetonów”.

Google właśnie przypomniał Wall Street, że oprogramowanie też może zmienić sytuację.

To utrudnia sytuację Micronowi, Sandiskowi i reszcie grupy. Teraz muszą wykazać, że wzrost popytu może przeważyć nad wzrostem wydajności po modelowej stronie przedsiębiorstwa. Oznacza to, że dla inwestorów nadchodzące kwartały będą mniej wypełnione szumem medialnym, a bardziej testami.

Powiązane: Palantir właśnie uzyskał dostęp do czegoś bardzo wrażliwego

Website |  + posts
- Advertisement -spot_img
- Advertisement -spot_img

Najnowszy artykuł