Dyrektor generalny OpenAI, Sam Altman, nie martwi się coraz bardziej widocznym zużyciem zasobów przez sztuczną inteligencję i twierdzi, że ludzie też dużo jej potrzebują.
W wywiadzie udzielonym na szczycie India AI Impact przyjął postawę obronną po zapytaniu o zapotrzebowanie ChatGPT na wodę.
Jak wynika z klipu opublikowanego przez The Indian Express, odrzucił twierdzenia, jakoby chatbot zużywał galony wody na jedno zapytanie, jako „całkowicie fałszywe i całkowicie szalone”, wyjaśniając, że centra danych obsługujące ChatGPT w dużej mierze odeszły od „chłodzenia wyparnego” o dużej zawartości wody, aby zapobiec przegrzaniu.
Następnie zapytano Altmana o energię elektryczną potrzebną do sztucznej inteligencji. W przeciwieństwie do kwestii wody stwierdził, że „sprawiedliwe” jest podniesienie wymagań energetycznych tej technologii, mówiąc: „Musimy bardzo szybko przejść na energię jądrową, wiatrową lub słoneczną”.
Zauważył jednak, że porównanie zapotrzebowania AI na energię z zapotrzebowaniem ludzi nie jest dokładnie takie samo.
„Szkolenie człowieka wymaga również dużo energii” – powiedział, wywołując śmiech niektórych osób w tłumie. „Potrzeba około 20 lat życia i całego jedzenia, które w tym czasie zjesz, zanim staniesz się mądry”.
Altman rozwinął tę kwestię dalej, wskazując, że dzisiejszych ludzi w ogóle by tu nie było, gdyby nie ich przodkowie sprzed setek tysięcy lat, kiedy pojawili się po raz pierwszy współcześni ludzie.
„Co więcej, konieczna była bardzo powszechna ewolucja 100 miliardów ludzi, którzy kiedyś żyli, nauczyli się nie dać się zjeść drapieżnikom i nauczyli się, jak odkrywać naukę lub cokolwiek innego, co mogłoby cię wyprodukować” – dodał.
Argumentował, że porównując ludzi z potencjałem ChatGPT, należy wziąć pod uwagę ten kontekst. Uczciwym porównaniem byłoby porównanie energii, jaką człowiek zużywa, aby odpowiedzieć na pytanie, z sztuczną inteligencją po jej przeszkoleniu. W tym zakresie „sztuczna inteligencja prawdopodobnie już nadrobiła zaległości pod względem tak mierzonej efektywności energetycznej”.
W poście na blogu z czerwca 2025 r. Altman stwierdził, że każde zapytanie ChatGPT zużywa około 0,34 watogodziny energii elektrycznej, czyli mniej więcej tyle, ile piekarnik zużywa w ciągu około sekundy. Mimo to opublikował ten fakt, zanim OpenAI wypuściło swój najnowszy model GPT-5 i jego kolejne aktualizacje. Zużycie energii może się również różnić w zależności od złożoności zapytania, na przykład odpowiadania na pytanie lub tworzenia obrazu.
Eksperci ostrzegają, że sztuczna inteligencja jako całość znacznie zwiększy skumulowane zużycie energii i wody w ciągu najbliższych 20 lat. Według styczniowego raportu firmy Xylem zajmującej się technologią wodną i firmy badawczej Global Water Intelligence zużycie wody przez sztuczną inteligencję wzrośnie ogółem o około 130%, czyli około 30 bilionów litrów (7,9 biliona galonów) wody do 2050 roku.
Oczekuje się, że w tym samym okresie rosnące zapotrzebowanie na energię elektryczną zwiększy zużycie wody do wytwarzania energii w centrach danych o około 18%, osiągając około 22,3 biliona litrów (5,8 biliona galonów) rocznie. Tymczasem coraz bardziej złożone chipy używane w centrach danych będą potrzebowały więcej wody podczas procesu produkcyjnego, zwiększając jej ilość o 600% do 29,3 biliona litrów (7,7 biliona galonów) rocznie z około 4,1 biliona litrów (1,8 biliona galonów) obecnie.
Jak wynika z raportu Xylem i Global Water Intelligence, choć OpenAI odeszło od chłodzenia wyparnego, 56% wszystkich centrów danych na świecie nadal w jakiejś formie korzysta z tej metody.
Według doniesień Texas Tribune kompleks centrów danych OpenAI o powierzchni 800 akrów w Abilene w Teksasie będzie korzystał z wody, aczkolwiek w bardziej wydajnym systemie z zamkniętym obiegiem, w którym woda w sposób ciągły zapewnia recyrkulację w celu chłodzenia centrum danych. Centrum danych będzie początkowo zużywać 8 milionów galonów wody z miasta Abilene do napełniania systemu chłodzenia.

