Bańka AI pęknie, to tylko kwestia czasu. Pokażę Wam, dlaczego
Czy bańka AI pęknie Ilustracja: Sylwester Kluszczyński, INNPoland

W świecie sztucznej inteligencji oraz infrastruktury do jej obsługi pieniądze przemieszczają się w dół, zamiast kumulować zyski na wielu etapach. Każdy szczebel – od twórców modeli AI, przez centra danych, po producentów sprzętu – wymaga potężnych nakładów finansowych, często przewyższających uzyskiwane przychody. Wniosek nasuwa się nieubłaganie: ta bańka pęknie.

REKLAMA

Nigdy wcześniej świat technologii nie pochłaniał tak gigantycznych nakładów finansowych. Nigdy wcześniej tak wiele do powiedzenia nie mieli właściciele firm, którzy już dziś wygrywają na argumenty z politykami mniejszych państw. Kiedy my korzystamy z darmowych aplikacji i narzędzi AI, "oni" się bogacą. Ale czy na pewno? Kim są "oni" i dlaczego coraz częściej mówi się o zbliżającym się pęknięciu bańki AI?

Bańka AI i efekt domina kosztów. Komu płaci OpenAI

Każde pytanie i zadanie, które zadajemy sztucznej inteligencji, kosztuje. Chipy, prąd, chłodzenie serwerów. Koszty ponoszą firmy, które dostarczają nam darmowe narzędzia, no bo przecież nie my. My jesteśmy tylko użytkownikami, którzy najczęściej płacą swoim czasem i danymi. Do portfela musimy jednak sięgać zaskakująco rzadko. 

To OpenAI płaci za Twoją rozmowę z ChatGPT. Komu? Właścicielowi centrów danych, w których serwery 24 godziny na dobę przetwarzają wprowadzane przez dane. 

Za każdym razem, gdy decydujesz się w oddzielnej wiadomości podziękować chatbotowi za pomoc, zamiast urwać waszą rozmowę – OpenAI płaci więcej. W kwietniu bieżącego roku CEO firmy Sam Altman żalił się, że zwracanie się ludzi do ChatGPT za pomocą słów "proszę" i "dziękuję" kosztowało jego firmę sporo pieniędzy.

Do końca 2025 roku OpenAI ma wydać 8 miliardów dolarów.

Oczywiście można wykupić rozszerzoną wersję ChatGPT i płacąc 20 dolarów miesięcznie dorzucać się do całego biznesu. To jednak nadal kropla w morzu. Subskrypcje nie pokrywają wydatków firm technologicznych, a intensywni użytkownicy, którzy potrzebują więcej mocy obliczeniowej (wynikającej z płatnej wersji), łącznie generują straty sięgające miliardów rocznie.

Centra danych i astronomiczne rachunki za prąd. Komu opłaca się AI

OpenAI, Anthropic, Google DeepMind czy xAI Elona Muska przeznaczają więc na swoje działanie dziesiątki miliardów dolarów rocznie. To misterna układanka, w której większość ogniw działa na granicy rentowności, bo nie dotyczy to jedynie układu użytkownik – firma technologiczna – dostawca mocy obliczeniowej (centra danych).

Każda warstwa ekosystemu AI ma swoje własne koszty i marże, a pieniądze przesuwają się z góry na dół, zamiast generować stabilny zysk na wszystkich etapach.

Najpopularniejszymi dostawcami rozwiązań chmurowych, czyli właścicielami centrów danych są Microsoft Azure, AWS czy Google Cloud. Wszyscy zarabiają na udostępnianiu mocy obliczeniowej modelom AI. Jednak, ale by sprostać zapotrzebowaniu, muszą stale inwestować w nowe serwerownie i płacić astronomiczne rachunki za prąd.

Przykładowo Microsoft zwiększył wydatki kapitałowe do rekordowych 19 mld dolarów w jednym kwartale 2024 roku, a to głównie ze względu na sztuczną inteligencję. Marże są coraz mniejsze, bo konkurencja wymusza obniżanie cen dostępu do procesora graficznego.

Firmy takie jak Microsoft płacą z kolei producentom sprzętu i dostawcom energii. To NVIDIA, która specjalizuje się w produkcji podzespołów komputerowych, zgarnia dziś największy zysk. Układy sprzedaje z nawet 70 proc. marżą, ale i ona uzależniona jest od cykli produkcyjnych TSMC (Tajwańskiej Fabryki Półprzewodników).

TSMC inwestuje z kolei miliardy w nowe linie produkcyjne, by sprostać popytowi, ryzykując nadpodaż, jeśli zachwyt AI osłabnie.

Bańka AI. Wraca paradoks produktywności

Jeśli internauci używający AI nie zaczną płacić więcej, ten model biznesowy będzie trudny do utrzymania. Zyski koncentrują się w jednym miejscu – wokół NVIDII i producentów chipów. OpenAI i inni dostawcy usług AI często dokładają do interesu, bo liczą na przyszły zwrot poniesionych nakładów.

Dr Dota Szymborska, adiunktka na Uniwersytecie WSB Merito i ekspertka ds. etyki nowych technologii i sztucznej inteligencji, przedstawia jednak inną perspektywę:

– Na razie, często nieświadomie, jesteśmy darmowymi testerami nowych rozwiązań, którzy są zaangażowani w swoją pracę, a nie ma lepszego rozwiązania dla firmy – mówi i dodaje:

Bezrefleksyjny zachwyt już minął. Widzę to po moich studentach i studentkach. Początkowo zachłysnęli się możliwościami, które dawał ChatGPT. Co im nie powiedział, cieszyli się i brali to jako pewnik. Później zorientowali się, że trzeba umieć z nim rozmawiać, a nauczenie się promptowania to proces. Kolejnym przełomem było zauważenie, że AI halucynuje i bywa stronnicze.

Już cztery dekady temu, w czasach boomu na komputery osobiste, ekonomiści zauważyli zjawisko, które zostało określone mianem paradoksu produktywności. Ogromne nakłady na nowe technologie nie przekładały się na szybki wzrost efektywności pracy. Dziś historia zatacza koło. Badania McKinsey pokazują, że choć 80 proc. firm wdrożyło generatywną AI, równie wiele przyznaje, że nie widzi istotnego wpływu na wyniki finansowe.

Z badań S&P Global wynika, że aż 42 proc. firm w 2024 roku porzuciło rozpoczęte projekty AI. Rok wcześniej zdecydowało się na to 17 proc. przedsiębiorstw. Powody? Nie tylko bariery technologiczne, ale też opór pracowników, brak odpowiednich kompetencji i rozczarowanie efektami. Gartner prognozuje wręcz, że AI wchodzi w fazę rozczarowania. To etap dobrze znany z wcześniejszych cykli technologicznych.

Nawet szef OpenAI, Sam Altman, nie kryje obaw. "Czy inwestorzy są dziś nadmiernie podekscytowani AI? Moim zdaniem tak" – powiedział, porównując sytuację do gorączki dot-comów.

Sztuczna inteligencja potrzebuje wody i energii, by się rozwijać

Do wątpliwego systemu monetyzacji, ostudzenia entuzjazmu użytkowników należy dodać jeszcze jeden kluczowy czynnik, który może wpłynąć na zwolnienie tempa rozwoju AI.

Centra danych w 2022 roku pochłaniały łącznie 1–1,3 proc. całkowitego zapotrzebowania na energię na świecie. To był rok, w którym ChatGPT dopiero wszedł na rynek. Ogólnodostępne narzędzie zmieniło jednak wszystko, bo dziś prognozuje się, że do 2030 roku sztuczna inteligencja może zużywać tyle energii co (całe!) średniej wielkości państwo.

– Ta bańka może pęknąć, bo skończą nam się zasoby – energia i woda. Nie zdajemy sobie sprawy z tego, ile nasz prompt "Co mam zjeść, jeśli w lodówce mam tylko serek" pochłania energii. Wśród naukowców dużo dyskutujemy o tym, jak wartościować zużycie energii wobec postępu naukowego. Niektóre badania pochłaniają ogromne ilości mocy obliczeniowej, warto się zastanowić, czy ono realnie coś wniesie – mówi dr Dota Szymborska, ekspertka ds. etyki nowych technologii i sztucznej inteligencji, specjalizująca się w tematyce AI i etyki algorytmów.

Pojedyncze pytanie do ChatGPT może pochłonąć kilkaset razy więcej energii niż zwykłe wyszukiwanie w Google. Tymczasem infrastruktura energetyczna już dziś jest przeciążona. W megaregionach takich jak Northern Virginia – globalnym centrum centrów danych AI – przyłączenie nowych obiektów z tego powodu może trwać nawet 7 lat.

Przyszłość sztucznej inteligencji

Jaka więc przyszłość czeka rozwój AI? Eksperci wskazują na możliwość tzw. oczyszczenia rynku – upadku wielu startupów i spadku wycen, szczególnie tam, gdzie biznes opiera się tylko na hype’ie.

Jednak długofalowo sztuczna inteligencja ma potencjał, by zmienić pracę biurową, finanse, produkcję czy obsługę klienta – podobnie jak zrobił to internet po 2000 r. Po pierwszej fali rozczarowań przyszła era firm, które naprawdę zmieniły świat. AI jest dziś w tym samym punkcie.