Tak świat płaci za rozwój AI. Skala problemu jest naprawdę szokująca

Sebastian Luc-Lepianka
30 października 2023, 15:07 • 1 minuta czytania
Sztuczna inteligencja robi się coraz powszechniejsza i łatwiej dostępna. Jak okazuje się w raporcie Schneider Electric, za wygodę zapłacimy, ale nie w taki sposób, w jaki ludzie obawiają się AI.
Zużycie energetyczne sztucznej inteligencji. Fot. IMAGO/Imago Stock and People/East News
Więcej ciekawych artykułów znajdziesz na stronie głównej

Od kontrowersyjnego chatbota do elementu tła, sztuczna inteligencja dla wielu stała się już elementem życia. Pomaga nam przy robieniu zdjęć w telefonach, na kasach samoobsługowych, staje się nieodłącznym elementem przeglądarek internetowych… jest jednak cena za tak dynamiczny rozwój. Na problem zwróciła uwagę firma Schneider Electric, informując, że AI ma olbrzymie zapotrzebowanie na energię.


Ile energii potrzebuje AI?

Z raportu dowiadujemy się, że systemy sztucznej inteligencji obecnie zużywają 4,3 gigawatów mocy na całym świecie. To odpowiednik zużycia energii w małym państwie. Dla porównania w Polsce do września 2023 roku zużyliśmy 13,3 GW mocy, więc rozwijanie dużych modeli językowych i innych technologii AI kosztuje świat jedną trzecią Polski.

Analitycy wskazują również, że wartość ta będzie gwałtownie rosnąć. Roczna stopa wzrostu zapotrzebowania AI na energię ma rosnąć od 26 do 36 proc., co oznacza, że poziom Polski osiągnie w roku 2028, bądź nawet go przekroczy - prognozowane zużycie energii elektrycznej w tym okresie ma wynosić między 13,5 a 20 GW globalnie. To jakby na świecie nagle wyrósł drugi kraj wielkości Polski, ale zaludniony przez roboty. 

Co tak zużywa energię?

Jak czytamy w raporcie Schneidera, 20 proc. całego funkcjonowania AI na świecie przeznaczane jest na jego szkolenie, które jest bardziej energochłonne. Eksperci prognozują, że nastąpi gwałtowny przeskok, gdy rynek zaleją zoptymalizowane modele językowe sztucznej inteligencji. Kolejne generacje będą, zgodnie z teorią wykładniczego rozwoju technologii, korzystać z osiągnięć poprzedników. Szkolenie AI może stanie się tańsze, ale będzie trzeba utrzymywać ich więcej.

Jeśli zaś chodzi o samo zużycie energii elektrycznej, raport zaleca, aby centra danych przeszły z konwencjonalnego podziału napięcia 120/208V na bardziej wydajne 240/415V, które mogą lepiej sprostać wysokim potrzebom zasilania dla AI.

Chłodzenie i ekologia

Wzrost zużycia energii ma dotyczyć również centrów danych. W 2028 roku te mają pożerać 90 GW mocy, co zdaniem ekspertów wymusi nowe rozwiązania w układach chłodzenia. Uruchomione modele AI generują dużo ciepła, co skraca żywotność podzespołów i generuje zagrożenie dla bezpieczeństwa.

Uzależnia to centra danych od wody, używanej do zaspokajania potrzeb chłodzenia, co generuje kolejne koszty. Giganci technologiczni pracują już nad instalacją ekologicznych rozwiązań, aby obejść ten problem.

Z pierwszej ręki znamy przykład Google, który stosuje zielone technologie do utrzymywania swojej infrastruktury chmury obliczeniowej i AI, o czym mogliśmy posłuchać na Google Cloud Summit Poland 2023. W Polsce oznacza to inwestycje z ramienia Grupy Polsat Plus, jak nowe farmy fotowoltaiczne czy wiatrowe.

Czytaj także: https://innpoland.pl/200329,google-cloud-summit-ogloszono-wspolprace-google-cloud-i-grupy-polsat-plus