Sztuczna inteligencja robi się coraz powszechniejsza i łatwiej dostępna. Jak okazuje się w raporcie Schneider Electric, za wygodę zapłacimy, ale nie w taki sposób, w jaki ludzie obawiają się AI.
Reklama.
Podobają Ci się moje artykuły? Możesz zostawić napiwek
Teraz możesz docenić pracę dziennikarzy i dziennikarek. Cała kwota trafi do nich. Wraz z napiwkiem możesz przekazać też krótką wiadomość.
Od kontrowersyjnego chatbota do elementu tła, sztuczna inteligencja dla wielu stała się już elementem życia. Pomaga nam przy robieniu zdjęć w telefonach, na kasach samoobsługowych, staje się nieodłącznym elementem przeglądarek internetowych… jest jednak cena za tak dynamiczny rozwój. Na problem zwróciła uwagę firma Schneider Electric, informując, że AI ma olbrzymie zapotrzebowanie na energię.
Zachęcamy do subskrybowania kanału INN:Poland na YouTube. Od teraz Twoje ulubione programy "Rozmowa tygodnia" i "Po ludzku o ekonomii" możesz oglądać TUTAJ.
Ile energii potrzebuje AI?
Z raportu dowiadujemy się, że systemy sztucznej inteligencji obecnie zużywają 4,3 gigawatów mocy na całym świecie. To odpowiednik zużycia energii w małym państwie. Dla porównania w Polsce do września 2023 roku zużyliśmy 13,3 GW mocy, więc rozwijanie dużych modeli językowych i innych technologii AI kosztuje świat jedną trzecią Polski.
Analitycy wskazują również, że wartość ta będzie gwałtownie rosnąć. Roczna stopa wzrostu zapotrzebowania AI na energię ma rosnąć od 26 do 36 proc., co oznacza, że poziom Polski osiągnie w roku 2028, bądź nawet go przekroczy - prognozowane zużycie energii elektrycznej w tym okresie ma wynosić między 13,5 a 20 GW globalnie. To jakby na świecie nagle wyrósł drugi kraj wielkości Polski, ale zaludniony przez roboty.
Co tak zużywa energię?
Jak czytamy w raporcie Schneidera, 20 proc. całego funkcjonowania AI na świecie przeznaczane jest na jego szkolenie, które jest bardziej energochłonne. Eksperci prognozują, że nastąpi gwałtowny przeskok, gdy rynek zaleją zoptymalizowane modele językowe sztucznej inteligencji. Kolejne generacje będą, zgodnie z teorią wykładniczego rozwoju technologii, korzystać z osiągnięć poprzedników. Szkolenie AI może stanie się tańsze, ale będzie trzeba utrzymywać ich więcej.
Masz propozycję tematu? Chcesz opowiedzieć ciekawą historię? Odezwij się do nas na kontakt@innpoland.pl
Jeśli zaś chodzi o samo zużycie energii elektrycznej, raport zaleca, aby centra danych przeszły z konwencjonalnego podziału napięcia 120/208V na bardziej wydajne 240/415V, które mogą lepiej sprostać wysokim potrzebom zasilania dla AI.
Chłodzenie i ekologia
Wzrost zużycia energii ma dotyczyć również centrów danych. W 2028 roku te mają pożerać 90 GW mocy, co zdaniem ekspertów wymusi nowe rozwiązania w układach chłodzenia. Uruchomione modele AI generują dużo ciepła, co skraca żywotność podzespołów i generuje zagrożenie dla bezpieczeństwa.
Uzależnia to centra danych od wody, używanej do zaspokajania potrzeb chłodzenia, co generuje kolejne koszty. Giganci technologiczni pracują już nad instalacją ekologicznych rozwiązań, aby obejść ten problem.
Z pierwszej ręki znamy przykład Google, który stosuje zielone technologie do utrzymywania swojej infrastruktury chmury obliczeniowej i AI, o czym mogliśmy posłuchać na Google Cloud Summit Poland 2023. W Polsce oznacza to inwestycje z ramienia Grupy Polsat Plus, jak nowe farmy fotowoltaiczne czy wiatrowe.