AI wysysa prąd z sieci. Eksperci ostrzegają przed czarnym scenariuszem

AI wysysa prąd z sieci. Eksperci ostrzegają przed czarnym scenariuszem

Sztuczna inteligencja to nie tylko szanse, ale i zagrożenia
Sztuczna inteligencja to nie tylko szanse, ale i zagrożenia Źródło:Shutterstock / everything possible
Już teraz tworzenie AI pochłania tyle prądu, co małe państwo – alarmują specjaliści branży energetycznej. Ogromny wzrost zainteresowania i zapotrzebowania na sztuczną inteligencję może być początkiem większych kłopotów.

Narzędzia AI wyrastają jak grzyby po deszczu, a wraz z nimi nieubłaganie rośnie zużycie prądu na potrzeby sztucznej inteligencji. Już teraz sytuacja energetyczna może być alarmująca, a w zaledwie parę lat może się znacznie pogorszyć.

AI pochłania tyle energii co mały kraj

Ostatnie badanie przeprowadziła francuska firma energetyczna Schneider Electric. Według doniesień specjalistów, na ten moment prace nad sztuczną inteligencją pochłaniają szacunkowo aż 4,3 GW światowej energii. Taki wynik osiągają niektóre małe kraje.

To jednak dopiero początek, bo technologia ta z impetem zyskuje na popularności. Ze wzrostem zapotrzebowania rośnie zaś też zapotrzebowanie na energię elektryczną. Francuscy eksperci szacują tu, że do 2028 roku zapotrzebowanie AI na prąd wzrośnie do 13,5-20 GW. To skumulowany roczny wzrostu rzędu 26-36 procent.

Kluczowa jest też zmiana, która będzie postępować w miarę rozwoju rynku. Dwa podstawowe zadania przy tworzeniu AI to trenowanie modelu oraz inferencja AI. Obecnie podział zużycia energii na oba to odpowiednio 20:80.

Przy treningu wykorzystywane są ogromne ilości prądu, ponieważ sztuczną inteligencję uczy się serwując jej miliony próbek danych, które są następnie opracowywane przez tzw. akceleratory (na przykład karty graficzne). Trening może zająć od paru godzin do nawet paru miesięcy, ale w dużej mierze jest to skończony proces.

Inferencja AI odbywa się zaś za każdym razem, gdy użytkownik wykorzystuje AI, np. pyta o coś na czacie czy prosi o wygenerowanie obrazu. To proces zużywający mniej energii, ale ciągły i w miarę upływu lat będzie on rosnąć wraz z popularyzacją tych narzędzi. Już w 2028 r. wspomniany wyżej podział może więc zmienić się na 15:85 na rzecz inferencji.

AI wielkim problemem dla centrów danych

Obecnie zadania związane ze sztuczną inteligencją stanowią ok. 8 proc. zużycia prądu w przeciętnym centrum danych. To całościowo pochłania zaś aż 54 GW energii. Już za nieco ponad cztery lata zapotrzebowanie pojedynczej placówki tego typu wzrośnie jednak aż do 90 GW, z czego 15-20 proc. zużywać będzie obsługa systemów sztucznej inteligencji.

Kolejną kwestią jest chłodzenie centrów danych. Wymagania temperaturowe jeszcze bardziej podnoszą zużycie prądu, a także wykorzystują zasoby naturalne. To głównie woda, która jest bardziej efektywna od klasycznych metod. Dużych klastrów AI po prostu nie da chłodzić się powietrzem – byłyby za gorące.

Już teraz firmy operujące centrami danych są ganione za wysokie zużycie zasobów naturalnych. Rozwój AI może zaś szybko pogłębić dzisiejsze problemy – ostrzega Schneider Electric. By wyjść z powoli zaciskającej się pętli, specjaliści wskazują na dwa kluczowe obszary. Chodzi o znaczą modernizacje obecnie infrastruktury oraz ogólną poprawę efektywności działania centrów.

Czytaj też:
Świat bierze się za regulowanie AI. Przegalińska dla „Wprost”: Wyzwaniem jest znalezienie równowagi
Czytaj też:
AI już zabiera pracę. Firmy big tech zaczynają zwalniać