Według zapowiedzi najsławniejszych firm internetowych AI ma usprawnić tysiące codziennych zadań, przyśpieszyć tworzenie kodu czy sprawić, że pojazdy staną się jeszcze bezpieczniejsze. A to dopiero wierzchołek góry lodowej, bo funkcje AI są wprowadzane do coraz to nowych usług. Boom na sztuczną inteligencję ma jednak niemałą cenę – obsługa modeli AI wymaga ogromnych ilości prądu.
AI pożera prąd – zużycie energii będzie tylko rosnąć
Alex de Vries, naukowiec i współzałożyciel serwisu Digiconomist, opublikował w czasopiśmie naukowym Joule, artykuł ostrzegający przed postępującym wraz z rozwojem AI zużyciem energii elektrycznej. Jego zdaniem konsumpcja prądu może wręcz wystrzelić i to w przeciągu kilku najbliższych lat.
By AI mogło konwersować z użytkownikiem, tworzyć obrazy wedle zadanych poleceń czy syntezować mowę autorzy danej usługi muszą najpierw wytrenować model sztucznej inteligencji. Wymaga to zapewnienia AI ogromnej liczby danych a proces ten jest bardzo energochłonny.
Nowojorska firma Hugging Face przyznała się, że przy tworzeniu modelu AI generującego tekst w różnych językach zużyła ok. 433 megawatogodzin (MWh) energii. To tyle, ile zużywa przez rok 40 gospodarstw domowych w USA.
Nawet po wytrenowaniu AI pożera dość dużo prądu wykonując każde kolejne polecenie, jakie wydają użytkownicy. De Vries szacuje, ze popularny ChatGPT może zużywać nawet 564 MWh prądu każdego dnia. Nawet jeśli rozwiązania będą z czasem optymalizowane energetycznie, to równocześnie pojawi się coraz więcej zastosowań AI i końcowo zużycie prądu będzie dalej rosnąć.
AI skonsumuje tyle energii, co małe państwo
Autor publikacji wylicza też pewien czarny scenariusz, oparty na usługach firmy Google. Już teraz gigant wprowadza liczne funkcje AI do swojego ekosystemu – w aplikacji mailowej, zestawie programów biurowych czy czatbocie Bard.
Spółka testuje obecnie wprowadzenie dalszych funkcji AI do swojej wyszukiwarki internetowej. Gdyby Google używało AI do każdego wyszukiwania – a tych jest obecnie 9 miliardów każdego dnia – rocznie firma zużywałaby około 29,2 TWh energii elektrycznej. To podobne zapotrzebowanie na prąd, jakie ma obecnie Irlandia – wylicza De Vries.
Naukowiec uspokaja, że obecnie taka sytuacja raczej nie jest możliwa w najbliższym czasie. Koszt utrzymania serwerów AI jest dość drogi, a branża regularnie zmaga się z wąskimi gardłami w dostawach serwerów tego typu. Zapotrzebowanie na urządzenia obsługujące AI jest jednak ogromne, więc produkcja także będzie rosnąć.
Do 2027 roku światowe zużycie energii związane z wykorzystaniem AI ma wzrosnąć aż o 85 TWh, do poziomu 134 TWh rocznie. To zużycie porównać już można z potrzebami całkiem dużych państw, jak Holandia, Argentyna czy Szwecja.
„Potencjalny wzrost podkreśla, że musimy być bardzo świadomi tego, gdzie wykorzystujemy AI. To wysokoenergetyczny proces, więc nie powinniśmy dodawać funkcji AI tam, gdzie faktycznie ich nie potrzebujemy” – podsumowuje De Vries.
Czytaj też:
Groźny termin „median human”. Przegalińska dla „Wprost”: Musimy zachować ostrożnośćCzytaj też:
AI służy także naszym wrogom. „Wojna w zakresie cyberbezpieczeństwa trwa każdego dnia”