ChatGPT pochłania dziennie 100 tys. razy więcej energii niż typowe gospodarstwo domowe w USA. Rocznie zużywa tyle, co niewielkie państwo – 1058,5 GWh. Eksperci ostrzegają: koszty środowiskowe rozwoju sztucznej inteligencji będą rosły.
Ogromny apetyt na energię – ile zużywa ChatGPT?
Według danych analityków BestBrokers, chatbot OpenAI – ChatGPT – obsługuje obecnie około 300 mln aktywnych użytkowników tygodniowo, którzy każdego dnia generują około miliarda zapytań. Aby przetworzyć te dane, ChatGPT zużywa aż 2,9 mln kWh energii każdego dnia, czyli 100 tys. razy więcej niż przeciętne gospodarstwo domowe w USA, które potrzebuje 29 kWh energii elektrycznej dziennie.
Roczne zużycie energii przez ChatGPT wynosi 1058,5 GWh, co odpowiada konsumpcji elektryczności całego niewielkiego państwa.
– Sztuczna inteligencja zużywa coraz więcej energii, co kosztuje nas coraz więcej. Musimy budować nowe centra danych, by móc tworzyć coraz większe modele językowe – mówi agencji Newseria Pamela Krzypkowska, dyrektorka Departamentu Badań i Innowacji w Ministerstwie Cyfryzacji.
Ekologiczne skutki rozwoju sztucznej inteligencji
Jak wskazuje raport Międzynarodowej Agencji Energetycznej, centra danych związane z AI odpowiadają już za około 1,5 proc. globalnego zużycia energii elektrycznej. Analitycy firmy McKinsey przewidują, że do 2030 roku same tylko europejskie centra danych będą zużywać ponad 150 TWh rocznie, co będzie stanowiło około 5 proc. całkowitej konsumpcji energii w Europie.
Eksperci apelują więc o tworzenie bardziej energooszczędnych algorytmów i metod trenowania modeli sztucznej inteligencji, które pozwolą ograniczyć ich negatywny wpływ na środowisko naturalne.
– Dobrze jest zdawać sobie sprawę z tego, jaki jest koszt środowiskowy sztucznej inteligencji, bo ta świadomość jest pierwszym krokiem, żeby zastanowić się, jak go zminimalizować – podkreśla Pamela Krzypkowska.
Mniejsze modele – ekologiczna alternatywa dla AI
Na zużycie energii przez sztuczną inteligencję wpływ mają takie czynniki jak wielkość modelu, zastosowane algorytmy oraz infrastruktura centrów danych. Jednym z rozwiązań ograniczających zużycie prądu jest stosowanie mniejszych i bardziej wyspecjalizowanych modeli językowych.
W Polsce już teraz rozwijane są dwie alternatywy dla dużych modeli AI:
- PLLuM (Polish Large Language Model) – model rozumiejący język polski, stosowany w sektorze publicznym i prywatnym.
- Bielik – mniejszy model o ograniczonej liczbie parametrów, skutecznie wspierający użytkowników przy niższym zużyciu energii.
– Nie musimy do wszystkiego używać tych najfajniejszych modeli, które wydają się najbardziej interesujące. Do wielu zadań możemy używać mniejszych modeli, które zużywają dużo mniej energii, nawet nie językowych, tylko modeli wyjaśnialnych, mniejszych sieci neuronowych, drzew decyzyjnych. Naprawdę jest miejsce, żeby korzystać z innej sztucznej inteligencji, która jest bardziej efektywna energetycznie – mówi Pamela Krzypkowska.
Sztuczna inteligencja może także chronić środowisko
Z drugiej strony, AI może być narzędziem, które pomoże walczyć ze zmianami klimatycznymi. Sztuczna inteligencja już teraz wspiera przewidywanie zmian pogodowych, analizowanie trendów klimatycznych oraz optymalizowanie wykorzystania zasobów naturalnych.
W sektorze transportu inteligentne systemy zarządzania logistyką i trasami pozwalają na minimalizowanie zużycia paliwa.
– Sztuczna inteligencja może być wsparciem dla nas, driverem w tym, by walczyć ze zmianą klimatyczną. Jeśli patrzymy sobie na wszystkie estymacje mówiące o tym, jak zmienia się nasz klimat, to też to modelowanie i projektowanie często dzieje się ze wsparciem sztucznej inteligencji – mówi dyrektorka Departamentu Badań i Innowacji w Ministerstwie Cyfryzacji.
W przyszłości AI będzie mogła jeszcze bardziej poprawić efektywność energetyczną, optymalizując produkcję i dystrybucję energii odnawialnej, co ograniczy straty i koszty operacyjne sektora energetycznego.
Tomasz Wypych
Zdjęcie ilustracyjne, źródło: Canva
Inne tematy w dziale Technologie