Informujemy o najważniejszych wydarzeniach ze świata fact-checkingu.
Ile prądu zużywa AI? Sprawdzamy koszty środowiskowe sztucznej inteligencji
60 proc. młodych osób w Polsce korzysta z aplikacji wykorzystujących generatywną sztuczną inteligencję. Choć nie widzimy, jak odbywa się proces tworzenia tekstów czy grafik, to korzystanie z AI realnie wpływa na nasze środowisko – zwłaszcza w kontekście zużycia prądu

fot. Pexels / Sztuczna inteligencja / Modyfikacje: Demagog
Ile prądu zużywa AI? Sprawdzamy koszty środowiskowe sztucznej inteligencji
60 proc. młodych osób w Polsce korzysta z aplikacji wykorzystujących generatywną sztuczną inteligencję. Choć nie widzimy, jak odbywa się proces tworzenia tekstów czy grafik, to korzystanie z AI realnie wpływa na nasze środowisko – zwłaszcza w kontekście zużycia prądu
Internet to fantastyczne miejsce – źródło wielu memów zapadających w pamięć – od Pawła Jumpera przez płonącą styrtę po obrazki z nosaczem sundajskim. W ostatnim czasie za sprawą dostępu do sztucznej inteligencji jednym z najbardziej charakterystycznych trendów stały się chałkonie.
Na pewno znasz ten schemat: przeglądasz Facebooka, wyświetla ci się post na grupie, do której nawet nie należysz. Na obrazku widzisz fantazyjny wypiek w kształcie konia. Grafice towarzyszy wzruszający opis – ktoś się postarał, ale nikt nie pogratulował mu piekarniczego sukcesu. Ten obrazek, stworzony dla żartu, stał się lokalnym fenomenem. Temat podchwyciły firmy czy instytucje, takie jak np. miasto Poznań, które zaprezentowało chałkowego koziołka na swoim oficjalnym profilu.
Po pewnym czasie pojawiła się jednak refleksja, że być może chałkoń mówi coś ważnego o sposobie, w jaki konsumujemy treści w internecie. Popularność grafik AI stała się początkiem dyskusji o zagrożeniach ze strony deepfake’ów. Wszystkim umknął wówczas jednak jeszcze jeden wątek – ile właściwie kosztują nas chałkonie?
Ponad połowa młodych ludzi w Polsce korzysta z AI
Wygenerowane obrazy nie stawałyby się memami, gdyby nie wydarzenia z końca 2022 roku. To wtedy właśnie Open AI – jedna z głównych firm zajmujących się rozwojem sztucznej inteligencji – ogłosiła upublicznienie swojego modelu ChatGPT. Wkrótce potem internet zachłysnął się możliwościami generowania tekstów na życzenie. W krótkim czasie upowszechniły się kolejne narzędzia, takie jak np. Midjourney czy Dall-E, pozwalające na tworzenie grafik na podstawie krótkich komend.
Obecnie, po kilku latach, takie programy nie są już „nową zabawką” i na stałe weszły do naszego cyfrowego przybornika. Pomagają teraz w szukaniu informacji – także renomowanym mediom – czy też wspomagają studia filmowe w tworzeniu kolejnych produkcji. O dobrym przyjęciu AI świadczą także dane zebrane w ramach Eurobarometru. W grupie wiekowej od 16 do 30 lat w minionym roku 57 proc. respondentów korzystało z aplikacji do generowania tekstów, grafik lub filmów. W Polsce ten odsetek był nieco wyższy i wyniósł 60 proc.
Gdzie powstają chałkonie?
W jaki sposób powstają chałkonie, prace zaliczeniowe tworzone „na szybko” i teksty przemówień, które trzeba przygotować niemal w ostatniej chwili? W kontekście rozwoju sztucznej inteligencji często wspomina się o fabrykach AI. Są to złożone projekty, na które składają się m.in. ośrodki badawcze, podobne do tego, który ma powstać w Poznaniu. Kluczowym elementem funkcjonowania fabryk są centra danych, bez których żadna komenda dla AI nie mogłaby się zamienić w oczekiwany efekt.
Takie centra to najczęściej małe budynki przypominające z zewnątrz zwykłe magazyny. Jednak w środku zamiast stosów paczek znajdują się serwery, które przeprowadzają różne operacje, w tym m.in. służące trenowaniu i obsłudze sztucznej inteligencji. Jak podaje strona Data Center Map, aktualnie istnieje ponad 9 tys. podobnych centrów w ponad 160 krajach na świecie. W Polsce funkcjonują obecnie 83 tego typu placówki – i będą powstawać kolejne. W lutym 2025 roku w trakcie konferencji z Donaldem Tuskiem Microsoft ogłosił plan budowy w naszym kraju centrum wartego 3 mld złotych.
Ile właściwie je przeciętny chałkoń? To zwierzęta dość łase na prąd
Okazuje się, że odpowiedź na to pytanie nie jest prosta, ponieważ korporacje technologiczne nie ujawniają dokładnych danych dotyczących zużycia energii przez sztuczną inteligencję. Jak przeczytamy w raporcie Google’a na temat wpływu na środowisko w 2024 roku:
„Przewidywanie przyszłego wpływu AI na środowisko jest złożone i ewoluuje, a nasze historyczne trendy prawdopodobnie nie oddają w pełni przyszłej trajektorii AI. Wraz z głęboką integracją AI w naszym portfolio produktów rozróżnienie między AI a innymi obciążeniami nie będzie miało znaczenia”.
Naukowcy próbują zatem na własną rękę określić, jakie są koszty wygenerowania odpowiedzi czy grafik przez sztuczną inteligencję. By odkryć, ile prądu konsumuje sztuczna inteligencja, Alex de Vries z Uniwersytetu w Amsterdamie bazował na liczbie kart graficznych firmy Nvidia używanych do obsługi takich modeli AI. Na podstawie danych dotyczących ilości energii koniecznej do zasilenia jednej takiej karty i liczby takich kart wewnątrz jednego serwera obliczył, że koszt jednej odpowiedzi udzielonej przez ChatGPT wynosi między 6,9 a 8,9 Wh (s. 2). To ilość prądu, która starczyłaby do zasilania słuchawek bezprzewodowych nawet przez kilkanaście godzin.
Na nieco mniejsze zużycie wskazał w 2023 roku jeden z dyrektorów Alphabet, czyli spółki matki Google’a, który w wywiadzie z redakcją Reuters powiedział, że „koszt dużego modelu językowego jest 10 razy większy od standardowego wyszukiwania”. Zgodnie z publikacją de Vriesa standardowe wyszukiwanie przy pomocy Google’a to zużycie prądu na poziomie 0,3 Wh. Zatem ta sama praca wykonywana przez sztuczną inteligencję oznacza koszt w wysokości 3 Wh. Tyle samo energii wystarczy do rozświetlenia LED-owej żarówki.
Za 44 chałkonie naładujesz swój telefon do pełna
Oprócz próby oszacowania kosztów odpowiedzi udzielanych na różne pytania przez narzędzia sztucznej inteligencji naukowcy podjęli również starania, by określić, ile prądu zużywa generowanie tekstów czy grafik. W tym celu bazowali na danych, które można pozyskać z otwartych modeli AI, takich jak BLOOM. To właśnie on stał się podstawą do stworzenia rankingu AI Energy Score, opracowanego przez firmę Hugging Face, zajmującą się m.in. badaniem kosztów sztucznej inteligencji.
Za opracowanie rankingu odpowiada m.in. dr Sasha Luccioni, która na bazie informacji pochodzących z konkretnego centrum danych była w stanie oszacować, że wygenerowanie pojedynczego obrazka to ok. 0,5 Wh. Dla porównania – pełne naładowanie współczesnego smartfona to ok. 22 Wh. Zatem 44 chałkonie w internecie odpowiadają 100 proc. naładowania baterii Twojego telefonu.
Naukowcy podkreślają jednak, że te wartości są jedynie szacunkami i nie muszą odpowiadać rzeczywistości. Jak powiedziała portalowi Nature dr Emma Strubell z Carnegie Mellon University, liczby są prawdopodobnie zaniżone, ponieważ gdyby były zbyt wysokie, firmy technologiczne prosiłyby o korektę tych informacji – czego do tej pory nie robią.
Rachunki za prąd, które mogą zawstydzić nawet całą Francję
Przeciętnej wielkości stado chałkoni, które można wykarmić baterią z telefonu, może nie robić wrażenia. Pamiętajmy jednak o skali – w grudniu 2024 roku z Chatu GPT regularnie korzystało 300 mln użytkowników, którzy każdego dnia wysyłali miliard wiadomości.
Fresh numbers shared by @sama earlier today:
300M weekly active ChatGPT users
1B user messages sent on ChatGPT every day
1.3M devs have built on OpenAI in the US
— OpenAI Newsroom (@OpenAINewsroom) December 4, 2024
Już dwa lata przed tak dużą liczbą dziennych zapytań założyciel Open AI, Sam Altman, wzywał do przełomu w energetyce. Okazuje się bowiem, że abyśmy mogli generować obrazki i teksty, potrzeba gigantycznych ilości prądu.
Zgodnie z szacunkami Międzynarodowej Agencji Energetycznej (MAE) przeciętne centrum danych, wykorzystywane do obsługi sztucznej inteligencji, wymaga ok. 5–10 MW (megawatów). Jednak coraz powszechniejsze duże centra, m.in. takie, jakie Microsoft uruchomi w Polsce, potrzebują nawet ponad 100 MW. Jak podaje MEA, roczne zużycie energii na takim poziomie wystarczyłoby do naładowania wszystkich aut elektrycznych w Polsce – i to dwa razy.
Na całym świecie działają tysiące takich centrów – okazuje się, że ich funkcjonowanie może konsumować ilości energii porównywalne z zapotrzebowaniem całego państwa. W 2022 roku sumarycznie zużyły one 460 terawatogodzin (TWh) – tyle samo, ile Francja w tym samym okresie. Zapotrzebowanie na prąd będzie tylko rosło i, jak przewidują analitycy Goldman Sachs (GS), do 2030 roku centra danych będą potrzebowały o 160 proc. więcej energii niż teraz. To oznacza konsumpcję przekraczającą poziom 1000 TWh, czyli zgodnie z oceną MAE, większą niż zużycie prądu całej Japonii (s. 8).
Zapotrzebowanie energetyczne związane z funkcjonowaniem centrów danych będzie wzrastać także na poziomach krajowych, również w Polsce. Zgodnie z danymi firmy analitycznej PMR w 2021 roku dostępna moc na rynku komercyjnych centrów danych w Polsce wynosiła 107 MW. To mniej więcej tyle energii, ile produkuje największa elektrownia słoneczna w naszym kraju. Rok później poziom mocy wzrósł do 121 MW – to ekwiwalent energii produkowanej przez elektrownię wiatrową firmy Polenergia, która może zasilać potencjalnie ponad 180 tys. gospodarstw domowych. W 2023 roku zasoby mocy w centrach danych wzrosły do 173 MW, a prognozy przewidują, że do 2030 roku będzie to już ponad 500 MW.
Chałkonie do działania potrzebują jednak także innych surowców, które również są niezbędne do naszego życia.
Najedzone chałkonie są też spragnione. Ile wody „wypija” sztuczna inteligencja?
6 proc. lokalnych zasobów wody – tyle właśnie zużywało centrum danych w miejscowości West Des Moines w Iowa w 2022 roku, tuż przed końcem treningu modelu GPT-4. Woda, podobnie jak prąd, jest niezbędna do działania tego typu infrastruktury. Pozwala ona na chłodzenie ciągle działających serwerów. Jednak w przeciwieństwie do wody z kranu, która po wykorzystaniu wraca do obiegu szybko, zasoby zużywane do obsługi sztucznej inteligencji znikają na dłużej.
Dr Shaolai Ren z UC Riverside zajmuje się m.in. badaniami AI. Jak powiedział magazynowi „Wired”, centra danych pobierają wodę, a następnie odparowują ją do atmosfery, co sprawia, że wyklucza się ją z obiegu na okres około roku.
Podobnie jak w przypadku konsumpcji prądu, również w odniesieniu do zużycia wody przez AI wciąż brakuje precyzyjnych danych – pozostajemy w sferze domysłów. Dr Ren w 2023 roku przekazał do recenzji pracę naukową zawierającą obliczenia ilości wody potrzebnej do odpowiedzi na pytanie zadawane Chatowi GPT. Jak się okazuje, w zależności od czasu i miejsca, 10–50 zapytań średniej długości skierowanych do GPT-3 wymagało zużycia pół litra wody, co stanowi średnią objętość butelki wody kupowanej w markecie (s. 2).
Aby móc wykarmić chałkonie, potrzebna jest rewolucja
Chałkonie już wkrótce przeminą, a na ich miejsce przyjdą kolejne cyfrowe trendy. Ostatnia aktualizacja Chatu GPT sprawiła, że ludzie zaczęli np. masowo przerabiać zdjęcia w taki sposób, by przypominały kadry z filmów produkcji studia Ghibli. Nie zdziwcie się zatem, jeśli w najbliższym czasie natkniecie się na znane obrazki, które po przetworzeniu będą przypominały sceny z takich filmów, jak „Mój sąsiad Totoro”.
#Chatgpt can now convert images into studio ghilbi animation and everyone on X seems to be overjoyed about it pic.twitter.com/HYjamf2yFb
— reynard (@reynardmarketer) March 26, 2025
Niezależnie od tego, jaki trend w tworzeniu grafik AI okaże się dominujący w przyszłości, będziemy musieli poradzić sobie z coraz większym obciążeniem naszej sieci energetycznej. MEA przewiduje, że w 2030 roku zużycie energii przez wszystkie sektory gospodarki wyniesienie 6760 TWh. To więcej niż połączone zapotrzebowania całej Unii Europejskiej i Stanów Zjednoczonych w 2023 roku.
W świetle faktu, że prąd generujemy wciąż głównie poprzez elektrownie węglowe, warto rozważyć, jak duży wpływ na naszą planetę będzie miał rozwój AI. Może się okazać, że malownicze łąki, po których mogłyby biegać chałkonie, będą istnieć tylko w wirtualnej rzeczywistości.
Przekaż nam 1,5% podatku!
Wesprzyj nas, przekazując 1,5% podatku na kontrolę polityków. Wpisz w PIT: KRS 0000615583
*Jeśli znajdziesz błąd, zaznacz go i wciśnij Ctrl + Enter