W ostatnich latach sztuczna inteligencja weszła do powszechnego użytku i opanowała sporą część internetu. Jaki jest jej wpływ na środowisko?
Internet stał się nieodzowną częścią współczesnej codzienności. Praca, komunikacja, handel, edukacja czy rozrywka coraz bardziej opierają się na usługach cyfrowych. Na tej scenie pojawiła się ostatnio także sztuczna inteligencja, która – przede wszystkim za sprawą różnych czatów i możliwości tworzenia obrazów i filmów – coraz bardziej zmienia sposób, w jaki pracujemy, tworzymy i odbieramy treści.
O czym mowa
Sztuczna inteligencja (ang. artificial intelligence; AI) to grupa technologii umożliwiających komputerom wykonywanie takich zadań jak analiza tekstów, odnajdowanie wzorców w danych, podejmowanie decyzji czy rozpoznawanie obrazów i mowy. Szczególną rolę w ostatnich latach odgrywa generatywna sztuczna inteligencja (ang. generative AI), która jest w stanie przygotowywać nowe treści, np. tekst, obraz, kod źródłowy programu komputerowego, a nawet materiały audio i wideo. Najbardziej znaną klasą tego rodzaju sztucznej inteligencji są duże modele językowe, (ang. large language model; LLM), które są wykorzystywane w popularnych czatach AI.
Modele językowe nie są znanymi z filmów i powieści science-fiction cyfrowymi bytami o nadprzyrodzonej inteligencji. To jedynie system wytrenowany przez specjalistów od sztucznej inteligencji, który potrafi znaleźć wzorce w materiałach przedstawionych mu podczas procesu uczenia i sprawnie je kompilować, by tworzyć nowe treści, np. odpowiedzi na pytania, artykuły czy podsumowania.
Jakość działania generatywnego modelu sztucznej inteligencji zależy od jakości i ilości danych, na których został wytrenowany, i będzie się odnosił do występujących w nich wzorców i koncepcji.

Skutki uboczne
Powstanie szeroko dostępnych systemów sztucznej inteligencji nie pozostaje bez wpływu na środowisko naturalne. Podobnie jak powstanie i szerokie wykorzystanie Internetu i powszechny dostęp do urządzeń elektronicznych, używanie AI ma istotne konsekwencje dla naszej planety.
Na ślad węglowy sztucznej inteligencji wpływają przede wszystkim trzy czynniki. Pierwszym jest energia elektryczna zużywana przez centra danych w trakcie trenowania i użytkowania AI. Drugi to zużycie wody. Chłodzenie serwerów wymaga jej ogromnych ilości. Trzecim jest produkcja sprzętu elektronicznego, np. chipów, procesorów, układów scalonych i innych elementów wykorzystywanych do zapewnienia mocy obliczeniowej centrów danych. Do wytworzenia większości tych urządzeń potrzebne są metale ziem rzadkich, a sam proces produkcji jest energochłonny i wysokoemisyjny.
Problemy z AI mają też wymiar społeczny. Wielkie firmy technologiczne chętnie budują nowe centra danych w regionach, gdzie koszty energii są niskie, a system regulacji środowiskowych – słaby, np. w krajach globalnego Południa. Mieszkańcy tych państw ponoszą koszty środowiskowe inwestycji korporacji, często czerpiąc z inwestycji nieporównywalnie mniejsze realne korzyści ekonomiczne niż giganci technologiczni.
Zasobochłonność
Jednymi z głównych zagrożeń środowiskowych związanych z AI jest gwałtowny wzrost zużycia wody i energii potrzebnych do zasilania i chłodzenia centrów danych i serwerowni niezbędnych do stworzenia, trenowana i późniejszego działania systemów sztucznej inteligencji.
Trenowanie dużych modeli językowych wymaga pracy tysięcy wyspecjalizowanych procesorów przez wiele tygodni, a nawet miesięcy. Przez cały ten czas niezbędne jest dostarczenie procesorom stabilnego źródła zasilania w energię elektryczną (są to procesy bardzo energochłonne) oraz chłodzenie ich. Wystarczy pomyśleć o tym, jak bardzo nagrzewa się zwykły laptop podczas codziennej pracy, by wyobrazić sobie, jak ogromne ilości wody mogą być potrzebne do chłodzenia tysięcy procesorów w ogromnych centrach danych największych firm technologicznych. Przykładowo proces trenowania modelu Chat GPT-3 wymagał zużycia ok. 700 tys. l wody, a pojedyncza, składająca się z kilku pytań rozmowa z czatem AI może skutkować wykorzystaniem ok. 0,5 l wody. Pociesza jedynie fakt, że zwykle w centrach danych woda wykorzystywana jest wielokrotnie w ramach obiegu zamkniętego, więc nie jest bezpowrotnie pobierana ze środowiska jak np. w rolnictwie czy przemyśle. Mimo to media często donoszą o tym, że mieszkańcy okolic wielkich centrów danych skarżą się na negatywny wpływ serwerowni na dostępność wody w ich okolicy.
O wiele poważniejszym i bardzo realnym problemem jest ogromna energochłonność sztucznej inteligencji. Co gorsza, wraz z upowszechnieniem użycia AI zapotrzebowanie centrów danych na energię elektryczną rośnie szybciej niż wydajność systemów energetycznych.
Szacuje się, że w 2027 r. do zasilenia systemów sztucznej inteligencji będzie potrzebnych 85–134 terawatogodzin energii elektrycznej w skali roku. To ogromna ilość energii, porównywalna z dzisiejszym rocznym zużyciem prądu przez państwa takie jak Belgia, Finlandia czy Argentyna.
Rozwiązania
Najważniejszą kwestią dla ograniczenia własnego śladu węglowego związanego z użytkowaniem AI jest świadomość tego, jak właściwie systemy działają. Każde polecenie wysłane do systemu sztucznej inteligencji (np. pytanie czy prompt wpisany w czat AI) uruchamia ciąg energochłonnych analiz i obliczeń w centrach danych. Sztuczna inteligencja nie wie, które pytanie jest proste, a które skomplikowane – za każdym razem analizuje ogromne zbiory informacji.

Co to oznacza w praktyce? Proste pytania, na które odpowiedź z łatwością znajdziemy w pierwszych wynikach wyszukiwania w dowolnej wyszukiwarce internetowej, będą traktowane przez system AI tak samo jak skomplikowane instrukcje wymagające przeanalizowania szerokiej bazy danych i wygenerowania długiej i złożonej odpowiedzi. Szacuje się, że ślad węglowy pojedynczego zapytania do czata AI jest co najmniej 5–10-krotnie większy niż sprawdzenie tej samej informacji w wyszukiwarce. Nie należy więc używać interfejsu chata AI do banalnych zapytań takich jak np. jakie miasto jest stolicą danego państwa, jaka jest kaloryczność określonego produktu, kim jest dana postać historyczna. Gdy odpowiedź na nasze pytanie może się znajdować w internetowej encyklopedii albo w licznych artykułach, to nie korzystając w tym przypadku ze sztucznej inteligencji, zaoszczędzimy mnóstwo emisji.
Drugą ważną zasadą oszczędzania energii zużytej na AI jest unikanie generowania za jej pomocą multimediów. O ile tworzenie tekstów jest relatywnie mniej energochłonne, o tyle zlecanie wykonania obrazów, a jeszcze bardziej treści audio i wideo, wykorzystuje dużo więcej energii. Powstanie kilkunastu śmiesznych ilustracji, zlecenie sztucznej inteligencji przygotowania filmu na podstawie opisu lub stworzenie piosenki do naszego tekstu nie są wcale nieszkodliwą i neutralną dla środowiska formą rozrywki.
Z perspektywy firmy oferującej usługi sztucznej inteligencji redukcja emisji CO2 jest możliwa także przez zoptymalizowanie algorytmów, na podstawie których działa system AI, oraz korzystanie z odnawialnych źródeł energii i inwestycje w bardziej efektywne centra danych. Giganci technologiczni zwykle nie są jednak skłonni do podejmowania takich działań bez wyraźnych regulacji, które nakazywałyby im takie działania.
- Tekst: Dorota Orzeszek
- Tekst ukazał się w numerze 3/2026 Magazynu VEGE

