Rewolucji AI nie zatrzymają spory o prawo autorskie, rozważania natury moralnej, czy strach przed buntem maszyn. Może to sprawić problem tak trywialny, że aż łatwy do przeoczenia. Zużycie energii przez AI jest równie ogromne, co w przypadku kopania kryptowalut. Tymczasem infrastruktura energetyczna dwóch takich technologicznych rewolucji naraz może nie wytrzymać.
Nie ma się co łudzić, że kwestie etyczne zatrzymają rozwoju AI
Sztuczna inteligencja powoli zmienia kolejne dziedziny naszego życia. AI wykorzystują znudzeni internauci, osoby poszukujące wygenerowanej treści dla celów zupełnie prywatnych czy zawodowych. Korzystają z niej także naprawdę wielkie przedsiębiorstwa, z których niektóre mają nadzieje, że trafiły na kolejną żyłę złota. Coraz więcej produktów oferowanych na rynku zawiera jakąś formę integracji z AI. Typowy konsument spotyka się z nimi nie tylko wtedy, gdy korzysta ze swojego smartfona albo trafia na zaawansowany voicebot. Funkcje AI potrafi wykorzystywać już nawet lodówka.
Czy rzeczywiście znajdujemy się w początkowej fazie cywilizacyjnej rewolucji? To możliwe. Problem w tym, że może ona zostać zduszona w zarodku. Nie mam tutaj na myśli zażartego sporu o prawa autorskie, rolę prawdziwych artystów na współczesnym rynku treści, czy nawet kwestii związanych z dostępem do danych w celu uczenia kolejnych modeli AI. Trudno też poważnie traktować odwieczne fobie człowieka dotyczące zastąpienia przez własne twory. Jeżeli więc nie kwestie prawno-etyczne, ani nawet bunt maszyn, to co stoi na drodze sztucznej inteligencji? Energia elektryczna.
Nie ma się co oszukiwać: wykorzystanie obecnych modeli sztucznej inteligencji na masową skalę przez globalne przedsiębiorstwa do „poważnych” zadań ma swoją cenę. Do wykonywania tych wszystkich obliczeń potrzebne są wyspecjalizowane urządzenia. Bynajmniej nie chodzi o przywołane wyżej inteligentne lodówki i współczesne smartfony. Poważne prace nad AI wymagają ogromnej mocy obliczeniowej, które zapewniają tzw. superkomputery. W grę wchodzą także różnego rodzaju serwery i centra danych. Do prawidłowego działania całej tej elektroniki potrzeba bardzo dużo prądu. Trzeba to też czymś chłodzić.
Jak dużo? Spider’s Web powołuje się na szacunki Boston Consulting Group. Wynika z nich, że:
Centra danych w Stanach Zjednoczonych w 2024 r. zużyją 325 TWh energii elektrycznej i wartość ta będzie rosła co roku o 15 do 20 proc., osiągając zapotrzebowanie na poziomie 800-1050 TWh w 2030 r. To oznaczałoby, że w 2030 r. centra danych zużywałyby 16 proc. energii elektrycznej produkowanej w Stanach Zjednoczonych.
Do podobnych wniosków doszedł holenderski badacz Alex de Vries. Jak podaje Business Insider, jego wyliczenia sugerują, że roczne zapotrzebowanie na prąd przez AI na całym świecie może wzrosnąć do 85,4 – 134 TWh do 2027 r. Przekłada się to mniej-więcej na roczne zużycie prądu przez Holandię.
Zużycie energii przez AI stanowi największe zagrożenie dla przyszłości sztucznej inteligencji
Na tak duże zużycie energii przez AI rzeczy nie jest przystosowana współczesna infrastruktura. Warto przy tym wspomnieć, że nie mam tutaj na myśli polskiej sieci przesyłowej. Ta nie jest w stanie sobie poradzić nawet ze zwiększonym zainteresowaniem fotowoltaiką. Dostosowanie infrastruktury energetycznej do rosnącego zapotrzebowania wymagałoby poważnych nakładów finansowych oraz oczywiście konkretnych prac. Na całym świecie musiałyby powstać nowe elektrownie, sieci dystrybucyjne i przesyłowe. Istniejące ich elementy należałoby zmodernizować.
Tymczasem cały świat boryka się ze zmianami klimatycznymi, które coraz szybciej idą w kierunku niepożądanym przez ludzkość. Jeżeli komuś ocieplenie planety nie wydaje się dostatecznie istotnym problemem, to powinien pamiętać, że cała gospodarka światowa też potrzebuje energii. Balansowanie jednej i drugiej potrzeby ze sobą już samo w sobie stanowi dostateczną trudność. Konieczność zaopatrzenia w energię rozwoju AI może stanowić wysiłek niewspółmierny do korzyści.
Postawiona wyżej teza może się wydawać nieco naciągana. W końcu zużycie energii przez AI nie może być aż tak problematyczne w skali globalnej, prawda? Należy jednak pamiętać, że mieliśmy już do czynienia z bliźniaczo podobną rewolucją technologiczną wymagającą wyspecjalizowanego sprzętu i mnóstwa prądu. Mowa rzecz jasna o wirtualnym pieniądzu. Zużycie energii przez kryptowaluty w 2021 r. przebiło roczne zapotrzebowanie Polski. Bitcoin zużywał jej wówczas 8 razy więcej niż Google i Facebook razem wzięte.
Był to jeden z czynników, który skłonił niektóre państwa świata do wprowadzenia ograniczeń względem zawodowych „kopaczy„. Można się spodziewać, że ze sztuczną inteligencją w którymś momencie będzie dokładnie tak samo. Na szczęście rynek kryptowalut pokazuje, że w pewnym momencie przychodzi otrzeźwienie. Branża rzeczywiście postarała się zmniejszyć zużycie energii oraz globalne emisje.
Być może samoograniczenie jest rozwiązaniem także w przypadku AI, przynajmniej na krótką metę. Dalszy rozwój tej technologii może jednak tylko zwiększyć jej zapotrzebowanie. Może czas poczekać na rewolucję także w dziedzinie szeroko rozumianej energetyki?