Fogalmunk sincs, mennyi energiát fogyaszt az MI, és aki tudhatja, az kamuzik erről

A mesterséges intelligencia működtetése sokkal több energiát fogyaszt, mint a hagyományos számítástechnika használata, de nem tudjuk pontosan mennyit, és akiknek van erről fogalmuk, azok ködösítenek.

Fogalmunk sincs, mennyi energiát fogyaszt az MI, és aki tudhatja, az kamuzik erről

Sam Altman, a mesterséges intelligencia (MI) első piaci modelljét kifejlesztő OpenAI vezérigazgatója egyik blogposztjában azt írta, hogy cége technológiája egy átlagos kérdés megválaszolásához 0,34 wattóra (Wh) elektromos energiát fogyaszt el. Ez annyi, amennyit egy elektromos sütő kicsit több mint egy másodperc alatt vagy egy jó minőségű égő néhány perc alatt használ fel.

Tiszta vizet öntött a pohárba Sam Altman: ennyi vizet kér a ChatGPT egy átlagos használat során

Hosszas blogbejegyzésben taglalta a mesterséges intelligencia jövőjét az OpenAI vezérigazgatója, de kitért arra is, hogy mennyit „kér” a technológia – áramból és vízből is. Szavai szerint nem olyan vészes a helyzet, de azért vannak kérdőjelek.

Tekintve, hogy az OpenAI-nak heti 800 millió felhasználója van – és ez folyamatosan nő – a sok kicsi kérdés igencsak nagy villanyszámlát eredményezhet. Ráadásul Altman adata meglehetősen homályos – írta a Wired magazin abban a cikkében, amelyben a mesterséges intelligencia energiafelhasználásának átláthatatlanságát vizsgálta.

Nyitott kérdés ugyanis, hogy a cégvezető mit értett „átlagos kérdés” alatt. Például tartalmaz-e a válasz ebben az esetben képet is, vagy sem. Továbbá csak a pillanatnyi használatot vette-e figyelembe a bölcs menedzser, vagy megpróbálta számszerűsíteni azt az energiát is, amit akkor fogyasztott az MI, amikor az „átlagos kérdés” megválaszolására felkészítették.

Nagyon nagy számok kell dobálózni

Így aztán Sasha Luccioni, a Hugging Face, aq vállalat klímapolitikáért felelős vezetője nem sokat ad Altman becslésére. Úgy gondolja, hogy azt akár hasraütéses alapon is kitalálhatta. A Wired magazin sajtómunkásai megkérdezték az OpenAI sajtóosztályát, miként számolták ki az áramfogyasztási adatot, de nem kaptak választ.

A probléma nagyságrendjét érzékelteti a Quartz magazinban megjelent cikk, amely szerint az adatközpontok jelenleg az Egyesült Államok áramtermelésének négy százalékát fogyasztják el, ami várakozások szerint a következő évtizedben kilenc százalékra növekszik. Külön probléma, hogy olyan erős a felhasználók igénye az MI-alkalmazások iránt, hogy kiszolgálásuk energiaigényének teljesítése meghaladhatja a szerverfarmok és az áramtermelő létesítmények közötti hálózatok átviteli képességét.

Luccioni ki van bukva azon, hogy ha valaki vesz egy autót, akkor a gyártó köteles megadni annak fogyasztását, azaz energiafelhasználását. Ez ugyan a gyakorlatban pontatlannak bizonyulhat, de a tapasztalatok alapján minden autós tudja, hogy egy-egy autótípus mennyit fogyaszt. Ráadásul törvényi szabályozás írja elő az adatok megadását, míg az MI-nél fel sem merül ilyesmi.

OpenAI logó, amelyet egy emberi szemre vetítenek fordítva egy párizsi stúdióban.
AFP / Joel Saget

Ha nincsenek hiteles információk, akkor marad a találgatás

A szakértő szerint erre vezethető vissza, hogy csak találgatások látnak napvilágot a mesterséges intelligencia kimeríthetetlen energiaéhségével kapcsolatban. Például állítólag a ChatGPT egy kérdés megválaszolására tízszer annyi áramot fogyaszt el, mint a Google böngészője az átlagos keresések kiszolgálására.

Ennek az adatnak a hitelességét megkérdőjelezi, hogy John Hennessy, a Google egyik tulajdonosa, az Alphabet elnöke vezette elő még 2023-ban. Így tehát a ChatGPT fejlesztője, az OpenAI versenytársától származik.

A bizonytalan becslések helyett ígéretesebb eredményt hozott egy, a nyílt forráskódú MI-modellekkel kapcsolatos vizsgálat. A Frontiers of Communication című folyóiratban megjelent kutatást Maximillian Dauner, a müncheni egyetem alkalmazott tudományokkal foglalkozó PhD-diákja vezette. Ezer rögzített prompttal bombáztak nyílt forráskódú MI-modelleket, és azt találták, hogy a válaszokhoz felhasznált energiafogyasztásban esetenként 50 százalékos különbség is lehet.

A cégek az energiafogyasztás csökkentésében is versenyeznek

Miután csak azt tudjuk biztosan, hogy a mesterséges intelligencia zabálja az áramot, fejlesztői az energiafelhasználás csökkentésében is versenyeznek egymással. A Quartz cikkéből kiderül, hogy az óriási szerverfarmok esetén a hatékonysági mutató (power usage effectiveness, PUE) egytized százalékpontos javítása megawattóránként havi 50 ezer dollárral, vagyis mostani árfolyamon 17,5 millió forinttal csökkentheti az áramköltséget.

Van hova fejlődni. Egy adatközpont, amelynek 1,5 a PUE mutatója, a betáplált elektromos energia 67 százalékát fordítja a rendszer működtetésére, a többi áramátalakítási és hűtési veszteség. A Microsoft és a Google korábban azt kommunikálta a Wired magazin cikke szerint, hogy ahol csak lehet, kisebb MI-modellek alkalmazásával próbálják csökkenteni az energiafelhasználást. További lehetőség a válaszadási sebesség növelése. Ez persze nem tuti megoldás, mert ha egy program lelassul, akkor a felhasználók keresnek egy másikat, amit elég gyorsnak találnak.

A chipfejlesztők azt állítják, hogy újabb termékeik jelentősen, akár ötödével kevesebbet fogyasztanak, mint a régiek, és persze az adatközpontok működésén, elsősorban a hűtésen is sokat lehet javítani. Dauner úgy véli, hogy akárcsak az autógyártóknak, az MI-modellek fejlesztőinek is elő kellene írni, hogy adják meg termékeik energiafogyasztási és ezzel járó szén-dioxidra vonatkozó kibocsátási adatait.

Útmutató cégvezetőknek

Útmutató cégvezetőknek

A végtelen lehetőségek iparága

Az űripar végtelen lehetőségeket nyit meg a vállalkozások előtt. Támogatási források is rendszeresen elérhetők a szektorban érdekelt piaci szereplők számára.

Mi lesz a cégemmel utánam?

Az öröklés előkészítése, a vagyon átruházása bonyolult, tudatosságot igénylő folyamat – különösen akkor, ha működő cég is van a javak között.