Használod te is a Chat GPT-t így? Megdöbbentő felfedezések láttak napvilágot a működéséről, amelyek katasztrofális következményekkel járhatnak - Pénzcentrum.

A mesterséges intelligencia ma már szinte minden digitális tevékenységbe beépült - képeket generál, kérdésekre válaszol, utazást szervez -, de kevesen gondolnak bele, hogy mindez hatalmas energiaigénnyel jár. Az MI működéséhez szükséges adatközpontok egyre több áramot emésztenek fel, gyakran szennyező forrásokból. Egy friss elemzése szerint az AI energiafogyasztásáról szóló adatok aggasztóan hiányosak, a nyilvános tervek homályosak, miközben a nagy techcégek már atomerőműveket építenek és százmilliárdokat költenek AI-infrastruktúrára. A kérdés már nem csak technológiai: ki fizeti meg az MI korszakának egyre drágább villanyszámláját - és milyen áron?
Az elmúlt években, hónapokban számtalanszor foglalkoztunk a mesterséges intelligenciával - nem véletlenül. Az AI megjelenése alapjaiban forgatta fel azt, ahogyan tanulunk, dolgozunk, információt keresünk vagy akár döntéseket hozunk. Etikai kérdéseket vet fel a gépi döntéshozatal felelősségéről; jogi vitákat indított el a szerzői jogoktól az adatvédelemig; miközben a munkaerőpiac átalakulása miatt sokan már most a szakmájuk jövőjét féltik. Az oktatásban is újrarajzolja a tanulás és tanítás kereteit, miközben egészségügytől a büntetőjogig számos területen kap szót olyan ügyekben, ahol eddig csak emberek dönthettek.
Az AI térhódítása mögött rejtőzik egy olyan aspektus is, amely bár nem kap annyi figyelmet, mint amennyire érdemes lenne: a mesterséges intelligencia klímára gyakorolt hatása. Érdekes, hogy még olyan elismert szakértők, mint Ürge-Vorsatz Diána is elfeledkeznek erről a kérdésről a klímakatasztrófa fő indikátorai között. Sam Altman, az OpenAI vezetője viszont figyelmeztetett arra, hogy még a legegyszerűbb udvariassági kifejezések, mint a "kérem" vagy "köszönöm" is jelentős karbonlábnyomot hagyhat, amikor chatbotokkal kommunikálunk. Ez a jelenség rávilágít arra, hogy az AI fejlődése nem csupán technológiai, hanem környezeti kihívásokat is magával hoz, amelyeket sürgősen meg kell vitatnunk.
Talán ez az egyik legnagyobb, láthatatlan veszélyforrás? Rab Árpád, a jövőkutatás szakértője, egy korábbi interjúnkban figyelmeztetett arra, hogy az AI rendkívül energiaigényes technológia. Bár folynak fejlesztések annak érdekében, hogy idővel csökkentsék ezt az energiaigényt – mint például új típusú hűtési rendszerek bevezetése, vagy a szerverfarmok által termelt hő lakóépületek fűtésére való felhasználása –, a helyzet jelenleg aggasztó. Amíg az adatközpontok száma és a futtatott lekérdezések mennyisége folyamatosan növekszik, az AI energiaéhsége, és ezzel együtt a karbonlábnyoma is folytatja dominálását. Azonban a valós helyzet mértéke talán nem is olyan nyilvánvaló, mint gondolnánk.
A mesterséges intelligencia az elmúlt évtized egyik legmeghatározóbb digitális átalakulása. Emberek milliói támaszkodnak rá naponta: csevegőrobotok segítik a házi feladatok elvégzésében, kreatív képek születnek, programkódok íródnak, kutatások folynak, és utazások terveződnek általa. Azonban mindezek mögött hatalmas számítógépes rendszerek működnek, amelyek árammal üzemelnek. Ezek az eszközök jelentős energiafogyasztással bírnak, gyakran többel, mint ahogyan azt elsőre gondolnánk.
Az MIT Technology Review részletes kutatása rámutatott, hogy az AI tényleges energiafogyasztása még mindig nagy mértékben ismeretlen. A cikk megírása során a szerzők több mint húsz szakértő véleményét kérték ki, és több száz oldalnyi elemzést dolgoztak fel, emellett pedig a vezető AI-vállalatok jövőbeli terveire is rákérdeztek. Az eredmény pedig egyértelmű: az AI-hoz kapcsolódó energiafelhasználásról folytatott diskurzus súlyosan hiányos, és sok esetben téves irányba terelődik.
A kérdés valóban egyszerűnek tűnik: mennyi energiát fogyaszt egyetlen mesterséges intelligencia lekérdezés? Bár elsőre talán jelentéktelennek hathat, például egy kép létrehozása vagy egy válasz megfogalmazása, a helyzet akkor válik igazán összetetté, amikor ezek a folyamatok naponta milliárdnyi alkalommal zajlanak. A mesterséges intelligencia nem csupán a chatbotok világában található meg; fokozatosan beépül a keresőmotorok működésébe, digitális asszisztensekbe, sőt, már a mindennapi élet szerves részévé vált olyan alkalmazásokban is, mint az online vásárlás, az utazás tervezése vagy az edzések nyomon követése.
A techóriások már nemcsak az adatközpontokat bővítik, hanem az energiaellátásukat is új alapokra helyezik. A Microsoft és a Meta például új atomerőművek beindításán dolgoznak. Az OpenAI és Donald Trump közösen hirdették meg a Stargate programot, amely 500 milliárd dollárt költene tíz olyan adatközpontra, amelyek egyenként is egy egész amerikai állam - például New Hampshire - teljes áramfogyasztásával vetekednének. Az Apple szintén 500 milliárdot költ négy év alatt gyártásra és adatközpontokra, a Google pedig 75 milliárd dollárt irányoz elő 2025-ben kizárólag AI-infrastruktúrára.
Az AI által kiváltott energiaéhség egyedi. Nem hasonlítható a hagyományos internetes szolgáltatásokhoz. Míg 2005 és 2017 között az adatközpontok energiafogyasztása szinte stagnált (a hatékonyságnövekedés miatt), az AI megjelenése után a görbe kilőtt. 2023-ra az adatközpontok áramfelhasználása megduplázódott. Jelenleg az USA teljes energiafogyasztásának 4,4%-át emésztik fel ezek a központok, és az általuk használt áram szén-dioxid-intenzitása 48%-kal magasabb az országos átlagnál.
A jövő még izgalmasabb és drámaibb fordulatokat tartogathat számunkra: a Lawrence Berkeley National Laboratory előrejelzése szerint 2028-ra az adatközpontok energiafogyasztásának több mint fele a mesterséges intelligencia működtetésére fog elmenni. Ez annyi áramot igényelhet, mint amennyit az Egyesült Államok háztartásainak 22%-a használ el.
A növekedés sok esetben nem is fenntartható módon történik. Az adatközpontok egyre inkább visszanyúlnak a gyorsan elérhető, de környezetszennyező energiaforrásokhoz - például földgázhoz -, hogy kielégítsék az azonnali kapacitásigényeket. És mindez egy olyan technológiáért történik, amely sok esetben még kísérleti fázisban van. Oktatás, orvosi tanácsadás, jogi elemzések - ezekben a területeken gyakran lenne energiatakarékosabb megoldás az AI helyett.
Az energiafogyasztásra vonatkozó adatok ráadásul zavarba ejtően hiányosak. A nagy AI-cégek kevés információt osztanak meg arról, hogy egy-egy interakció pontosan mennyi energiát emészt fel. Ez megnehezíti az energiahatóságok és közműcégek tervezését, ami végül magasabb lakossági villanyszámlákhoz vezethet.
Mielőtt az mesterséges intelligencia képes lenne válaszolni egy kérdésre vagy képet létrehozni, először meg kell ismerkednie a szükséges lépésekkel. Ezt a folyamatot nevezzük a modell betanításának, amely rendkívül nagy mennyiségű energiát igényel.
Az OpenAI GPT-4 modelljének kifejlesztése körülbelül 100 millió dollárba került, és energiaszükséglete 50 gigawattóra volt, ami megközelítőleg San Francisco három napos teljes áramfogyasztásának felel meg. A vállalatok ezeket a kiadásokat csak később tudják megtéríteni, amikor a felhasználók elkezdik "lekérdezni" a modelleket, amit inference-nek neveznek. Egy Microsoft kutató megjegyezte, hogy az energiafogyasztás 80-90%-a ma már az inference folyamat során keletkezik, nem pedig a modell betanítása alatt.
Az Egyesült Államok területén körülbelül 3000 adatközpont található, amelyek a mesterséges intelligencia modellek tanulmányozására és üzemeltetésére specializálódtak. Ezeket a létesítményeket nem csupán a technológiai óriáscégek, mint az Amazon és a Microsoft irányítják, hanem kisebb AI-startupok is kihasználják a bennük rejlő lehetőségeket. Az ilyen központok tele vannak szerverekkel és fejlett hűtőrendszerekkel, és a legújabb trendek szerint egyre több közülük kifejezetten az AI-igények kielégítésére van optimalizálva.
Mégis, hol találhatóak ezek a rendszerek, és pontosan mekkora energiát igényelnek? Milyen forrásból nyerik az áramot? Ezekre a kérdésekre alig kapunk egyértelmű választ. Az átláthatóság hiánya miatt még azok is bizonytalanul navigálnak, akik az energiahálózat jövőjét kívánják megtervezni.
A mesterséges intelligencia fejlődése megállíthatatlan folyamat, amely új kihívások elé állít minket. Az igazi kérdés nem az, hogy az AI terjedését megakadályozzuk, hanem az, hogy milyen módon alakítjuk ki az ehhez szükséges energiaellátó rendszereket. Hol helyezkedjenek el az adatközpontok? Milyen energiaforrásokat válasszunk? Ki fogja viselni a költségeket? Ahhoz, hogy válaszokat találjunk, elengedhetetlen, hogy valós, átlátható és nyílt adatokra, valamint megfelelő szabályozási keretekre támaszkodjunk. Az AI jövője már a küszöbön áll, és minden jel arra mutat, hogy a jelenlegi energiafogyasztás csupán a kezdet. A valódi kihívások és terhelések most kezdődnek.