A vállalatok számára az AI és a felhő már nem csupán kutatási terület – elindult a széleskörű bevezetés, és ezzel párhuzamosan a felhőalapú infrastruktúra átalakulása. A vállalatok két stratégiai irányra koncentrálnak: a meglévő on-premis rendszerek felhőbe költöztetésére, illetve a generatív AI alkalmazások integrációjára. Az új generációs AI-megoldások felhőfüggők, így a migrációs ütem is felgyorsult.
Az AI-alkalmazások elterjedése azonban új típusú kihívásokat is hozott. Az egyszeri költséggel járó modelltréning helyett a folyamatosan ismétlődő, erőforrás-igényes inference (értelmezés) költsége vált kulcskérdéssé. A költségek előrejelezhetetlensége miatt a vállalatok gyakran kénytelenek korlátozni a modellhasználatot, vagy csak szűk, kiemelt üzleti esetekben alkalmazni azt.
„Az AI-értelmezés költségei mára kritikus korláttá váltak az üzleti skálázás útján”
– mondta Rachel Brindley, a Canalys (Omdia) vezető igazgatója.
Hyperscaler verseny: Microsoft és Google gyorsul, AWS fékez
A három vezető felhőszolgáltató – AWS, Microsoft Azure és Google Cloud – továbbra is dominálja a piacot, együttesen 65%-os részesedéssel. A trió 24%-kal növelte éves árbevételét, ugyanakkor a növekedés mértéke szolgáltatónként eltérő:
-
Microsoft Azure felhő: 33%-os éves növekedés, 23%-os globális piaci részesedés. Az AI-használat 16 százalékponttal járult hozzá a növekedéshez, és a GPT-4.1 modellek elérhetősége, illetve az Azure AI Foundry platform térnyerése kulcsfontosságú szerepet játszott. A platformon már több mint 70 ezer vállalat fejleszt, az egy negyedév alatt feldolgozott tokenek száma pedig meghaladta a 100 billiót.
-
Google Cloud felhő: 31%-os növekedés, 10%-os piaci részesedés. Bár a kereslet továbbra is erős, kapacitásproblémák visszavetették a rendelésállományt. A Gemini 2.5 modell és a Google AI Studio iránti érdeklődés azonban robbanásszerűen nőtt.
-
AWS felhő: Bár továbbra is piacvezető 32%-os részesedéssel, növekedése 17%-ra lassult, részben az AI-keresletet nehezen kiszolgáló ellátási problémák miatt. Ennek kezelésére az Amazon fokozta Trainium chipjeinek bevezetését, amelyekkel 30–40%-os ár-teljesítmény előnyt ígér az NVIDIA alapú megoldásokkal szemben.
A költséghatékony AI jövője: saját fejlesztésű chipek, célhardverek
Az AI-értelmezés hatékonysága érdekében a hyperscalerek – AWS, Azure és Google Cloud – egyre inkább saját fejlesztésű hardverekkel lépnek piacra. Ezek közé tartozik az Amazon Trainium, a Google TPU, valamint dedikált AI-instanciák és inferencia-optimalizált infrastruktúrák. A cél: csökkenteni az AI-használat költségeit és növelni a szolgáltatások versenyképességét.

Yi Zhang, a Canalys elemzője szerint:
„Az AI-használat volumenalapú árképzése (token vagy API-hívás alapon) egyre nehezebbé teszi a költségtervezést. Ha a költségek túl magasak vagy kiszámíthatatlanok, az gátolja az AI-kommerszializációt.”
Infrastrukturális beruházási verseny világszinten
A vezető szolgáltatók nemcsak technológiailag, de földrajzilag is terjeszkednek:
-
AWS: új régiót nyit Chilében, 4 milliárd USD beruházással.
-
Microsoft: 10 országban nyitott új adatközpontot, és 50%-kal csökkentette az AI-token költségeit.
-
Google Cloud: új svédországi régióval immár 42 országban van jelen, emellett 7 milliárd USD-t költött iowai adatközpontjára.
A felhő nemcsak alapinfrastruktúra, hanem AI-gyorsító
A Canalys (Omdia) szerint az AI alkalmazása nem csupán technológiai, hanem gazdasági hajtóerő is. Aki lemarad a felhő- és AI-infrastruktúra terén, az az üzleti versenyben is hátrányba kerülhet.
A kérdés már nem az, hogy „kell-e felhő”, hanem az, hogy mennyire gyorsan és hatékonyan tud egy vállalat migrálni és AI-képességeket építeni. A 2025-ös év a felhő- és AI-összefonódás éve lesz – és ez új döntési logikát, új költségmodelleket és hosszú távú technológiai partnerségeket kíván meg a vállalatoktól.
(Kép: Unsplash)