Mennyibe kerül valójában az AI használata?

Az AI valós költsége láthatatlan a fix havidíjak mögött. Meddig tartható fenn ez a modell a szolgáltatók milliárdos veszteségei mellett? Elemzés a token-alapú árazás hatásairól, a Cursor példájáról és a vállalati ROI-számítás elkerülhetetlenségéről.

Mennyibe kerül valójában az AI használata?

Az AI-használat egyik érdekes sajátossága, hogy a valós költsége az átlag felhasználó számára láthatatlan. A vállalati AI-felhasználók többnyire egy „per seat” fix havidíjat fizetnek.

Ez az árazás gyakorlatilag a korlátlan használat élményét adja a legtöbb felhasználónak. Ennek következtében viszont nem látszik, hogy egy-egy feladathoz kapcsolódóan mekkora valós „AI-használati” költséggel számolhatunk.

Vajon hogyan változna a használati mintázat, ha minden prompt futtatás valós árát látnánk és fizetnénk?

A jelenlegi használati modell: „flat-fee AI”

Munkahelyi, irodai környezetben jellemzően már nem az ingyenes változatokat használják, hanem a 20 EUR/hónap körüli csomagokat. Akinek ez nem elég, az a 100-200 EUR/hónap árú előfizetések magasabb korlátait és esetenként erősebb modelljeit használja.

Ez a felhasználó számára gyakorlatilag egy fix költséget jelent, amely nem tükrözi a használat mértékét. Ilyenkor a kísérletezés, a párbeszédszerű használat és a prompt-újraírás természetes része a workflow-nak.

A felhasználóknak nem kell bemenő- vagy kimenő tokenszámra optimalizálniuk, hacsak nem a kontextusablak mérete miatt. Költség szempontjából nem jelent különbséget a rövid prompt vagy egy hosszú prompt csatolt dokumentumokkal.

A háttérben: az inference költsége

Felmerül a kérdés: miért lehet egyáltalán problémás a fix havi díjas AI-használat?

A SaaS világában ez megszokott modell. Az AI esetében azonban a háttérben valójában token-alapú költségstruktúra működik. A szolgáltató költségei a beküldött és a generált tokenek számával nagyjából lineárisan arányos - csak ezt a felhasználó nem érzi.

Az AI-t használó mérnökök jelentős része tisztában van ezzel a költségstruktúrával, az átlag felhasználó viszont kevésbé. A jelenlegi üzleti modell mellett ez sokak számára inkább technikai részletnek tűnik.

A „frontier” modelleket fejlesztő cégek már elindultak a kifejezetten inferenciára optimalizált chipek alkalmazása felé. Az átállás még folyamatban van, ezért a hatása valószínűleg a közeljövőben lesz érzékelhető - várhatóan gyorsabb és olcsóbb modellhasználat formájában. Az ok egyértelmű: jelenleg GPU-kon fut az inferencia, de ezek inkább tréningre optimalizáltak, az egyszerű lekérdezések compute költsége emiatt aránytalanul magas. Ilyenek például az NVIDIA Blackwell platform, vagy a Google TPU v5p, vagy az AWS Inferentia 2 chip-ek. Egyéb forrás: Data Center Knowledge: Inference Becomes the Next AI Chip Battleground

A valós költséget azok ismerhetik igazán, akik API-n keresztül használják a modelleket. Itt ugyanis minden hívásnál a beküldött és a generált tokenek alapján kerül elszámolásra. A kimeneti tokenek ára jellemzően magasabb - jellemzően 3-5-szöröse az ár bemenetihez képest.

Akik mindkét modellt megtapasztalták - a havi előfizetéses chatbotot és az API-használatot - pontosan érzékelik a különbséget a használati mintákban.

Akik már Claude Code megjelenése előtt használtak coding agenteket, azok találkoztak ezzel a modellel. Az első eszközök - például a nyílt forráskódú Aider, ClaudeDev (később Cline) vagy a ContinueDev - API-kulcsokkal működtek.

Miért alkalmazzák mégis a flat-fee modellt?

Több oka is lehet annak, hogy a szolgáltatók fix havi díjas csomagokat kínálnak.

Az egyik egyszerű magyarázat, hogy a felhasználók ezt szokták meg a SaaS világában. A másik, hogy a frontier modelleket fejlesztő cégek között rendkívül erős a verseny. A növekedés sok esetben fontosabb, mint a rövid távú profit.

Az OpenAI és az Anthropic rendszeresen hatalmas befektetéseket von be. Ez egyelőre lehetővé teszi a viszonylag olcsó fix előfizetéseket, még akkor is, ha ezek mögött esetleg veszteséges működés áll.

Mivel ezek a cégek nem tőzsdei vállalatok, nem látjuk a pontos költség- és marginadatokat. Ha a jövőben tőzsdére lépnek, ezek a számok átláthatóbbá kell, hogy váljanak. Az elemzések mindenesetre arra utalnak, hogy jelenleg veszteségesek. Forrás - OpenAI: R&D World - Facing $14B losses in 2026, OpenAI is now seeking $100B in funding

Egy másik magyarázat a „usage smoothing”. Ebben a modellben a sok alacsony használatú felhasználó finanszírozza azt a kisebb csoportot, amely nagyon intenzíven használja a szolgáltatást.

Ez azonban hosszú távon nem tűnik stabil modellnek.

Erre példa lehet a Cursor kódolási eszköz tavalyi árazási változása, amikor a fix havi díjas modellről használat-alapú elszámolásra váltottak.

A használat logikája

Ha a költség nem látszik a felhasználó számára, az AI-használat természetes módon kezd hasonlítani ahhoz, ahogy emberek dolgoznak egymással távmunkában.

Sokan nem egyszerű eszközként használják a chatbotot, hanem egyfajta gondolkodási partnerként.

Ez például így jelenik meg:

  • több egymás utáni prompt egy probléma körbejárására
  • brainstorming jellegű beszélgetések
  • hosszabb kontextusok megosztása
  • folyamatos iteráció egy válasz javítására

Ez a működés nem költségoptimalizált - de nem is irracionális.

Az emberi együttműködés is hasonlóan működik. Ritkán fogalmazunk meg mindent elsőre tökéletesen. A gondolatok gyakran párbeszédben alakulnak ki.

Komplett dokumentumokat küldünk át egymásnak, jelezve, hogy melyik oldalon van a releváns rész - nem pedig minden esetben kivágjuk a pontos idézeteket.

A jelenlegi AI-termékek ezt a használati mintát kifejezetten támogatják. Ez a működés azonban csak addig természetes, amíg a valós költség a háttérben marad, és nem jelenik meg közvetlen döntési tényezőként.

A kérdés inkább az, hogy mi történne, ha a költségstruktúra egyszer láthatóvá válna.

Ha minden szolgáltató bevezetné a token-alapú árazást

Mi történne, ha az AI-szolgáltatók teljesen token-alapú elszámolásra váltanának?

Intő példa lehet az Anysphere lépése. Tavaly nyáron a Cursor AI kódolási eszköz feladta a fix havi díjas árazást, és használatalapú modellre váltott. Az intenzív „power user” használat mellett a korábbi modell jelentős veszteséget termelt, ezért a növekedés nem volt fenntartható.

A váltás kezdetben ellenállást váltott ki, de a cég az enterprise ügyfelek felé fordulva 2026 elejére rekordbevételt és gyors felhasználónövekedést ért el.

A bevétel jelentős részét azonban továbbra is külső API- és inferencia-költségek viszik el, ezért a Cursor most saját, kódolásra optimalizált modellek fejlesztésével próbálja csökkenteni a függését a nagy AI-laboroktól. Forrás: aifundingtracker.com

Bizonyos workflow-k esetében érdemes lehet tokenszám-optimalizációt végezni. Más esetekben viszont nem feltétlenül - mivel az LLM-ek kimenete nem determinisztikus, ezért minden egyes workflow külön mérlegelést kívánhat, amikor tokenszám-optimalizációról van szó.

Néhány példa arra, hogy mely workflow-k lehetnek érintettek:

  • Szoftverfejlesztők: egy konkrét feature-höz tartozó több körös, iteratív kódgenerálás-munkamenet percek alatt elfogyaszthat néhány dollárnyi API-költséget, és semmi nem garantálja, hogy az eredmény egyből használható - ez saját közvetlen tapasztalatom, de a beszélgetéseinkben több fejlesztő is hasonlókról számolt be. Ahogy a forráskód mennyisége növekszik a projekt előrehaladtával, a szükséges is kontextus növekszik az iterációk során és a költség akár exponenciálisan is emelkedik - egy egyszerűnek tűnő feladat megoldás többe kerülhet már a második-harmadik hónapban, mint a projekt kezdetén.
  • Dokumentum-feldolgozás: naiv használat esetén először egy 100 oldalas PDF feltöltése, majd kérdés feltevése, új kérdés, újabb kérdés - gyorsan több tízezer token. Egy optimalizált workflow-ban egy kiépített RAG pipeline esetén csak a releváns rész kerül a prompt-ba.

Ahogy a fenti példákból is sejthető, a probléma leginkább az, hogy ez a tokenszám-optimalizálás sokszor folyamat-tervezési vagy automatizálási gondolkodást igényelne. Ez a kompetencia valószínűleg nem az átlag irodai chatbot-felhasználó erőssége.

Amennyiben feltételezzük, hogy a nagy chatbot-szolgáltatók jelenlegi üzleti modellje fenntarthatatlan, felmerülhet a kérdés, hogy helyette mi várható?

Az egyik valószínűsíthető forgatókönyv egy hibrid modellre váltás.

Ebben a nagyvállalati felhasználók token-alapú számlázást kapnának, cserébe a legerősebb modellekhez férnek hozzá. Az egyéni felhasználók ezzel szemben gyengébb vagy napi lekérdezések számában erősen limitált modelleken maradhatnak a fix díjas csomagoknál.

Miért érdekes ez a vállalatok számára?

A vállalatok többsége még mindig az ad-hoc AI-használat fázisában van. (Az AI-Tájoló hírlevél első számában írtam erről.)

Egyre több helyen elhangzik az a mondat, hogy „AI-t használni kell”. A mérőszám sokszor az, hogy hányan használják - nem az, hogy milyen hatással van a munkára.

Az utóbbi hetekben több beszélgetésben is előkerült, hogy bizonyos munkahelyeken már kötelező az AI-használat. Egy műszaki kiskereskedelemben dolgozó ismerős például azt mesélte, hogy egy korábbi, egyszerű Excel-workflow-ját AI-eszközre kellett cserélnie. A sok hallucináció és az ellenőrzési munka miatt a feladat ideje a korábbi napi 30 percről kezdetben 2 órára nőtt. Több hét kísérletezés után sikerült ezt körülbelül 45 percre csökkentenie. Hasonló történetek több beszélgetésben is előkerültek, még ha a konkrét workflow-k különböztek is.

Érdemes elképzelni, mi történne olyan szervezetekben, ahol nincs AI-felelős vagy világos ownership.

Ha a token alapú árazás megjelenne, arra a két legvalószínűbb reakció:

  • megjelenik az igény a ROI-számításra - amely esetleg eddig azért nem volt jelen, mert a fixáras előfizetések költsége viszonylag alacsony
  • korlátozzák az AI-használatot - “nincs szükségünk egy tervezhetetlen költségtételre” alapon

Azok a cégek, amelyek eleve gazdaságosan bánnak a tokenekkel - függetlenül attól, hogy ez mennyire tudatos - hirtelen előnybe kerülhetnek - továbbra is feltételezve, hogy bármilyen előnyt jelent az AI-használat.

A használat-alapú számlázás ráadásul nehezebben tervezhető. Egy hónapban lehet, hogy csak néhány száz euró a teljes AI-költség, egy másik projekt vagy ügyfél esetében viszont ennek sokszorosa is lehet.

Kérdés a hétre

Nálatok jelentene valódi problémát, ha a mostani fix díjas előfizetések helyett valós token-alapú elszámolásra kellene váltani?

Esetleg már most is így működtök?

Válaszokat szívesen fogadok a szokásos e-mail címen:

laci@mentorandorient.hu

Iratkozz fel a AI Tájoló hírlevélre.

A hírlevél teljes archívumát és a tagoknak szóló exkluzív írásokat feliratkozással éred el.
Kovács Péter
Feliratkozás