Megérkezett a Red Hat Enterprise AI
2026-02-25

Red Hat OpenShift AI 3.3: Új szintre lép a vállalati AI-infrastruktúra

2026-03-04

Red Hat OpenShift AI 3.3: Úton a kísérleti fázistól az "éles bevetés" felé

A mesterséges intelligencia (AI) világában ma már nem az a legnagyobb kihívás, hogy egy modell működik-e kísérleti környezetben, hanem az, hogy hogyan válik belőle stabil, skálázható és megfelelően szabályozott üzleti szolgáltatás. A Red Hat legújabb bejelentése, az OpenShift AI 3.3 pontosan erre a kritikus pontra fókuszál: hidat épít a fejlesztői agilitás és a szigorú vállalati governance elvárások közé.

A frissítés legfontosabb újdonságai a központosított asset-kezelés, a multi-model architektúrák támogatása és a hatékonyabb erőforrás-kihasználás köré fókuszálnak.

AI Hub: A vállalat központi modellkatalógusa

Ahogy a vállalatok túllépnek az egyedi pilot projekteken, a modellek átláthatósága és kezelhetősége kulcskérdéssé válik. Az OpenShift AI 3.3-ban bemutatkozó AI Hub egyfajta "single source of truth" szerepet tölt be: itt regisztrálhatók és verziózhatók az AI assetek (elsőkörben az LLM-ek, a jövőben pedig az MCP szerverek is).

Az AI Hub azonban több, mint egy egyszerű lista. A Red Hat modellvalidációs programjának köszönhetően közvetlen betekintést nyújt a hardverigényekbe, a várható latenciába és az átviteli sebességbe is. Segít az üzemeltetőknek abban, hogy a fejlesztőket már a projekt elején a leghatékonyabb konfigurációk felé tereljék.

Model-as-a-Service (MaaS) – Kontrollált skálázódás

A fejlesztők és adattudósok számára gyakran az infrastruktúra-kezelés jelenti a legszűkebb keresztmetszetet. A Red Hat válasza erre a Model-as-a-Service megközelítés:

  • Központosított kiszolgálás: A platformcsapat kezeli a modellek futtatását és optimalizálását, a fejlesztők pedig kész API végpontokat kapnak, amin azonnal elindulhat a munka.

  • Granuláris szabályozás: Az adminisztrátorok a felületen keresztül finomhangolhatják a hozzáférési irányelveket és a kvótákat. Megkülönböztethető például a napi feladatokhoz használt kisebb modellek és a nagy erőforrásigényű „frontier” modellek erőforrás-kerete.

  • llm-d integráció: Ez a Kubernetes-natív, elosztott inferencing framework felel a kérések intelligens route-olásáért, biztosítva a hardver maximális kihasználását az SLA-k sérelme nélkül.

Generative AI Studio: Játszótér és prototípus-gyár

Az új Gen AI Studio egy interaktív környezetet biztosít a promptok, paraméterek és a Model Context Protocol (MCP) eszközök teszteléséhez.

  • A fejlesztők importálhatják saját MCP szervereiket, ezzel pontosan szabályozva az AI agentek viselkedését.

  • A „View Code” funkcióval a stúdióban kikísérletezett beállítások azonnal exportálhatók, így a prototípustól a kódolásig vezető út jelentősen lerövidül.

Teljesítmény-optimalizálás és MLflow

Az élesbeállás legnagyobb gátja gyakran a költség és a modell minőségének esetleges romlása (drift). Az OpenShift AI 3.3 két kritikus eszközzel támogatja ezt a folyamatot:

  1. LLM Compressor & GuideLLM: Beépített workflow-k segítik a modellek tömörítését és kvantálását, így kisebb hardverigény mellett (például olcsóbb GPU-kon) is nagy teljesítmény érhető el.

  2. MLflow integráció (Developer Preview): Ez adja a rendszer "történelmi memóriáját". Itt követhetők nyomon a kísérletek eredményei, mérhető az optimalizálások hatása, és vizuálisan is ellenőrizhető, hogy a teljesítmény növelése nem ment-e a pontosság rovására.

Mit jelent ez az ügyfelek számára?

Az OpenShift AI 3.3-as verziója egyértelművé teszi: az AI már nem csak kutatási terület, hanem a vállalati IT szerves része. A platform segítségével az ügyfelek képesek lesznek saját belső AI-szolgáltatókká válni, ahol a biztonság, a szabályozottság és a költséghatékonyság kéz a kézben jár a modern fejlesztői élménnyel.