Az Apple a közelmúltban bejelentette, hogy a Siri személyre szabott, mesterséges intelligencián alapuló funkcióinak megjelenése jelentős csúszásban van: az eredetileg az iOS 18.4-es, majd 19-es frissítéshez ígért újítások csak 2026-ban érkeznek meg. Ez a fejlemény nagy port kavar az AI és a hangalapú asszisztensek világában, hiszen a technológiai óriás meglehetősen sokáig tervezett újításokat halasztott el, miközben riválisai, például a Google Gemini és az OpenAI ChatGPT már előrébb járnak a piacon.
Mi történt a Siri fejlesztése körül?
A Siri mögött álló fejlesztőcsapat munkáját több összetett probléma is hátráltatja. Egyik legfontosabb tényező, hogy a Siri-csapat többször áthelyezésre került az Apple különböző részlegei között. Ez a szervezeti átalakulás megakasztotta a folyamatos fejlesztést, hiszen a koordináció hiánya és a vezetői döntések következetlensége miatt a csapat nem tudta zökkenőmentesen folytatni a munkát.
Ezen felül számos szoftverhiba és technikai integrációs nehézség is lassította a tesztelési fázisokat, így az eredeti ütemterv nem tartható. Ezek az akadályok összességében hónapokra tolták el a funkciók bevezetését.
WWDC 2025: Más AI-újdonságokra fókuszál az Apple
A június 9-i WWDC 2025 programja is erre a stratégiára utal. Az esemény fókuszában az "Apple Intelligence" képességeinek bővítése áll majd, míg a Siri személyes kontextusú, komplex, több lépéses feladatokra alkalmas képességeivel kapcsolatos újdonságokra nem számíthatunk még. A vállalat inkább AI-alapú akkumulátor-menedzsment módot, virtuális egészség-coachot és a Google Gemini integrációját helyezi előtérbe, ami a ChatGPT alternatívája lesz az iOS 19-ben.
Marketing stratégia váltás: a Siri név leválasztása?
Az Apple jelenleg azt is tervezi, hogy különválasztja a Siri márkanevet az "Apple Intelligence" márkától, mivel a korábbi Siri-élmények sok felhasználó számára nem voltak kielégítőek. Ez az elképzelés azt jelzi, hogy a vállalat megújult arculattal szeretné visszaszerezni a felhasználók bizalmát az AI-alapú asszisztensek piacán.
AI-tréning és minőségellenőrzés: valódi és szintetikus adatok keveréke
Az Apple fejlesztési stratégiájában egyedülálló módon kombinálja a mesterséges szintetikus adatokat az iPhone-okból automatikusan begyűjtött, személyhez nem köthető nyelvi mintákkal, hogy finomhangolja az AI-modelleket. Ezt a folyamatot kiterjedt emberi ellenőrzés is támogatja: Texasban, Spanyolországban és Írországban több ezer elemző dolgozik azon, hogy a "Apple Intelligence" válaszairól készített összefoglalókat összevessék az eredeti forrásanyagokkal, kiküszöbölve így a pontatlanságokat és torzításokat.
Az új Siri: LLM-alapú monolitikus modell Zürichből
Az Apple zürichi AI-központjában pedig zajlik az átállás a korábbi hibrid architektúráról egy teljesen nagyméretű nyelvi modell(ALM, LLM) alapú, úgynevezett "monolitikus" Siri-projektre. Ennek célja, hogy a Siri sokkal természetesebb párbeszédet folytasson, jobban összegezze az információkat és gyorsabban adjon válaszokat. A projekt nemcsak technológiai újítás, hanem stratégiai lépés is, amellyel az Apple ismét fel szeretne zárkózni versenytársaihoz.
Hol tart a piac, és mit jelent ez az Apple számára?
A hangalapú asszisztensek versenyében jelenleg a riválisok, mint a Google Gemini és az OpenAI ChatGPT vezetnek. Az Apple azonban szakmai és szervezeti problémái miatt lemaradt, ám a 2026-ban érkező LLM Siri bemutatása új lendületet hozhat a cég számára. Az elkövetkező időszak az Apple Inteligence további fejlesztéséről szól majd, és a Siri átállása után a vállalat reményei szerint újra megerősítheti helyét az AI-piacon.
A legfrissebb információk szerint tehát a felhasználóknak nagy türelemmel kell lenniük a személyre szabott, intelligens Siri funkciók megérkezéséig – a változások viszont akár teljesen átformálhatják a hangalapú asszisztens használatáról alkotott elképzeléseinket.
Ha szeretnél bővebben olvasni az Apple AI fejlesztéseiről, ajánljuk az Apple hivatalos híreit.
Hozzászólások
-