Az Apple a Siri megújításával készül a mesterséges intelligencia korára – állítja a gyártó háza tájáról évek óta megbízható információkat szállító Mark Gurman. A Bloomberg munkatársa szerint AI-alapú webes kereső jön, olyan, amely fokozza az OpenAI-val és a Perplexity AI-val vívott versenyt.
A vállalat egy „World Knowledge Answers” nevű rendszeren dolgozik, amelyet a Siri hangasszisztensbe épít be. Az Apple közben azt is mérlegeli, hogy a Safariba és a Spotlightba ugyancsak integrálja a technológiát.
A cég várhatóan 2026 tavaszán indítja az új AI-modellt, amely egy régóta halogatott Siri-frissítés része lesz.
A terv az, hogy a Siri és az Apple operációs rendszerei olyan hellyé váljanak, ahol a felhasználók online információkhoz férhetnek hozzá, hasonlóan ahhoz, ahogy a ChatGPT vagy a Google AI Overviews funkciói működnek.
A Siri új képességeit Gurman szerint részben a Google biztosíthatja, ugyanis a két vállalat ezen a héten megállapodást kötött róla, hogy az Apple teszteli a Google mesterséges intelligencia-modelljét, amely a hangasszisztenst hivatott erősíteni.
Az új kereső szöveges, képi, videós és helyi információkat fog tartalmazni, valamint egy összegző rendszert, amely gyorsabban emészthetővé és pontosabbá teszi az eredményeket.
Az Apple és a Google szóvivői nem kommentálták a hírt, mégis, a Bloomberg beszámolója után az Apple részvényei egy nap alatt 3,8 százalékkal emelkedtek. Ez volt az elmúlt hónap legnagyobb egynapos növekedése.
Az Apple új alapokra helyezi a Sirit
A Siri jelenleg alapvető kérdésekre tud válaszolni, híres emberekről, eseményekről, filmekről vagy például sportokról ad adatokat, de összetettebb kereséseknél gyakran a Google vagy a ChatGPT eredményeit dobja ki.
A 2011-ben bemutatott és sokáig ünnepelt asszisztens azóta az Apple mesterséges intelligenciában tapasztalt hiányosságainak jelképe lett.
A Siri most zajló fejlesztésével és tervezett frissítésével az Apple személyes adatokra és a képernyő tartalmára is támaszkodhat majd. A cél a pontosabb hangvezérlés.
„A Siri teljes megújításán végzett munkánk elhozta a szükséges eredményeket. Nemcsak azt tudjuk megvalósítani, amit bejelentettünk, hanem sokkal nagyobb frissítést is, mint amilyet elképzeltünk” – jósolta Craig Federighi, az Apple szoftvermérnöki munkákért felelős vezetője.
Google, Gemini és Anthropic
Gurman úgy tudja, hogy az Apple három fő elem: egy tervező, egy kereső és egy összegző elem köré építi fel a Siri új verzióját. A tervező értelmezi a bemeneti információt, a kereső pásztázza az adatokat, az összegző pedig összeállítja a választ.
A cég a Google Gemini modelljét preferálja az összegzőhöz, amely az Apple Private Cloud Compute szerverein futhat majd, ezért a két vállalat közösen dolgozik a finomhangoláson.
Az Apple a tervező létrehozásához is fontolgatja a Google modelljét, de még vizsgálja az Anthropic Claude-ját és saját modelljeit.
A felhasználói adatok keresését a saját Apple Foundation Models technológiájával végzi, hogy óvja a felhasználói adatokat.
Korábban az Anthropic állt közelebb a megállapodáshoz, de úgy hírlik, hogy az együttműködésért több mint évi 1,5 milliárd dollárt kért. A Google ennél kedvezőbb pénzügyi feltételeket ajánlott, így az Apple tőlük kért AI-modellt.
Az ehhez hasonló fordulatok nem idegenek az iPhone-gyártótól: tavaly a Gemini chatbot integrálását is felvetette, de végül az OpenAI-jal kötött megállapodást.
Új funkciók és felvásárlási tervek
Az Apple jövőre az AI-keresés frissítései mellett új külsőt adna a Sirinek, és egy egészségügyi AI-ügynököt is kiadna, fizetős wellness-előfizetéshez kapcsolva. Mindez egyelőre nem hivatalos információ, és Gurman szerint az iPhone 17 keddi bejelentésén még nem várhatóak további részletek.
A munka a háttérben ettől függetlenül még zajlik, és várhatóan felvásárlásokat is maga után von. Az Apple tárgyalt már a Perplexity és a Mistral beolvasztásáról, idén júliusban pedig egyezkedett a Mistral vezetőivel is.
A nyáron komolyan megvizsgálták a Perplexity technológiáját, de végül saját keresőtermék piacra dobása mellett döntöttek.
Címlapkép: omid armin / Unsplash