蘋果2026年開春不僅新品齊發,3月初時接連推出iPhone 17e、M5 Pro/Max MacBook等,也加快AI應用布局腳步,與Google攜手合作,迎來Gemini為Siri撐腰,並允許Google於資料中心部署Gemini伺服器,補強自建雲端算力瓶頸,加速AI基礎設施轉型與語音助理升級。
外媒指出,蘋果可能每年支付約10億美元導入Google Gemini模型,以加速Siri AI升級。法人認為,這一舉措標誌著蘋果AI策略上的重大轉變,未來蘋果AI布局仍是裝置端AI服務和雲端AI雙線並行,不過雲端AI部分會和Google等第三方夥伴協作,以加快應用腳步、強化消費者使用體驗。
蘋果和Google在今年1月曾發表聯合聲明,表示雙方將合作開發次世代的Apple基礎模型 (Foundation Models),這將驅動未來的Apple Intelligence功能,包括將於今年推出的更具個人化的Siri,且雙方的合作將以一種個人化且具隱私保護的方式,整合至整個作業系統。
蘋果先前公布財報時也透露,認為Google的AI技術能為公司基礎模型提供強大的基礎。公司相信透過這項合作,能夠解鎖許多新體驗並進行關鍵創新,在執行面上,將繼續維持在裝置端運行以及在私有雲端運算中運作,並在過程中維持業界領先的隱私標準,而驅動個人化版本Siri的核心,可以視為蘋果與Google的協作,當然公司未來也會持續獨立研發自有的技術。
法人則指出,先前Apple Intelligence主要由OpenAI的GPT模型支援,而宣布與Google合作後,蘋果未明確說明未來裝置是否會同時支援GPT或是Gemini,或是Gemini將直接取代GPT。不過,無論是使用哪種模型,若之後蘋果持續改善終端裝置推論工作架構,加上對隱私的高度要求,將有望明顯提升消費者的AI使用體驗。