一年一度的開發商大會Google I/O在台北時間12日凌晨登場,有別於往年直白的AI(人工智慧)火力展示,今年Google格外強調對用戶日常生活「有用」,不再需要對智慧音箱先說出喚醒指令再詢問,而是看著鏡頭說出需求即可,或是可以一面以Google Lens拍照一面語音詢問這是什麼鳥,AI都隱身於背景協助,以便打造更實用、更貼近與真人對話時的體驗。
Google在這屆I/O不斷強調「有用」(Useful),比如說要喚醒任何一種語音助理時,都必須先說出喚醒關鍵字,很不符合人性,Google宣布推出「Look and Talk」,用戶只要在帶有鏡頭的Google家用智慧螢幕前看著螢幕就可以下達指令,就像聲控老公倒水差不多,Google表示,Look and Talk一共用了六個機器學習模型,來處理相機及麥克風蒐集超過100個訊號,例如鄰近感應距離、頭部轉動角度、凝視方向、脈絡感知、意圖分類等,並據此即時判定。
Google助理在Google多年來各種從自然語言模型、演算法、機器學習中,開始了解人類講話「嗯」「啊」等停頓,並且做成功的判斷與預測,搜尋到用戶需要的資訊。然而這些新的AI功能都是以英文為主,加以繁體中文市場不夠大、開發的順序偏後,台灣用戶都無法享受到。
而面對Meta(原臉書)強打VR元宇宙一時之間成為全球科技圈與股市顯學,Google執行長皮查(Sundar Pichai)在開場專題演說結束前5分鐘,話鋒一轉意有所指地表示,現實世界真的很美好,不需要逃離,AR可以協助人類活在當下、過得更好,他並藉由影片展示Google的AR眼鏡原型機,這款AR眼鏡能夠在不同語言間即時翻譯,不僅出國旅遊、移民家庭、聽障人士都很適用,不過Pichai沒有揭露AR眼鏡的量產時程。