今年在資本市場推波助瀾下,各式生成式AI「核彈級應用」持續出爐。KPMG顧問部營運長謝昀澤表示,生成式AI盛宴仍有三缺,包括缺食材(運算資源)、缺廚師(會靈活運用AI的人才)、缺菜單(Al應用深度與廣度)。
此外,謝昀澤認為,人對AI的信任度,有如消費者食安疑慮,必須正視且有效解決,未來可透過「以AI技術進行AI生成內容的辨識工具」、及「可匿蹤但不可否認的浮水印」兩大黑科技「防深(偽)術」強化AI內容信任度。
被OpenAI稱為「世界模擬器」 的Sora即將推出,一鍵生成幾可亂真影片的能力除顛覆使用者的眼球世界,更推翻真實世界的信任基礎。
謝昀澤分析,最新AI技術生成的影像,破綻都不在主體,因此已經很難用肉眼判別;反而是用AI技術判定圖像是否為AI生成,成效顯著且可合理說明判定原因,替未來AI多媒體內容的自動化確信機制增加可行性。
謝昀澤提醒,使用者對網路影音過去的認知是「有片有真相」,以後要轉變為「保持懷疑,確信來源」,才能夠在生成式AI普及的網路世界中,具備基本的「防深(偽)術」。
針對Meta等數位內容巨頭正聯合發展共同的浮水印技術,謝昀澤認為,將AI生成的數位內容放上浮水印註明出處、日期等資訊,是「責任AI (Responsible AI)」建立透明化的信任工程基礎。
只是目前傳統浮水印會影響畫面美觀,網路傳布的影像因為經過加工及壓縮,可能破壞浮水印標記,因此預測未來的新技術必須要達成識別標誌可以匿蹤,但又有「不可否認性」的數位憑證效果。
謝昀澤強調,後AI時代最重要的即是建立AI治理規範,以提升使用者對AI的信賴度,除了期待相關的防偽技術突破,如AI基本法等AI及電子簽章新法的增修、數位內容發布平台的自律,與使用者AI素養的提升,也都是關鍵。