image
20251013陳穎芃/綜合外電報導

Google前CEO示警:AI防護機制脆弱

 在各家AI新創公司及科技大廠爭相訓練AI模型之際,Google前執行長施密特(Eric Schmidt)警告,目前AI模型的防護機制還相當脆弱,易受駭客入侵,還可能因此學會如何殺人。

 施密特參加10月8至9日舉行的科技高峰會Sifted Summit時警告,AI模型存在被駭入與濫用的風險,甚至可能學會致命技能。他表示:「AI是否可能出現擴散問題?絕對有可能。」

 施密特指出,AI模型無論開放或封閉,都有「被駭客入侵移除安全防護」的證據。他表示:「AI模型在訓練過程中會學到許多事,但在壞的情況下可能學會如何殺人。」

 他補充:「開發AI模型的主要公司都禁止AI模型回答這類問題,但有證據顯示這些防線可能被逆向破解。」

 CNBC新聞網站報導,AI模型遭到駭客攻擊的常見手法有兩種,一是透過提示注入(prompt injection),二是越獄(jailbreaking)。前者是由駭客將惡意指令藏於使用者輸入或網頁、文件等外部資料中,誘使AI執行不該做的事,例如洩露私人資料或執行有害命令。後者則是透過操弄回應或複雜提示,讓AI忽視內建安全規則,產生禁忌內容或危險內容。

 2023年ChatGPT問世後不久,就曾發生駭客透過「越獄」創造DAN(Do Anything Now)分身的案例。這個分身被迫遵從威脅語言,能提供犯罪手法或其他不當內容。

 施密特警告目前尚無完善的「AI不擴散制度」可有效遏阻這類風險,且AI模型易於被逆向或改寫,帶來不可預見的安全問題。

 他認為企業雖已採取防護措施使模型不回應危害性問題,但這些防線並非萬無一失,仍有被破解的證據與案例。