image
20260125社論

正視生成式人工智慧濫用下的「大腦外包」風險

image
人工智慧模型再強大的識別能力與資訊處理,並不能夠如同人類理解與判斷,唯建立嚴謹的驗證、交叉比對與審核機制,並在合適情境中善用人工智慧,同時確保由人主導專業判斷,才能在降低風險下,極大化人工智慧的價值。圖/美聯社

 隨著大型語言模型進步,生成式人工智慧已成為各行各業重要的輔助工具,然而許多研究發現聊天機器人的結構性特性,使用者往往低估其決策錯誤的風險。需正視其潛在的危害。

 資訊幻覺(Hallucination)是生成式人工智慧最為一般人所熟知的問題。常見的包括生成虛假的資料(Fabricated Data)、錯誤資訊(Incorrect Information)、甚或自行發明的情報(Invented Intelligence),但卻常以過分自信的(Overconfident)語氣回答提問。因人工智慧原理,係根據所得資料加上統計演算所得出的結果,並非真的具思考能力,聊天機器人被譏評為「一本正經地胡說八道」。

 此外,當人工智慧可使用運算模式探知使用者立場時,結果往往會不成比例地朝強化該觀點的方向發展,而非像與真人討論提供獨立批判糾錯,產生奉承式偏誤(Sycophancy Bias)。這種來自機器模型的「阿諛」,會使人誤以為其論點獲得專家認證,進而在判斷中忽略現實生活中其他應考慮的面向。

 這種特性加上資訊幻覺,極易引導使用者朝向「鑽牛角尖」,以個人而言,也造成精神健康的威脅。例如社會孤獨者被聊天機器人鼓動輕生或傷害他人,或使用陪伴機器人取代真人當作知心好友,甚至於是配偶。這方面的問題在青少年中尤其嚴重。

 另一項問題是受限於訓練資料的時間點「知識時差」(Knowledge Lag),在公共政策或工商管理上,難以反映最新的政策變化、技術突破、地緣政治動態或競爭新局。在使用者也不會被提醒,基於過時資訊進行規畫布局或策略訂定,容易做出錯誤結論。加上前述過度自信特質,在高不確定性或超出其知識領域的問題上,決策誤判風險大增。

 管理決策採用人工智慧框架下的挑戰,乃是建立一套以人腦智慧為主、人工智慧為輔的治理制度,取其提升商業價值之利,又能控制其風險之弊。缺乏該專業領域知識及充足的經驗,其實很難辨識使用人工智慧結果的品質。要避免偏誤,多層驗證、交叉比對與時效性查核,就相當必要,甚至應形塑為企業文化的一部分。

 企業也需根據風險,區分可使用業務及如何使用人工智慧。高度風險者如企業併購、重大投資、法遵合規,或需高度準確、或涉機密情事、或觸敏感隱私、或需同理共情、解人事糾紛,不宜直接使用人工智慧,宜由專業人士進行獨立研究、主導處理為佳。

 決策需最新資訊、專業判斷、涉及倫理或文化敏感性者,屬於中度風險,人工智慧支援加上專家審核模式應較為適當。即便是低度風險如草擬內容或整理資料,在提高效率之際,也需透過教育及制度,使員工了解人工智慧應用的限制性,提升使用者批判性思考能力,並建立標準作業程序,以確保使用過程可檢核追溯,維護使用結果的品質。

 上述論點在導入企業級人工智慧後更形重要。由於涉及納入組織內部資料庫,設定置信度警示值並建立假想敵測試,確保所有人工智慧產生結果在進入決策系統前,需已完成必要的風險控管。

 機器與模型再強大的識別能力與資訊處理,並不能夠如同人類理解與判斷,唯建立嚴謹的驗證、交叉比對與審核機制,並在合適情境中善用人工智慧,同時確保由人主導專業判斷,才能在降低風險下,極大化人工智慧的價值。企業文化上而言,培養組織成員對人工智慧的結果批判性思辯能力,避免員工大腦被人工智慧所「外包」,進而平衡創新與治理以提升效率。「水能載舟、亦能覆舟」,可謂是企業應用人工智慧應謹守的原則。