金融業若想用AI強化競爭力,就要能負責,且有能力緊急關閉失控的AI系統。金管會趕在年底前公布「金融業運用AI指引草案」,明確定義AI,並要求建立問責機制、重視公平及以人為本、保護客戶隱私、確保系統穩健及安全、落實透明性及可解釋性,最後是永續發展等六要項。
金管會綜規處處長胡則華28日指出,指引總則明訂共通事項,包括AI相關定義、AI系統生命週期等、風險評估框架等,六大要項含緊急關閉機制、補救措施等要求,可供金融相關公會訂自律規範時參考,屬「行政指導」,不具法律拘束力,初期不會有罰則,亦不會納入金檢。
胡則華指出,金管會2023年5月曾調查金融機構運用AI的概況,38家銀行中有63%使用AI、40家保險公司則有58%、97家證券期貨投信中有17%有用,主要運用在客層經營、風險法遵、流程精進、數據分析等用途上。
金管會首先對AI相關定義沒有採用國際解釋,而是縮小範圍,如使用excel函數並不會被納入AI,而是要有「機器學習」才算。即指透過大量資料學習,利用機器學習或相關建立模型的演算法,模仿人類學習、思考及反應模式的技術。而「生成式AI」指可以生成模擬人類智慧創造內容的相關AI系統。若金融業要使用AI,金管會希望建立組織架構及問責機制,如成立委員會,來負責整體監督管理AI系統的運用。
在保護隱私及客戶權益上,宜以「資料最小化」的原則蒐集與處理必要的客戶資料,如只需要10項客戶資料就可運作的模型,就不要去跟客戶要15項資料,增加洩露風險。另外也要有「補救措施」,客戶若覺得權益受損,金融機構要能夠改為真人服務,或有補償機制、申訴管道。
指引也明訂要有「緊急關閉機制」,對民眾影響大的關鍵系統,要有彈性讓金融機構人員強制介入關閉AI系統的權利。