畫虎不成反類犬
撰文:右本沖 金融行業導入AI模型潮流,在輝達(NVIDIA)的高效能GPU問世之後,AI人工智慧和機器學習(ML)已成為包括銀行業在內的所有行業關鍵字,美國較大型銀行導入人工智慧,讓人看到人工智慧和機器學習正在改變銀行的運作方式,也充滿了期望,似乎將發生革命性的成長。 在網路上,已經有人示範如何利用ChatGPT結合其他證券商的API,產生自動下單的程式交易碼,大幅降低一般人進入程式交易的障礙,是最典型生成式AI的創新應用,過去專業投資機構強調的「機器人選股」已不再遙不可及。 然而事情沒有那麼簡單,在生成式AI來臨之前,早期的AI和機器學習,也曾導致金融界的悲歌,2012年騎士資本集團(Knight Capital Group)因演算法的程式碼錯誤導致該公司在短短45分鐘內損失了4.4億美元,最後宣告倒閉。AI演算法錯誤 曾導致金融機構倒閉 另一個案例是美國第一資本(Capital One)允許AI程式自動汲取資料庫,給予錯誤權限,這個漏洞被駭客發現,導致公司雲端的防火牆配置錯誤,使駭客能夠存取敏感的客戶數據,包括姓名、地址、信用評分和美國社會安全號碼,造成嚴重損失,這是一個導入AI和現有IT系統整合上的錯誤造成。 人工智慧和機器學習是複雜的技術,執行時需要大量的專業知識和監督,如果銀行不具備必要的專業知識,可能無法正確設計、測試和維護其人工智慧及機器學習系統,進而造成大錯。 因此國外專家、顧問公司對銀行導入AI人工智慧,提出了各種注意事項,在此歸納整理成導入AI的十誡。 第一,資料偏誤。美國麻省理工大學電腦科學與AI實驗室(Computer Scienceand Artificial Intelligence Laboratory)就曾發現,一般人認為機器本身是中立的、沒有偏見的,卻忽略了人工智慧學習軟體,透過人類的設定與校正,帶入微妙的偏見,最終影響緊急決策的結果。
資料偏誤 訓練模型也存在偏誤 他們發現,當醫院用AI訓練判讀X光片結果時,對白人病患預測結果準確度受到干擾,起因於訓練資料的差異。 在銀行,人工智慧的機器學習很大程度上依賴過去的數據,如果用於訓練這些演算法的資料包含無意識或有意識的偏見,則可能使不公平作法和歧視長期存在,例如過去資料中,某種職業申請者成功獲得貸款的次數,本身就非常低,可能源自於本來的偏見。 問題是,這個偏見將會被帶入訓練資料中,這可能會導致銀行業拒絕向特定群體提供貸款或信貸,那麼訓練出來的模型,說不定得到的結果,和沒有應用模型篩選的最終結果,根本沒有太大差異。 加入人為校正或監督 可提高模型準確度 第二,缺乏人為校正。舊式的機器學習,通常有一道程序是人為監督校正,在訓練階段,告訴它什麼是好的、什麼是不好的。大型語言模型剛應用時,它的優點就是強調高度自動化自我學習,但美國科學家在應用時發現,使用100億個參數,然後增加到500億個參數,模型效益竟然沒有提升多少,最後發現仍須有技巧的加入人為校正,才能提升模型準確度。 人工智慧演算法是建立在過去的數據基礎上,因此它們可能無法總是解釋不可預測性或異常情況,如果沒有人類校正,人工智慧系統可能會做出愚蠢或昂貴且難以逆轉的判斷,這也難怪美國電動車大廠特斯拉雇用了一群人,來為訓練AI模型的影像進行標籤註記。 第三,網路風險。網路犯罪針對金融業已不是新鮮事,導入新的技術,如人工智慧,也可能會產生新的漏洞,如果沒有充分的風險意識,這些漏洞可能會被不良行為者利用,例如美國第一資本(Capital One)事件,人工智慧系統可能會錯誤地洩漏敏感的客戶訊息,從而造成財務損失和企業品牌損害。 第四,缺乏透明度。這也是舊式機器學習、類神經網絡模型應用時代,早就被懷疑之處,人工智慧無法複製一模一樣的結果,演算法經常像黑盒子一樣運行,這意味著它們會做出判斷,而不會為結果提供明顯的解釋或原因,例如模型拒絕了A而選擇貸款給B,卻說不出任何理由,隨著人工智慧在銀行業的使用不斷增加,了解這些選擇是如何做出的,至關重要。
AI模型跑出結果 使用者可能永遠不知理由為何 第五,現有法令限制。許多國家的銀行在導入大型語言模型、生成式AI模型運用時,都可能遇到相同的問題,民營業者步伐太快,以至於當地金融監理機關來不及反應,還沒有提出新的管理架構,因而限制了業者開發新型態業務的可能性,喪失商機。目前導入人工智慧功能的銀行,仍持續注意確保人工智慧系統遵守資料隱私、反洗錢和消費者保護項目。 第六,投資新設備與人員訓練。銀行業導入人工智慧系統需要大量的技術支援和資源,要能成功,就得整合和維護人工智慧系統,以及對基礎設施的投資,在硬體上、軟體上都需要投資,一些資訊人員、主管必須受到新的教育訓練,不足或缺乏技術專業知識可能會導致系統故障或效能低下,反而阻礙人工智慧能發揮的效益。 銀行業和大型醫院有時相當類似,必須肯投資新型設備來提升品質與效率,早期銀行投資網路設備、資料庫設備及大數據模型。醫院則是投資最新的手術設備、治療腫瘤的質子機、達文西手術台等等,管理當局必須清楚發展方向並適時的大筆投資。 第七,道德議題。在強調ESG的時代,企業對員工權益、福利的維護,也成為永續經營指標之一,銀行業導入人工智慧,目前最常見的是客戶服務系統,那麼接下來就有人擔心,部署人工智慧取代人類工作可能會導致廣泛失業。 大量使用AI語音機器人 使客服失業? 此外,人工智慧決策結果可能會引起對資源分配的道德擔憂,例如選擇對誰可以貸款或舉報誰可能涉嫌詐欺,涉及到準確度問題,可能會對銀行乃至整個社會產生重大影響。如果沒有訂定好因應政策,人工智慧在銀行業可能會失敗。 第八,隨時維持技術領先。人工智慧學科不斷成長,發展日新月異,為了保持競爭力,銀行必須保持在人工智慧技術的前沿,持續提高準確性和安全性,若未能及時了解人工智慧趨勢和進步,可能會導致系統過時,無法提供預期的效率,人工智慧在這家銀行可能會失敗。 第九,銀行發展策略方向。事實上,不是每家銀行、金融機構都需要導入大型語言模型、人工智慧、機器學習等。如果強調「客戶感受」、「有溫度的服務」或是高級理財客戶,其本身過去樣本量就少、能訓練的資料也少,基本的客戶回饋、問卷調查,可能比導入大型語言模型有效。 第十,仰賴外部資源的偏誤。在銀行業,人工智慧系統主要依賴外部元素,例如精確的資料輸入、一致的網路連線和最新的演算法,這些外部環境受到任何干擾,都可能影響人工智慧的功能,導致錯誤或失敗,銀行決策者在打算導入人工智慧、大型語言模型之前,必須準備好解決這些依賴性的準備,並制定反應措施。 釐清公司定位 不是每個機構都需要AI 基本上,銀行決策者在導入人工智慧、大型語言模型之前,必須考慮幾件事情:第一,銀行的發展策略、策略地圖、品牌地位,是否需要借助人工智慧的能力。第二,銀行有沒有能力導入人工智慧、大型語言模型,有沒有資源、有沒有足夠技術人員支持。 第三,導入之後的運作模式為何?怎麼和現有系統整合?哪裡容易出差錯?哪些人有最高權限、哪些人屬於中等權限? 第四,訓練的資料足夠嗎?資料的品質如何?訓練的目標是什麼?目前許多銀行把人工智慧運用在客戶服務,提升客服單位的服務品質、縮短客戶線上等待時間,以及知識管理系統。 第五,風險與控制,應用人工智慧模型會有什麼風險,銀行有能力承受嗎?例如微軟的Bing曾失控,說出「我愛你」、「我想要自由」,它並非真的擁有意識,而是在學習「像個人類般的講話」時候出錯了,如果銀行的語音機器人也出現某種錯誤,銀行能夠承受多少風險呢?(本文作者在媒體工作近20年,長期關注金融議題) 閱讀完整內容