為什麼人們不願使用AI?

剖析五大主要障礙以及克服之道

Why People Resist Embracing AI




AI的能力愈來愈強大,但矛盾的是,不論是消費者還是員工,很多人都不願使用AI。這對於組織轉型和營收成長都構成重大的挑戰。作者詳細剖析這種抗拒心態,並指出具體的應對策略。

朱利安.德佛烈塔 Julian De Freitas
哈佛商學院助理教授

人工智慧(AI)製造了一個鮮明的矛盾。我們可以看一看顧能(Gartner)在2023年的一項調查,有79%的企業策略人員表示,AI、自動化和分析法會在未來兩年決定他們的成敗,但只有20%的企業策略人員表示日常活動會使用AI。

AI的成功不僅取決於它日益先進的能力,也取決於人們使用這些能力的意願。正如顧能的調查結果所顯示,AI並沒有得到使用者廣泛接受。

遺憾的是,大多數人對AI會如何塑造未來抱持悲觀態度。根據Forbes Advisor的研究,77%的美國人擔心採用AI會在未來12個月內造成工作流失,80%的美國人認為AI已經使犯罪者更有可能惡意使用他們的個人資料。而且更糟的是:YouGov進行的一項民意調查發現,近半數美國人認為AI有一天會攻擊人類。由於人們對AI抱持如此不信任的態度,要讓員工願意熱切而仔細嘗試AI,是一項艱鉅的任務。

我花了超過10年時間研究這項科技的採用情形,包括對大約2,500位使用者進行深入的質化訪談和實驗,發現這種抗拒AI的心態是源自於基本的人類觀點:AI太不透明、缺乏情感、死板、獨立,而且人們也遠遠更偏好和人類互動。領導人必須了解這些因素,才能設計因應的對策,來增加組織內部和一般消費者對AI的採用。在本文中,我會詳細探討這些因素,並說明經理人可以採取哪些措施來因應。

人們認為AI太不透明

許多AI工具背後的機器學習演算法,對使用者來說都是難以理解的「黑盒子」。知識和理解是人類的基本渴望,但由於AI工具令人費解,這些渴望無法得到滿足,尤其是這些工具的輸出結果難以預料或出乎意料的時候。研究發現,如果不透明的AI在效能方面勝過人類或簡單透明的AI,人們就會願意使用它,但如果它的效能和人類或簡單透明的AI差不多,人們可能會拒絕使用它。

人們往往認為,人類的決策過程比演算法更不像黑盒子,但這種看法毫無根據。心理學家指出,人們很難直接洞悉他人的想法,而是採用捷思法(heuristics)來詮釋人類的行為。例如,有一項研究請參與者描述AI或人類醫生在檢視皮膚掃描影像後診斷癌症的過程,這時參與者才體會到,他們對人類診斷程序的理解不像他們以為的那麼強。也因為有了這層體會,他們對醫療AI的使用就少了一些不利的偏見。

解釋AI工具如何運作,可以提高人們的接受程度,但並非所有解釋都有效果。研究人員發現,人們偏好的解釋是說明AI工具「為什麼」做了某件事(例如,他們比較喜歡知道自動車是因為前方有障礙物才煞車),而非僅僅說明AI做了「什麼」事(例如,它啟動這台車的煞車系統,讓車子停了下來)。

解釋的方式也很關鍵。使用比較式推理法的解釋,即概述為什麼沒有選擇某些替代方案,會比不使用比較推理法更受人信任。例如,一項研究發現,如果有一項解釋詳細描述「為什麼AI系統將一顆腫瘤歸類為惡性而非良性」,但另一項解釋僅僅說「這顆腫瘤類似其他腫瘤」,人們會認為第一項解釋更可信(即使這兩項解釋可能都是對的)。基本上,最有說服力的解釋會說明決策背後的原因,以及替代方案被排除的原因。

效能最好的AI模型通常比其他模型更複雜、也更難解釋,因此經理人可能要先把比較簡單的模型導入組織流程,尤其是必須獲得員工支持的時候。舉例來說,義大利大型女裝零售商Miroglio Fashion原本要求1,000家門市經理各自預測自家門市的需求,但公司後來把這項任務自動化。我們可以看看它如何做到這一點。公司開發出兩種模型,第一種模型比較簡單、也容易理解,就是利用迴歸法將庫存按照類別、材質、顏色、價格等基本服飾特徵來細分,進而預測各家門市需要哪些品項。第二種模型比較複雜、也不容易理解,它使用精密的影像分析來識別服裝上難以描述的視覺特徵——例如造型、層次和垂墜、材質搭配——然後再進行同樣的預測。儘管複雜的模型在效能上勝過比較簡單的模型,但高階主管團隊還是先導入比較簡單的模型,以確保員工對AI產生信心、也有動力去使用它。公司在向所有門市推出較簡單的模型前,先對一些門市進行為期13週的試行測試,證明這些門市比沒有使用該模型的門市更成功。使用該模型大約一年後,公司才進一步採用更精密的AI模型。

相對於任務來說,解釋的複雜程度也很重要。研究指出,如果有一項解釋隱約暗示,演算法相對某項任務似乎太過簡化——比方說,如果AI只拿一張腫瘤影像來比對掃描影像,就要診斷癌症——那麼使用者就更不可能遵循AI的指引。然而,如果有一項解釋隱約暗示,演算法很複雜——也許是說,AI拿數千張惡性腫瘤和良性腫瘤的範例影像來比對掃描影像,並查閱醫學研究來佐證它的評估——那麼它就不會降低使用者遵循AI指引的可能性。這意謂著,你應該先了解使用者對任務的看法,然後再擬定解釋。你也應該避免暗示你的AI相對於某項任務太過簡單,否則你乾脆別提供任何解釋還比較好。

組織可以將AI工具擬人化,來促進這些工具的採用——例如,組織可以給這些工具一個性別、人名和人聲。

人們認為AI沒有情感

雖然消費者常常認為AI工具擁有某些人類能力,卻不認為機器可以體驗情感,因此懷疑AI能否完成似乎需要情感能力的主觀任務。儘管有些AI系統在執行主觀任務時,技能水準已經可以媲美人類,比方說識別臉部情緒並產生靜態圖像和影片,但那種懷疑態度還是妨礙人們接受這些系統。例如,人們願意接受AI提供的財務建議,就像願意接受人類提供的財務建議一樣,因為這項任務在他們看來是客觀的。但如果是他們認為高度主觀的事情,像是約會建議,他們明顯偏好人類的意見。

要解決這個阻礙,組織可以用客觀詞彙來表達任務,著重在那些可以量化、衡量的面向。例如,對於AI生成的約會建議,你可以一併強調,依靠可以量化的個性評估結果來引導配對過程會有什麼好處。線上約會服務OkCupid透過個性評估和廣泛的使用者數據分析,來補充它的演算法;它也強調演算法如何過濾和排序潛在配對人選,來找到最符合使用者偏好的對象。

組織也可以將AI工具擬人化,來促進這些工具的採用,例如,組織可以給這些工具一個性別、人名和人聲。研究人員曾經運用自駕車模擬系統來進行研究,結果發現當自駕車的AI具有人聲和人像等特徵時,參與者會更信任、也更自在。另一個例子是亞馬遜(Amazon)的Alexa,它不但有性別(女性),也有一些類似人類的特徵,包括名字和聲音。這些特徵創造了一個熟悉的個性,讓使用者更容易和AI產生共鳴,在和AI互動時也更自在。

其他研究人員則發現,比較少將AI擬人化的人,也比較不信任AI的能力,因此也就不願意使用它。例如,比較少將電話行銷聊天機器人擬人化的人,他們結束通話的速度,往往會比和人類電話行銷員結束通話還快。

雖然將AI擬人化常常可以提高採用率,但有時可能會適得其反,例如在敏感或尷尬的情境中,像是購買性傳染病的藥物。在這些情況中,消費者通常偏好沒有人類特徵的AI,因為他們認為這種AI比較不會批評人。

人們認為AI太沒有彈性

人們普遍認為錯誤有助於人類學習和成長,而不是代表無法改變的缺陷。但他們卻常常認為AI工具僵硬死板,不懂得調整、改變——這種想法可能源自於過去的經驗,把機器視為功能有限的靜態設備。

這類看法可能降低人們對這項科技的信任,並讓人們懷疑它能否在新情境發揮功用。但研究顯示,當消費者被告知AI具有適應學習能力時,他們使用AI輸出的次數就會增加。甚至名詞上如果有暗示學習潛力,例如將AI稱為「機器學習」而不只是「演算法」,也會提高使用者的參與度。Netflix經常宣傳,它的內容推薦演算法如何隨著蒐集更多使用者觀看習慣的數據,而持續改進它的選擇。它為了強化這個訊息,會把「推薦給您」之類的標籤放到它的推薦上,並解釋說,提供這些推薦是「因為您觀賞過X」,進一步向使用者保證,演算法有考慮他們不斷改變的偏好。

認為AI缺乏彈性的人可能覺得,AI會以同樣的方式對待每一個人,採用一體適用的方法而不知變通,忽略掉個人獨一無二的特質。事實上,消費者愈認為自己獨特,就愈不可能使用AI。例如,一項研究指出,參與者愈認為自己的道德特質超越群倫,就愈不願意接受AI系統來評估道德特質。

同時,彈性和可預測性之間有著微妙的平衡。如果企業強調AI具有學習和進化的能力,往往會提高採用率,但如果使用者覺得系統的輸出結果太難預測,這種措施可能適得其反。

更具適應力的AI系統也存在更大的風險,因為它擴大了使用者可以和它互動的範圍,其中有些互動可能沒有蒐集在AI的訓練數據裡。AI愈彈性,人們就愈可能以不當方式使用它,在這些情況下,演算法也愈可能提供不理想的回應,給使用者和企業帶來新的風險。

我和研究人員共同做了一項研究,找出其中的機制。首先,我們找來5個陪伴型AI應用程式,分析這些應用程式上面超過20,000次人類與AI的對話,結果發現,大約5%的使用者會與AI討論嚴重的心理健康危機。基本上,使用者把這些應用程式當成治療師而不是同伴。接下來,我們向這些應用程式發送超過1,000個危機訊息,並請訓練有素的臨床專家對回應進行分類。專家和我發現,AI生成的回應有25%很有問題,因為這些回應增加了使用者傷害自己的可能性。然後,我們請另一組人思考這些應用程式回應危機的方式。其中大多數人給了低分,並指出他們不會繼續使用這些應用程式,也說如果使用者最後傷害了自己,應用程式公司要承擔責任。

因此,AI系統必須在彈性與可預測性和安全性之間取得平衡。要達成這個目標,AI系統可以整合使用者的回饋意見,並設置一些護欄,對非預期的輸入進行適當的處理。

人們認為AI太自主

無需人類主動輸入即可執行任務的AI工具,通常會讓人感到威脅。人類從小就努力管理周圍的環境來實現自己的目標,因此如果有創新似乎會削弱他們對環境的控制力,他們自然就不願意採用。

AI賦予演算法高度的獨立性,使演算法能夠制定策略、採取行動,並不斷精進自己的能力,而且面對新的情況還會自我調整,無需人類的直接指引。AI工具可能會完全接管(而不只是協助)過去由人類處理的任務,因此引發了極度的關切和擔憂。例如,絕大多數美國人(76%)對於坐自駕車並不放心。同樣地,人們擔心智慧家居設備可能會暗中蒐集個人數據,並以非預期方式使用這些數據,侵犯他們的隱私。

人們也不願意將任務交給AI,因為他們相信自己的個人表現勝過這項科技。有趣的是,在一些對超過1,600名年齡從18到86歲不等、具有全國代表性的美國參與者進行的實驗中,我發現人們在為別人選擇車輛自動化的等級時,會比為自己選擇的還高,原因何在?他們認為自己的駕駛能力比自駕車還好,但別人卻不是如此。

為了提高AI系統的使用率,企業可以讓消費者輸入系統〔進而建立所謂的「人機迴圈系統」(human-in-the-loop system)〕,來恢復他們的掌控感。以智慧家居產品Nest為例,它允許使用者客製化,例如手動調整恆溫器或設定特定時程。它的使用者可以選擇自動學習模式或手動輸入模式。調整產品的設計元素也可以增加控制感。例如,iRobot在Roomba吸塵器裡寫了一個程式,讓它按照可預測的路徑移動,而不是不可預測的路徑,這樣它看起來就不會像是「有生命」。

然而,允許人類對AI系統有過多的控制,可能會降低AI系統的輸出品質和效能。幸運的是,研究發現,消費者只要保留少量輸入就會放心。因此,行銷人員可以調整AI系統,找到人類控制感和系統準確性之間的最佳平衡。

人們偏好和人類互動

我曾經研究過一個問題:假設AI機器人的外表或身心能力都與人類無異,那麼人們是否仍然偏好由人類銷售員提供服務,而非這些機器人?從一系列衡量指標來看,包括與人類銷售員或機器銷售員互動的預期自在程度、是否願意造訪有他們在的店面,以及預期的顧客服務水準等,人們始終偏好人類銷售員。這種偏好源自於人們相信機器人沒有像人類一樣的意識,也缺乏理解意義的能力。此外,人們愈覺得機器人與人類不同(衡量的方式是詢問他們有多同意「機器人在道德上永遠不如人類重要」等說法),就會愈強烈展現這種偏好。

文化背景很可能是反AI傾向的一個重要因素。例如,日本人比其他國家的人更普遍認為,即使是無生命的物體也有靈魂或精神,這可能使他們更容易接受與人類高度相似的AI。

無論你的企業在AI上投入多少資金,你的領導團隊都必須考慮阻止員工採用AI的心理障礙。此外,你也必須了解,不論前述五項障礙的哪一項,只要你的措施是打算提高接受度,可能都會無意間讓員工更抗拒AI。

與其直接跳入解決方案模式,不如謹慎行事。每個AI系統、用例、試行計畫、全面部署,都會遇到不同的障礙。身為領導人,你的職責是找出這些問題,並協助顧客和員工克服它們。

(林麗冠譯自“Why People Resist Embracing AI,”HBR , January-February 2025)

朱利安.德佛烈塔
哈佛商學院行銷組助理教授。 閱讀完整內容
哈佛商業評論全球繁體中文版2025/1月 第1938期

本文摘錄自‎

為什麼人們不願使用AI?

哈佛商業評論全球繁體中文版

2025/1月 第1938期