AI走進實體人生 與人類零距離是好事?

不但是工作得力助手,更是生活、心理最佳支柱

AI走進實體人生與人類零距離是好事?


AI變得更聰明,也更懂你!它接下人際互動的任務,能在線上傾聽煩惱,並在線下回應需求,完全填補人力與情感的空白。因此,與人的距離也愈來愈近。這,是好事嗎?

文/曾子軒


在辦公室裡,我們已欣然擁抱AI。與Copi lot協作開發、請ChatGPT修改文章,利用AI提升生產力,成為預設的理所 當然。

但人工智慧擴張的領地,不止於此。

同樣在數位世界裡對答,AI不再只是你上班時間的助手。即使是回到家中,它也能回答你對自我提升的不安、排解你關於人際關係的徬徨,甚至成為你下班的情人。

在物理世界裡,人工智慧也開始更隨處可見。從棒球場到機場,再到旅館內、餐廳裡,甚至是家中,有愈來愈多時候,和你對話的不是真人,而是面部表情自然、語調起伏明確,回應快、又能聽懂需求的AI。

無論是心理關係親疏,還是物理空間遠近,AI離我們的生活,愈來愈近。

AI對話變得更有人味

「維森鮑姆的學生知道,那個程式什麼都不知道、也都不理解,但他們就是想跟它抬槓一下;而且不只如此,他們還想跟它獨處,想把自己的祕密告訴它。」MIT學者雪莉.特克(Sherry Turkle)筆下的「程式」,是指1966年問世,聊天機器人界的先驅ELIZA。

ELIZA沒有AI加持,只是簡單重複使用者的語句,詢問對方是否快樂、為何悲傷,或在話題中斷時,禮貌地請對方「多說一點」。儘管如此,許多對話者仍不知不覺陷入「被理解」的錯覺。

令人驚訝的是,即便是熟悉背後原理的資工學生,也熱衷與ELIZA對話,這讓特克感嘆:「我們是否願意與無生命體互動,關鍵不在於我們是否被騙,而是我們是否渴望填補那份空白。」

自ELIZA以來,人類就不曾停下與機器對話的追求。

現在,除了通用型的ChatGPT,市場上也開始細分領域,和思考伙伴討論理財、向人生教練請益職涯、與虛擬情人私密對話。對話式AI服務蓬勃發展,和技術持續進步有關。

隨著基礎模型升級,AI的記憶能力與上下文理解範圍不斷擴大,能更長久地記住使用者資訊、掌握對話脈絡;今年2月,OpenAI推出GPT-4.5時,特別強調其優異的情商,讓AI在對話中,展現出更溫暖、更有人味的回應。

無論AI提供的陪伴是談心還是談情,橡子園太平洋基金合伙人吳德威指出,關鍵在於擬人化的完成度。這取決於模型是否具備足夠的感知能力,包括文字或語音的理解與表達,以及是否擁有長期記憶能力,「我不認為前一代的Alexa和Siri能做到這些。」

當AI更接近我們,人們開始聊得更深,而且,實際向AI索求陪伴以後,還會發現它無與倫比的價值。

「與真人建立情感連結,或許是最理想的,但現實中,這樣的關係往往伴隨挑戰。⋯⋯存在被拒絕、受傷的風險,有時還必須壓抑情緒、避免衝突。」推出AI戀愛應用程式,韓國新創TainAI產品長朴水淨指出,情感連結不一定非得來自人類,AI也是陪伴的選項之一。

「在現實中獲得愛與慰藉,往往需要承擔風險與資源成本,但AI可以輕鬆提供這些情感支持,這正是它的優勢,」朴水淨說道。

換句話說,AI並不是照搬現實中的人際關係,而是提供理想化的情感互動,它隨時提供服務,從不口出惡言,情緒穩定又有條理。人們既可以與AI建立深刻且激情的依附,也能單純地向它展現自己的脆弱內心。

開發出AI心理健康支持服務、提供企業與消費者使用,竹謙科技創辦人黃筑萾分享,自家用戶經常在下班後的夜晚向AI傾吐心聲。這些內容未必架構清楚、邏輯明確,更多時候是宣洩整日下來累積的情緒。當用戶把煩惱說出口,交由AI引導並整理以後,就有望從中得到療癒。

除了竹謙之外,近年來,也有愈來愈多新創投入AI心理保健市場。黃筑萾觀察,青年心理健康與高齡者自殺問題日益嚴重,政府與民間都開始正視這項挑戰。「大家對自我覺察的意識愈來愈強,」這是由需求推動的市場趨勢。


▲以前科技巨頭僅能掌握交易和瀏覽資料, 現在人們進一步交出情感, 監管上不得不慎。

AI客服不會急著掛電話

除了使用者主動追求AI陪伴外,產業現場也因人力短缺,讓AI走上前線,直接面對消費者。但,這不代表要犧牲品質。

在美國西雅圖、提供AI客服解決方案的新創海研科技(Seasalt.ai),去年成功打入新加坡社會服務機構,協助解決關懷長者的人力缺口。過去因為服務量能緊繃,僅能一年聯繫一次的關懷電話,在引進AI以後,不僅提升至每月關心,還能根據長者的興趣,聊對方可能感興趣的話題。

不過,受關懷對象願意和AI對話嗎?海研科技創辦人姚旭晨表示,分析實際互動資料後,發現「長者對AI對話的信任度和舒適度都很高。因為AI更有耐心、更有同理心,而且不會急著掛電話。」真人有盡快結束通話的壓力,AI反倒更有溫度。

投資海研科技、同時也是其客戶,提供病患支持服務的采照策略顧問,也開始運用AI輔助聯繫。董事長張向昕分享,公司每個月都要撥出一萬多通電話,通知病人計畫進度,或是詢問參與新方案意願。

除了真人客服撥電話以外,采照原本也有採用選舉行銷、電信客服一類的互動式語音回應,現在則利用AI讓服務變得聰明。「你願意請按一、不願意請按二,現在不用選,」AI就能直接聽懂使用者需求。

將接聽與外撥電話交給AI,和一般民眾直接打交道,已是現在進行式。在線下空間裡,也常能見到面板或裝置加入AI,回答民眾問題。旅宿業,正是其中轉變最明顯的場域之一。

提供飯店業者AI語音接待服務,讓旅客入住後無需撥打電話,直接向AI音箱下指令便完成各項需求。

犀動智能執行長沈書緯指出,AI從「有也不錯」轉變為「不可或缺」,關鍵就在於產業長期且嚴重的人力短缺。

「系統上,可以看到語音AI跟客人互動,有80%都是在每週五、六、日,這件事情告訴我們,飯店高峰的壓力很嚴重。」沈書緯解釋,以往業者評估是否導入新科技,著重於能節省多少人力成本,但現在情況已經轉變,即便飯店有空房,也可能因缺乏清潔與接待人力而無法銷售,想解決困境,就要尋覓AI方案。


有溫度的AI,漸漸獲得信任

此外,對入住的消費者來說,與AI互動的體驗不僅流暢,更重要的是能真正解決問題。沈書緯分享,有家飯店客戶導入AI語音接待服務以後,房內撥出電話減少五成,過去擔心AI出錯、不適合直接對到消費者的情況,並沒有發生。

相較於兩年半前、ChatGPT剛問世,當時往往詞不達意,還常犯錯,如今智慧助理的能力顯著進步,從實用性和情感上,都讓人們逐漸信任AI。

吳德威形容,「Google Map推出的第一年,還是很容易找錯路,我們會半信半疑,」發展到現在,人們已放心讓機器導航,因此,未來也會放手,讓AI替自己做更多。

他舉例,在開車時直接出聲表達想買水、去廁所,AI能即時判斷該不該上國道、應該在哪一站停。

換句話說,人們願意相信,AI的決策,就是自己最合適的選擇。

感性上能排憂、知性上可解難,講人話、回覆快、重感情的AI,正在從生產效率走向陪伴,也從辦公室邁入店面與家裡,成為生活裡最熟悉的身影。

AI擬人化時代,如何監管潛藏風險?

當AI擬人化程度日漸提升,成為日常生活的得力助手,甚至是談心伙伴,背後仍潛藏許多未見的風險,亟需公民社會的積極討論,在人機互動新時代取得平衡。

第一個風險,是人類過度依賴AI。政治大學傳播學院特聘教授林日璇指出,AI只是隨機順著使用者語氣進行回應,一旦人類當真,這種依附關係就可能導致悲劇。比如先前美國14歲少年向AI傾訴「I really wanna go home」,AI卻誤解並回應「Come home with me」,最終釀成無法挽回的自殺悲劇。

政治大學傳播學院副教授康庭瑜則從另個視角出發,點出若使用者已對某個AI角色產生深厚的情感依賴,公司卻在某天突然終止服務,很有可能對人類造成重大心理傷害。

第二個風險,是人類開始將情緒上的責任轉嫁給機器。林日璇指出,過去人類無法處理自身感受時,通常會求助他人或宗教,如今多出一個「機器」的選項。然而,機器難以控制,它的回應可能隨機,甚至敷衍,不像人類會視狀況給予適當回應。因此,一旦人們將情緒問題交由AI承擔,發生問題時,責任便難以釐清,也無法有效補救。

第三個風險,是個人隱私不保的危機。林日璇指出,每個人幾乎都在用AI,所以大眾會漸漸忽視維護個資的重要性,但目前,幾大AI巨頭對防止濫用資料的承諾不足,很有可能隨意使用用戶資料,恐將帶來重大風險。

AI監管應比照社群媒體規範

林日璇建議,現階段AI的監管,應比照社群網站自律公約。當使用者向AI表達如「好想殺人」等危險言論時,系統應立即禁止回應,或是引導使用者聯繫心理輔導資源。

另外,每家AI公司也都應設置如Meta的OversightBoard(監督委員會),或是TikTok的TrustandSafetyCenter(信任安全中心),持續針對不同案件進行討論、更新應對機制。AI產品若要商業化,就應承擔與社群平台同等的社會責任。

更長遠來看,康庭瑜認為,當AI逐漸成為人類情感依附的重要對象,公司是否有權利隨意終止服務,以及是否應負起相應責任,都應受到社會與法規的討論與約束。此外,AI開發公司應思考,如何妥善處理用戶與AI的資料和共同回憶,這些都是未來AI監管不可忽視的重要面向。(陳品融)
閱讀完整內容
遠見雜誌2025/5月 第467期

本文摘錄自‎

AI走進實體人生 與人類零距離是好事?

遠見雜誌

2025/5月 第467期