真假難辨的人工智慧生成內容,衝擊社群平台與公民信任
企畫/曾子軒、吳季柔 撰文/曾子軒 責任編輯/劉宗翰 責任美編/杜軍儀 社群平台的上內容正悄悄出現變化。有大量看起來專業的內容,如白袍醫師講解健康資訊、資深空服員提醒登機注意事項。只是,它們沒有出處、真假難辨,而且沒人能為正確性負責。 這套由AI生成內容、追求點閱與廣告分潤的機制,也正被企業用來降低成本、加快產出,解放原先受限的創作力,改寫既有代理商與客戶的合作關係,甚至顛覆原有職能分工。 AI並非問題本身。它能成為情緒操弄與錯假資訊的利器,也可激發公司白領的生產效率。如何與AI共舞,與時俱進地修整制度、治理平台並增進公民素養,已成為無可迴避的關鍵課題。
內容從療癒到恐嚇,真假界線模糊 智慧之泉、頤養之道、康樂年華、健康養生堂、晚年智語⋯⋯,同樣都是近一年竄出的新頻道。但稍微細究就能發現,健康建議似是而非、政治評論缺乏脈絡、療癒內容複製貼上,聲音、影像與腳本更高度雷同。 這些內容並非來自專業創作者,而是由生成式AI大量生產、以流量與廣告收益為目標產製的內容工廠。正因AI生成內容品質不斷提升,除了文字和圖像,由AI模型產出的影像與聲音,變得更加氾濫。 美國權威英文字典《韋氏字典》將指稱垃圾或餿水的「slop」,選為2025年度代表字,也讓人們開始習慣用「AI垃圾」(AIslop),指稱由AI量產的低品質內容。其實,AI本身並不是問題所在。它就像槓桿,使用者能藉其放大意志。 AI能用來產製垃圾內容,迎合整套以演算法、點閱率與廣告分潤為核心的產製邏輯。也因此,相較正確性,力求吸睛獵奇、最大化觀看時間才是重點。 於是,我們看到迎合情緒、操弄感受、卻缺乏真實性的內容,以前所未有的速度擴散。 另一方面,AI也能用在正途。例如,沛星科技(Appier)開發出的生成式AI平台,就能幫助客戶生成電商廣告素材、社群貼文配圖,甚至產品宣傳影片;又如,光禾感知科技替旅遊業客戶生成行前說明影音,省下導遊舉辦線上講座與電話通知的時間。 也有缺乏專業領域能力的受訪者,憑藉AI產製影像與音樂,例如,工作用輕音樂、搖滾、抒情流行歌。它無涉道德,也是不錯的第二收入來源。 AI放大敘事者的聲音,也讓虛與實的界線愈發模糊。當真假難辨成為這個時代的常態,我們的制度、平台與公民意識,是否真的已準備好應對? …本文摘錄自 遠見雜誌 2026/1月 第476期
閱讀完整內容


