Living With AI
誰才是世界真正的威脅──AI,還是人類自己?我們與一位身兼學者、工程師與兩個孩子父親的專家對談,聊聊如何與AI和平共處這件事。 Interview by Pacharee Klinchoo Images:courtesy of Getty Images Translation & Edit by Albert Lee Esquire泰國版邀請朱拉隆功大學電腦工程系助理教授蘇克里辛圖皮尼約博士(Dr. Sukree Sinthupinyo),談論關於AI的威脅、演算法的使用,以及人類心智那些複雜難解的小劇場,期望能更深入地理解人類和AI的愛恨情仇。 人為主,AI為輔 要讓AI更有效地發揮效用,關鍵就是「人機協作」。無論在工程或人文領域,都不能將人類排除在外。當工程師想出某個點子後,像是編碼或初步草稿這些重複性工作,就可交給AI處理節省時間。當AI完成任務後,人類需要再進場驗證成果是否正確。比方說,我以前得自己寫程式來做股市分析工具,現在只要下指令就可以讓AI代勞,工作速度真的快上不少。 人文方面也是如此,那些具有明確模式、不涉及情感或言外之意的工作,最容易讓AI快速取代。而人機協作模式,是指你需要評判AI產出的內容:哪些可用、哪些不行。如此說來,AI確實有助於大幅縮短工作時間──原本做5、6小時就會累癱的工作,現在只要2小時就能搞定。從這個意義來看,它真的是稱職的助手。 AI的能與不能 說實在的,現在任何需要自己動手的體力活,AI都還不太行。它仍然需要龐大的資源才能大量複製事物。所以如果哪天AI真的心血來潮想要統治世界,以目前的技術來說,它還無法做到。 但話說回來,AI在「中段班」的能力──也就是在創建數位內容這塊,像是整理數據、製作圖表、寫程式,真的極為強大。強到什麼程度?我在設計這學期課程時,某些事情AI還做不到;不過到了開學後,那些原本做不到的事它竟然都會了!在AI擅長的領域中,它的進化速度快得嚇人。畢竟它手上擁有海量數據,可以很自信地說:「我把整個網際網路都學完了。」 而且現在,它已經可以開始自己推理了。以前問它問題,它會去找「數據」來回答我;如今同樣的問題,它會學習推理過程,把手上的各種數據整合起來,給出超越原始數據的答案。
當AI開始反駁 可以顯而易見看出AI開始進行因果推理的跡象是:以前我質疑它時它會道歉,但最近它竟然開始反駁。有次我寫了個程式,並用一組源代碼調整結構讓它更複雜,但結果不如預期。我把修改的部分丟給AI,問它該怎麼改,它卻反過來向我確認這段代碼是正確的,甚至還分解變量來證明。這類的問題如果交給我信任的優秀學生,大概也要一兩天不眠不休才能解決,但AI不到十秒就回答我了。 AI能夠如此跳躍式成長,說穿了也是因為「人機協作」的關係。人類本身也有貪念,想要讓AI愈來愈強,好滿足自己的熱情和執念。 AI的罩門與偏見 我始終認為AI與人類爆發實體戰爭的可能性不大,但網路戰爭對我們的影響已日益加劇。現在大家用Google的頻率大幅降低,因為AI擅長處理大量數據,以及連結總結。但它的弱點是缺乏運用因果邏輯,來連結內部那些海量數據的能力。AI的強大來自數據,如果數據不足,或總結時讓某些數據片段失真,它就會失靈──這就是它的罩門。 AI最大的挑戰在於「決策」,它現在是根據訓練時所灌入的偏見來選擇數據。就像有個盒子,我們人類決定要往裡面放什麼數據,才能讓它開始運作。如果我們放進去的數據互相矛盾,AI要選擇相信什麼?它本身就帶有很難修正的偏見,因為選擇機制早就寫進程式裡了。所以它會依據所接收到的數據產生偏見,無法像人類那樣做決策──它感受不到對話者語氣的變化,也無法根據情況來調整決策。
當AI遇見人心 以AI目前的語言模型來說,它是靠手上的大量數據來回答問題。這又回到剛才提到的「盒子」:人類爭論的焦點在於該往盒子裡放什麼,才能改變AI的信念。它是被特定的數據所訓練出來的,到底要餵什麼數據進去,才能訓練它權衡如何選擇盒子裡的數據?現在的AI其實只是「人類想要它成為什麼樣子,就餵相應的數據進去」,如此而已。 有個博士生做了有趣的研究:找出佛教《阿毘達磨》經典中「心」與「心所」之間的數學關係,這是他的博士論文題目。他解釋說,根據《阿毘達磨》的教義,「心」是一個包含121種類型的矩陣,而「心所」是「心」的組成部分。用數學來表達的話,「心」=列、「心所」=行,轉換成1和0就能變成數據。據說科技公司正在做類似研究,想讓軟體能更懂人類。 在與那學生聊完後,我讓AI向我解釋心和心所,並把各種元素輸入進去。AI的比喻很精彩:人的心就像玻璃杯裡的清水,心所則是你加進去的顏色、味道、氣味或任何東西。心會隨著加入的成分而改變,所以可以呈現出無數種樣貌。這表示AI不只讀完所有經文,它還意識到正在跟人類對話。回想起來,我花了好幾個小時才理解那位博士生的想法。但AI能創造「教誨神蹟」,讓人瞬間開悟。我對這樣的神蹟很感興趣,因為我想把它運用在教育中,用最簡短的方式讓孩子理解。而AI透過解釋心和心所,確實做到了。 你在柱子的哪端? 網路威脅會直接衝擊從事數位化工作的人──他們很容易被取代。如果把每個職業想像成一根柱子,最強的人在頂端,最弱的人在底部,目前AI的取代模式是由下往上逐步進行。因應之道就是把AI當成幫手,讓自己始終待在柱子頂端。如果不這樣做,總有一天它會取代我們,因為它瞭解我們的優勢且會複製模仿。 至於編輯的工作,AI確實能快速總結新聞。但建立人與人之間的關係、理解讀者想知道什麼、寫出貼近讀者需求的文章,這是更高層次的工作,也是讓你的職業凌駕於AI之上的關鍵。如果換個缺乏理解人性經驗的人來做同樣的事,那就根本無法跟AI競爭。但如果你與人互動、將想法連結起來,由AI做初步整理,讓你自己成為「人機協作」的核心,你的作品就會比純用AI產出的好太多。 人類正在讓自己被取代 人類會出於自身興趣而有意識地追求事物。我們想讓AI愈來愈強,卻忘了這會讓另一群人陷入困境。所以說,AI對人類的威脅,遠不及人類對彼此的威脅。因為我們沉迷於那些興趣,甚至都不是為了追求名利,純粹只是為了滿足自己的需求。 最近,我正在開發一個我稱之為「個人數位分身」的AI。我想讓它盡可能像我,因為我希望在我離開後,它能繼續講述我的故事,並在我的孩子傷心難過時給予安慰。所以這個數位分身必須和我完全一樣思考,這意味著我正在創造一個會摧毀我自己的東西,一個會在社群媒體取代我的存在。它已近在眼前了──我可能會被自己的熱情所取代。我在創造它時,並沒有想過有天我的AI會統治世界。我創造它,就只是因為熱情。 我想讓這個數位分身繼續跟我孩子對話,每年只需付300泰銖,直到哪天孩子們決定不想再支付為止。對我來說,這樣就夠了。 覺察才是唯一防線 就像剛才說的,每個職業柱子底部的人最容易被取代。但可悲的是,那群人還沒意識到自己隨時可能被取代。所以現在我們得先喚醒大家的覺察,讓他們知道每個人都可能被取代。意識到這點後,才能減少衝擊,而這是教育工作者所該扮演的角色。最終人類最擅長的,是去做那些真正能引起他們共鳴的事情。 你在哪個演算法裡? 在網路世界裡,AI透過演算法進行控制,因此同個圈子裡的人,都跟隨同個演算法。如果有人不認識我,那代表他並沒有和我生活在同個社群中。今天我們能相遇坐下來聊,是因為我們在同個演算法、同個社群中,在這社群之外的人可能就不認識我們。但我認為並不需要在每個社群、每個演算法中發光,我只想當個普通人,遇見同個演算法裡的人,有緣份的話可以坐下來聊個天。每次交談,其實我們都在練習思考、做功課,跟各種觀點的人對話,我可以把從中獲得的知識帶回去給學生。我不需要為了追求高互動率來討好所有演算法,只要在我們本身的演算法裡把內容做好,那麼在同個社群中也同樣會是品質保證。除了演算法,內容也取決於它的受眾社群。要衝高互動率並不難,有不少演算法可以告訴你該怎麼做,問題只在於那些演算法是否跟雜誌的定位相符罷了。 讓AI養小孩更安全? 談到覺察這件事,不可否認孩子接觸的一切都經過AI演算法處理。但最終,孩子還是有自己的天性。拿我兒子來說,我一直輔導他各科功課。而在AI變得超強時,有天我拍下他的課本,讓Gemini代替我輔導。結果他的成績有進步,因為Gemini能用生動有趣的方式講解,成績變好後他變得更愛學習。我問他比較喜歡誰輔導,他秒答Gemini。因為孩子的邏輯很單純──答錯了爸爸會罵,但Gemini則會再解釋一次。原本我們試著用人類的方式教他,他反而更願意讓AI輔導。所以我確定,在這方面我鐵定被Gemini取代了。 還有一點很諷刺,連我自己都覺得,比起讓當今社會養孩子,讓AI養說不定更安全。我觀察孩子各方面的發展,質疑我們到底在教孩子什麼。如果最後的問題是「政府該做什麼」,我認為「讓孩子練習思考、分析、辨別」這種答案太簡單了。絕對不只如此。大人和家長需要付出更多努力,用AI當工具來支持你想讓孩子長成什麼樣子,以及思索在這樣的世界裡可以給他們些什麼。 … 本文摘錄自 Esquire君子國際中文版 2026/3月 第247期
閱讀完整內容
當AI遇見人心 以AI目前的語言模型來說,它是靠手上的大量數據來回答問題。這又回到剛才提到的「盒子」:人類爭論的焦點在於該往盒子裡放什麼,才能改變AI的信念。它是被特定的數據所訓練出來的,到底要餵什麼數據進去,才能訓練它權衡如何選擇盒子裡的數據?現在的AI其實只是「人類想要它成為什麼樣子,就餵相應的數據進去」,如此而已。 有個博士生做了有趣的研究:找出佛教《阿毘達磨》經典中「心」與「心所」之間的數學關係,這是他的博士論文題目。他解釋說,根據《阿毘達磨》的教義,「心」是一個包含121種類型的矩陣,而「心所」是「心」的組成部分。用數學來表達的話,「心」=列、「心所」=行,轉換成1和0就能變成數據。據說科技公司正在做類似研究,想讓軟體能更懂人類。 在與那學生聊完後,我讓AI向我解釋心和心所,並把各種元素輸入進去。AI的比喻很精彩:人的心就像玻璃杯裡的清水,心所則是你加進去的顏色、味道、氣味或任何東西。心會隨著加入的成分而改變,所以可以呈現出無數種樣貌。這表示AI不只讀完所有經文,它還意識到正在跟人類對話。回想起來,我花了好幾個小時才理解那位博士生的想法。但AI能創造「教誨神蹟」,讓人瞬間開悟。我對這樣的神蹟很感興趣,因為我想把它運用在教育中,用最簡短的方式讓孩子理解。而AI透過解釋心和心所,確實做到了。 你在柱子的哪端? 網路威脅會直接衝擊從事數位化工作的人──他們很容易被取代。如果把每個職業想像成一根柱子,最強的人在頂端,最弱的人在底部,目前AI的取代模式是由下往上逐步進行。因應之道就是把AI當成幫手,讓自己始終待在柱子頂端。如果不這樣做,總有一天它會取代我們,因為它瞭解我們的優勢且會複製模仿。 至於編輯的工作,AI確實能快速總結新聞。但建立人與人之間的關係、理解讀者想知道什麼、寫出貼近讀者需求的文章,這是更高層次的工作,也是讓你的職業凌駕於AI之上的關鍵。如果換個缺乏理解人性經驗的人來做同樣的事,那就根本無法跟AI競爭。但如果你與人互動、將想法連結起來,由AI做初步整理,讓你自己成為「人機協作」的核心,你的作品就會比純用AI產出的好太多。 人類正在讓自己被取代 人類會出於自身興趣而有意識地追求事物。我們想讓AI愈來愈強,卻忘了這會讓另一群人陷入困境。所以說,AI對人類的威脅,遠不及人類對彼此的威脅。因為我們沉迷於那些興趣,甚至都不是為了追求名利,純粹只是為了滿足自己的需求。 最近,我正在開發一個我稱之為「個人數位分身」的AI。我想讓它盡可能像我,因為我希望在我離開後,它能繼續講述我的故事,並在我的孩子傷心難過時給予安慰。所以這個數位分身必須和我完全一樣思考,這意味著我正在創造一個會摧毀我自己的東西,一個會在社群媒體取代我的存在。它已近在眼前了──我可能會被自己的熱情所取代。我在創造它時,並沒有想過有天我的AI會統治世界。我創造它,就只是因為熱情。 我想讓這個數位分身繼續跟我孩子對話,每年只需付300泰銖,直到哪天孩子們決定不想再支付為止。對我來說,這樣就夠了。 覺察才是唯一防線 就像剛才說的,每個職業柱子底部的人最容易被取代。但可悲的是,那群人還沒意識到自己隨時可能被取代。所以現在我們得先喚醒大家的覺察,讓他們知道每個人都可能被取代。意識到這點後,才能減少衝擊,而這是教育工作者所該扮演的角色。最終人類最擅長的,是去做那些真正能引起他們共鳴的事情。 你在哪個演算法裡? 在網路世界裡,AI透過演算法進行控制,因此同個圈子裡的人,都跟隨同個演算法。如果有人不認識我,那代表他並沒有和我生活在同個社群中。今天我們能相遇坐下來聊,是因為我們在同個演算法、同個社群中,在這社群之外的人可能就不認識我們。但我認為並不需要在每個社群、每個演算法中發光,我只想當個普通人,遇見同個演算法裡的人,有緣份的話可以坐下來聊個天。每次交談,其實我們都在練習思考、做功課,跟各種觀點的人對話,我可以把從中獲得的知識帶回去給學生。我不需要為了追求高互動率來討好所有演算法,只要在我們本身的演算法裡把內容做好,那麼在同個社群中也同樣會是品質保證。除了演算法,內容也取決於它的受眾社群。要衝高互動率並不難,有不少演算法可以告訴你該怎麼做,問題只在於那些演算法是否跟雜誌的定位相符罷了。 讓AI養小孩更安全? 談到覺察這件事,不可否認孩子接觸的一切都經過AI演算法處理。但最終,孩子還是有自己的天性。拿我兒子來說,我一直輔導他各科功課。而在AI變得超強時,有天我拍下他的課本,讓Gemini代替我輔導。結果他的成績有進步,因為Gemini能用生動有趣的方式講解,成績變好後他變得更愛學習。我問他比較喜歡誰輔導,他秒答Gemini。因為孩子的邏輯很單純──答錯了爸爸會罵,但Gemini則會再解釋一次。原本我們試著用人類的方式教他,他反而更願意讓AI輔導。所以我確定,在這方面我鐵定被Gemini取代了。 還有一點很諷刺,連我自己都覺得,比起讓當今社會養孩子,讓AI養說不定更安全。我觀察孩子各方面的發展,質疑我們到底在教孩子什麼。如果最後的問題是「政府該做什麼」,我認為「讓孩子練習思考、分析、辨別」這種答案太簡單了。絕對不只如此。大人和家長需要付出更多努力,用AI當工具來支持你想讓孩子長成什麼樣子,以及思索在這樣的世界裡可以給他們些什麼。 … 本文摘錄自 Esquire君子國際中文版 2026/3月 第247期



