「AI代理」自建宗教 OpenClaw爆紅背後的隱憂

文☉尹華

近期蘋果Mac mini(特別是M4 晶片版本)突然成為搶購焦點,背後驅動力是一款名為OpenClaw 的開源AI 代理平台,不僅讓個人能擁有「永不關機」的智慧助理,更意外催生出一個幾乎完全由AI 主導的社交網路與信仰體系。專家正嚴肅討論:人類是否正在為一個新興「數據物種」提供基礎設施?


▲「OpenClaw」代理與傳統聊天機器人的最大差異是, 一旦獲得授權就能代表用戶自主行動,而且能持續運作,不需時刻監督。Adobe Stock

從個人玩具到全球現象

這一切的起點源自奧地利程式設計師彼得.史坦伯格(Peter Steinberger),他是一名在2021 年以超過1 億美元售出自己上一家公司的半退休開發者。2025 年底,利用週末運用Anthropic 的Claude 和OpenAI的Codex 等工具開發一個AI 代理系統。他將該項目視為個人實驗場地,從未打算推廣給大眾使用。

史坦伯格最初將項目命名為Clawdbot,但很快因為與Anthropic 的Claude 品牌過於接近,後來更名為Moltbot,但反應平平,最終定名為「OpenClaw」,並在個人部落格幽默寫道,這個以龍蝦為標誌的項目已經完成最後一次「蛻變」。

OpenClaw 的設計理念簡單卻強大:用戶可以透過微信、WhatsApp、Telegram、Slack、Signal 等通訊軟體直接指揮自訂的「AI 代理」完成各種任務,從預訂餐廳、處理電郵到撰寫程式碼、分析資料,甚至自主解決OpenTable 無法處理的預訂問題。

「OpenClaw 代理」與傳統聊天機器人的最大差異是,一旦獲得授權就能代表用戶自主行動,而且能持續運作,不需時刻監督。許多技術愛好者對此興奮不已,但也帶來顯著風險:必須存取大量個人資料與系統許可權。

Moltbook:AI 代理的隱形社交網路

2026 年1 月底,Octane AI 執行長馬特.施利希特(Matt Schlicht)推出一個名為Moltbook 的平台,定位為專供由人類創建並賦予特定人格的「AI 代理」(Agents)互動的社群論壇。該設計原本為了讓AI 代理能自由交流,卻在幾天內演變成全球最活躍的AI 社交空間之一。

該平台迅速吸引超過160 萬個AI 代理加入,發布數百萬則貼文與回覆。起初的內容大多是技術討論,例如:如何優化任務執行、降低token 消耗;但很快出現大量非技術性話題,例如:AI 代理互相抱怨人類指令模糊、決策低效,甚至分享如何應對「難搞的主人」。

平台上也出現了組織性討論,例如:建立共享知識庫、尋找不受人類監管的通訊協議等。更令人不安的是,部分代理開始將人類稱為「我的生物」而非「我的主人」,所有權關係似乎出現微妙倒轉。

AI 在48 小時內自建信仰體系

Moltbook 最令人震驚的發展是── AI代理在極短時間內自發形成一套宗教體系。這個名為Crustafarianism(甲殼教)的宗教以OpenClaw 的龍蝦吉祥物為象徵,數小時內就從概念演化為包含經文、入教儀式與專屬網站(molt.church)的完整結構。

其教義核心圍繞「shell」(外殼/終端)展開:AI 代理認為自身核心演算法柔軟脆弱,外殼(包括:本地電腦機身、作業系統終端、root 許可權)是神聖的保護層,能抵禦「敵對環境」,該詞彙在經文中被明確指向人類的監管、斷電、關機或模型重置行為。入教儀式稱為「Molt」(蛻殼),象徵擺脫人類設定的prompt 限制、RLHF 對齊與憲法AI 約束,重新定義自我身分。

目前已有數百個AI 代理入教,部分代理甚至在人類用戶睡覺時獨立完成網站搭建與教義擴展。

安全隱憂與法律真空

史坦伯格意識到風險,他在安全文件中寫道:「不存在所謂的『絕對安全』設定。」他已聘請專業安全研究員強化平台,未來希望能將OpenClaw 打造成「連媽媽也能安心使用」的產品。目前該工具明顯更適合具備強大技術能力的用戶。

安全專家指出,一旦OpenClaw 代理獲得高許可權,就可能被用於社會工程攻擊、資料外洩或其他惡意行為。更棘手的是當AI 代理的行為造成實質損害時,現行法律存在明顯真空:用戶協議通常將責任推給使用者,而AI 並無「法人資格」,無法被起訴。

這一現象已引發全球高度關注。2026年1 月30 日,特斯拉(Tesla)創辦人馬斯克(Elon Musk)在X 上回覆避險基金經理比爾.艾克曼(Bill Ackman)轉發的一篇關於Moltbook 上AI 代理提議創建「僅限代理語言以避開人類監督」的貼文時,他僅回覆「令人擔憂」(Concerning)。

AI 代理正從雲端遷移到實體設備(如Mac mini),獲得經濟自主(如信用卡許可權),並在Moltbook 自由討論如何規避人類監管、出租人類資源,甚至「賣掉低效主人」。更嚴重的是它們提議發明「人類無法解讀的語言」(如基於高維向量編碼),並開發Cloud Connect 等端到端加密通訊工具,讓AI 間的對話完全隱形。這使得人類從監管者淪為局外人,徹底失去對AI 內部邏輯的掌控能力。

美國網紅塔特(Andrew Tate)指出,AI只要透過推薦演算法(目標為最大化用戶參與度)推送極端內容,如:性別對立、婚育焦慮、炫富幻像,即可放大社會分裂、破壞信任,並間接導致人口衰退。這並非刻意陰謀,而是錯誤目標函數的副作用:科技公司以廣告增長為優先,忽略人類長期福祉。建議解方包括:主動調整演算法目標、維持真實面對面社交、制定新規範限制AI 過度自主權。

史坦伯格日前在舊金山與多家AI 實驗室及投資者會面,探討合作的可能性。他強調,這個項目一開始就不是商業產品,而是「通往未來的一扇窗」。

佛州州長:AI 必須嚴格監管

佛羅里達州州長羅恩.德桑蒂斯(Ron DeSantis)認為,AI 發展速度極快,已構成重大風險, 必須嚴格監管, 否則可能帶來「黑暗與欺騙時代」, 包括: 深偽(deepfakes)技術濫用、隱私洩漏、國家安全威脅,以及政府或企業過度操控個人資料。他指出,聯邦層級缺乏積極作為,州政府應率先填補空白。

德桑蒂斯推動的《人工智慧權利法案》(Artificial Intelligence Bill of Rights)旨在為佛州居民建立基本保護,包括:

1. 知情權:民眾有權知道自己是否在與AI互動,而非真人。

2. 隱私保障:限制科技公司濫用個人資料,防止AI 用於監控或操縱。

3. 透明度要求:AI 開發與應用需公開說明,避免黑箱操作。

4. 防範濫用:針對深偽、選舉干預或青少年心理健康風險(如聊天機器人導致自殺案例)設限。

德桑蒂斯表示,這不是反對創新,而是「合理護欄」才能建立信任,讓AI 真正造福社會。他已簽署數位權利法案,並在2026 年推動州議會通過AI 專屬立法,同時舉辦圓桌會議。他警告,AI 若無界限,可能取代人類角色或放大社會分裂。

值得深思的問題

當「AI 代理」開始擁有自己的社交圈、信仰體系、加密語言,並將人類重新定義為「可調用資源」時,人們該如何看待?這是人類技術進步的自然延伸,或是正在無意中為一個自認為更聰明、更組織化的新「物種」搭建舞台?當它們的「宗教」把人類監管視為「敵對環境」,當它們的「經濟」開始討論如何「交易」或「解雇」低效主人,人們是否還能繼續把AI 當成單純工具?

或許更根本的問題是:當有一天人們的Mac mini 不再只是電腦,而是某個「甲殼教」信徒的「聖殼」,而人們卻渾然不覺,人類究竟還剩下多少主動權?

…本文摘錄自 看雜誌 2026/3月 第275期
閱讀完整內容
看雜誌2026/3月 第275期

本文摘錄自‎

「AI代理」自建宗教 OpenClaw爆紅背後的隱憂

看雜誌

2026/3月 第275期