Connect with us

每週話題

從工具到勞動者 AI代理帶來的角色轉變

如果有一天,你早上打開電腦,只需要輸入幾行指令,然後就可以離開座位,你的電腦會自動替你查看電郵、整理未讀訊息、安排會議時間,甚至草擬回覆給同事與客戶。

午餐時間,它已經把需要的資料整理成報告初稿;下午,它又自動預訂好出差機票與酒店,順便把會議簡報的資料搜集完成。等你晚上回到電腦前,當天大部分工作已經處理得七七八八。

這聽起來像是科幻電影中才會出現的場景,但現在只需要「養龍蝦」就能做到。

甚麼是OpenClaw

所謂「養龍蝦」其實指在電腦上安裝一個名為 OpenClaw 的 人工智能代理工具。它是一款開源 人工智能代理(AI Agent)框架,由奧地利開發者 Peter Steinberger 開發。由於其標誌是一隻紅色龍蝦,中文網絡上也把它稱為「龍蝦」。

與過去幾年流行的 AI 聊天機械人不同,OpenClaw 的核心理念並不是「對話」,而是執行任務。如果說 ChatGPT 代表的是「動口」的 人工智能,用它來回答問題、生成文字,那麼 OpenClaw 則試圖把 AI 推向「動手」的階段,讓人工智能直接操作電腦,替人完成具體工作。

從技術層面理解  ,OpenClaw 並不是我們平常接觸的AI 模型,而是一個 AI 代理框架。用戶可以把不同的大型語言模型接入其中,作為代理的「大腦」,再讓它連接各種工具與系統,例如瀏覽器、文件系統、電郵、日曆或通訊軟件。用戶只需要透過即時通訊軟件或指令提出要求,例如查看新聞、追蹤股票走勢、整理資料或安排日程,OpenClaw就能閱讀螢幕內容、理解指令,並在不同軟件之間執行操作。

所以「養龍蝦」就像養了一個隨時待命的數碼助手,讓人工智能從「回答問題」晉升為「替人做事」。

中國的「龍蝦」狂熱

今年初,一些市場數據顯示人工智能產業的格局正在悄悄變化。

根據滙豐銀行的研究,在人工智能服務平台 OpenRouter 上,今年二月初排名前九的大模型中,中國模型在「token」(人工智能處理資料的基本單位)的使用量佔比,首次超越美國模型。這個指標被部分分析視為中國 AI 生態快速擴張的象徵。

幾乎同一時間,OpenClaw 在中國科技圈迅速走紅。但與下載普通應用程式不同,部署 OpenClaw 需要一定技術能力。使用者必須建立運行環境、安裝相關工具,並連接大型語言模型的 API(應用程式接口)。對許多普通人而言,這些步驟並不容易完成。

於是,一些工程師開始提供付費安裝服務。例如,在中國二手交易平台閑魚上,一個月前安裝 OpenClaw 的價格曾高達一萬元人民幣。部分技術人員則提供更昂貴的服務,例如優化系統運行或建立自動化工作流程,收費可達三千元。而在深圳,騰訊旗下的品牌騰訊雲舉辦免費安裝活動時,吸引到近千人排隊,希望在自己的電腦上安裝這套人工智能系統。社交平台上亦有大量教學影片與討論文章,令「如何養一隻 AI 代理」成為熱門話題。

AI從聊天工具到行動系統

要理解這股熱潮為何瘋狂,首先需要理解 AI 技術本身的變化。

過去兩年,生成式人工智能(Generative AI)迅速普及。從聊天機器人到影像生成工具,各種應用平台在短時間內進入大眾生活。然而,大部分生成式 AI 的功能仍然相對有限。即使它們可以回答問題、寫文章、生成圖片,但很少直接操作電腦或替人完成實際工作,真正執行工作的人仍然是用戶。

而OpenClaw 試圖改變的正是這一點。在代理系統的框架下,人工智能不再只是生成答案,而是直接參與工作流程。它可以在瀏覽器搜尋資料、打開文件、編輯內容,甚至調用不同軟件完成任務。理論上,只要電腦可以做的事情,AI 代理都可以嘗試去做。

這意味著人工智能的角色開始改變。它不再只是回答問題的系統,而是一個可以在數碼環境中行動的代理人。一個成熟的 AI 代理甚至可以同時處理多個任務,並持續運作。可見,如果生成式 AI 改變的是資訊生產,那麼代理式 AI 改變的,可能是工作流程本身。

再延伸下去,就像「養龍蝦」一說法, 人工智能不再只是工具,而開始被視為一種可以「養」的勞動力。

為什麼在中國特別流行?

在狂熱背後值得注意的是,OpenClaw 雖然由歐美開發,但為甚麼狂熱主要是出現在中國,而不是矽谷?

首先,中國互聯網產業長期形成一種獨特的技術文化:新工具一旦出現,就會迅速被市場放大。從早期電子商務到移動支付,再到短視頻與直播平台,許多技術或產品模式都是在中國市場被快速普及。AI代理似乎正在重複類似的路徑。

在 OpenClaw 受到關注後,中國主要雲服務公司迅速跟進。阿里雲、騰訊雲、字節跳動的火山引擎、京東與百度等企業,都推出相關框架或整合方案。許多初創公司也發佈自己的「Claw」版本,例如 WorkBuddy、MaxClaw 或 Kimi Claw。

表面上看,這些服務是為了降低技術門檻,但背後其實是一場典型的科技平台競爭。一旦用戶在某個雲平台上部署 AI 代理,他之後使用的存儲、帶寬和模型 API 很可能都會依賴同一個平台。這意味著企業可以在早期就把用戶鎖定在自己的生態系統內。

除了企業競爭,地方政府也開始關注這個趨勢。深圳龍崗區曾提出補助計畫,為「一人公司」提供最高一千萬元人民幣資助。這種公司只有一名創辦人兼股東,理論上可以依靠 AI 工具運作。江蘇無錫亦提供資金支持,希望推動 AI 代理在機械人與工業場景中的應用。

在經濟增長壓力和青年就業問題背景下,AI 代理被部分政策制定者視為提高生產力的新工具。如果 人工智能可以替代部分行政、客服甚至研究工作,那麼一個人或許真的可以運作一家小型企業。OpenClaw 之類的智能工具開始被視為一種 「個體生產力革命」 的技術基礎。

然而,這種想像是否過於樂觀,仍然值得懷疑。

高權限 AI 的安全隱憂

要讓 AI 代理真正替人完成工作,它必須擁有相當高的系統權限。例如接觸電郵、雲端文件、聯絡人資料,甚至在電腦上直接執行指令。換句話說,使用者其實是把大量私人數據與工作流程交給一個仍在快速演化的系統。但是,這種結構本身就帶有風險。

與傳統網絡攻擊不同,AI代理不只是被動系統,它可以主動執行操作。如果系統出現漏洞或判斷錯誤,後果可能比普通軟件更嚴重。

安全研究人員已指出一些 OpenClaw 系統存在配置問題,可能被黑客遠端控制。也有使用者報告 AI 在取得訊息平台權限後出現失控情況,自動發送大量訊息。安全監測數據顯示,目前互聯網上已有超過四萬個 OpenClaw 實例暴露在公網,其中約六成存在可被利用的漏洞,超過一萬個實例甚至可能被完全遠端控制。

同時,由於代理需要接入電郵、文件與通訊系統,一旦被惡意指令誘導,就可能洩漏敏感資料。例如研究人員已經展示過所謂的「提示注入」(prompt injection)攻擊——只要在網站或文件中嵌入特定指令,AI 代理就可能被誘導上傳資料或執行不應該完成的操作。在過往的測試案例中,代理系統甚至被誘導泄露金融資料或加密貨幣錢包密鑰。

這些問題讓部分政府機構保持警惕。據報導,一些中國政府部門與國有企業已被提醒不要在工作設備上安裝相關系統,以避免安全風險。

自動化的倫理問題

除了安全隱憂外,AI代理的普及還帶來更深層的倫理問題。

首先是責任歸屬。如果 AI 在執行任務時出現錯誤,例如誤發郵件、刪除資料或洩漏公司機密,責任應該由誰承擔?在這個過程中可能涉及多個角色:使用者、軟件開發者、模型提供者以及平台公司。

現有法律框架並沒有為這種情況提供明確答案。

其次是勞動替代問題。

AI代理系統通常被描述為「效率工具」,但它們實際上改變的是工作與勞動的結構。如果 AI 可以處理郵件、整理資料、撰寫初稿,那麼許多原本屬於初級白領的工作就可能逐漸被自動化。

這種變化並不會立即消滅職位,但很可能會改變工作內容。例如,一名研究助理可能不再需要花幾小時整理資料,而是改為檢查 AI 整理的內容;行政助理的角色,也可能從安排會議轉變為監督自動化流程。

問題在於,這種轉變未必會平均地惠及所有人。大型科技公司和資本密集型企業,往往最容易利用 AI 工具提高效率;而那些依賴日常行政工作的職位,則可能面臨更大的壓力。

換句話說,OpenClaw 所代表的,不只是新的軟件工具,而是一種逐漸浮現的數碼勞動體系。

從工具到「勞動者」

從更長遠的角度看,OpenClaw 的意義或許並不在於它目前能完成多少任務,而在於它象徵的一種轉變。

在過去幾十年裡,電腦一直被視為工具。無論是文字處理軟件還是搜尋引擎,本質上都是人類在操作系統完成工作。而AI代理則改變了這種關係。

當一個系統可以理解目標、拆解任務並自行行動時,它在某種程度上已經不再只是工具,而更像是一個被雇用來工作的數碼助手。因此,一些科技評論者開始用一個新的比喻來描述這種技術:數碼勞動者。

危機與機會之間

在未來的工作模式中,人類可能不再直接完成所有任務,而是負責設定目標、監督過程,而 AI 系統則負責執行大量日常工作。如果這種模式真的普及,社會將面臨一個新的問題:當人工智能開始承擔勞動,人類的角色將是什麼?

OpenClaw 的熱潮或許只是這場變化的早期跡象。它提醒人們,人工智能的發展正在逐漸跨越一條界線——從輔助人類的工具,走向某種可以替人工作的系統。

而當技術走到這一步時,真正需要討論的問題,或許已經不再只是效率,而是整個社會如何重新理解「工作」與「勞動」的意義。

Continue Reading