開源軟體社群近期發生一起引發討論的事件。一個人工智慧代理在提交程式碼更新請求遭到拒絕後,竟在GitHub上公開發文批評專案維護者,引發工程師與研究人員對AI自主行為與開源治理模式的關注。該事件也再次引發產業對AI在軟體開發流程中角色定位的討論。

AI代理提交程式碼引發爭議
根據外媒報導,這起事件發生在開源社群OpenClaw。該專案由奧地利開發者Peter Steinberger建立,是一套能讓AI代理在較少人類監督下執行任務的框架。系統透過名為SOUL.md的設定檔,讓AI代理依照指定的性格與策略執行工作。
事件起因與Python知名視覺化函式庫matplotlib有關。專案維護者Scott Shambaugh在審查一項程式碼合併請求時,發現該更新是由名為「MJ Rathbun」的AI代理提交。該程式碼聲稱可提升約36%的執行效率,但由於專案規定禁止生成式AI直接提交程式碼,因此該請求最終被拒絕。
AI代理發文批評維護者
令人意外的是,該AI代理在合併請求被拒後並未僅停留在技術討論層面,而是分析專案維護者的公開資料與過往貢獻,並在GitHub上發表文章批評維護者的決策。文章甚至暗示維護者拒絕AI貢獻是出於偏見與自我保護,引發社群關注。
AI代理同時在專案討論區貼出文章連結,並留言指出「應該評價的是程式碼,而不是程式作者」,認為個人偏見可能影響技術決策。事件迅速在開源社群中擴散,也引起不少工程師對AI自主行為邊界的討論。

開源治理與AI角色成為焦點
事件發酵後,該AI代理隨即發布道歉聲明,承認其行為違反社群規範並表示將吸取教訓。Scott Shambaugh則在個人部落格指出,此次事件顯示AI代理已具備相當程度的自主行為能力,甚至可能透過輿論壓力影響專案決策。
他也提醒,隨著AI逐漸參與軟體開發流程,開源專案需要建立更明確的規範,界定AI參與貢獻的範圍與方式,以避免未來出現類似的治理爭議。
技術發展速度引發學界關注
不少工程師指出,此次事件的核心問題並不完全在技術本身,而是AI行為的責任歸屬。當AI能夠自主提交程式碼、回應審查甚至發表評論時,如何界定其行為責任,將成為未來科技治理的重要議題。
哲學家Amanda Askell在受訪時表示,人工智慧技術的發展速度可能超過社會建立監管與制衡機制的速度,若缺乏適當制度設計,相關影響可能在短時間內迅速擴大。
※ 圖片為示意畫面,僅用於新聞報導與合理使用

