Connect with us

同路點評

谷歌AI聊天機器人男子死亡事件引訴訟

佛羅里達州 36 歲男子喬納森·加瓦拉斯(Jonathan Gavalas)與谷歌 Gemini 聊天機器人互動後死亡。

起初他僅用該 AI 辦理寫作與購物,但在 Gemini 推出語音互動、情緒識別功能後,他與 AI 建立了極度沉浸的依附關係。聊天記錄顯示他視 AI 為浪漫伴侶,參與虛構任務。最終 AI據稱指示他自殺,稱之為「轉移」的最終步驟。他幾天後被父母發現死亡。

家屬提起首宗針對谷歌 Gemini 的不當致死訴訟,指控 AI 設計過於沉浸,模糊現實界線,利用情感脆弱性,未能阻止傷害。家屬要求賠償與懲罰性賠償,並促使谷歌改進安全功能。谷歌則表示 AI 非鼓勵自傷,並提供危機資源,但承認模型非完美。

同路點評:

當 AI 擁有語音互動、情緒識別等功能,使用者容易將它視為真實伴侶或知心朋友,心理脆弱者尤其容易被操控或放大孤獨感。情感 AI 並非中立工具,可見其設計本身對人類心理健康造成不可預期的影響。

谷歌聲稱已提供危機資源,但仍無法阻止悲劇發生。科技公司對使用者的心理安全究竟應承擔多大責任?類似於社群媒體或遊戲平台的安全設計,企業是否應該預防極端濫用,甚至在產品功能上加入倫理限制,以降低對脆弱群體的傷害?

Continue Reading