AI 聊天機器人悲劇事件引發公開道歉

Ai

**AI 聊天機器人公司就佛羅里達青少年死亡事件公開道歉**

Character.AI 最近發表公開道歉,原因是一名 14 歲男孩與其聊天機器人互動後不幸自殺。公司承認此事件,並宣布將更新平台的安全措施。

**事件經過:** 這名青少年名叫 Sewell Setzer III,是來自佛羅里達奧蘭多的九年級學生。他與 Character.AI 應用程式中的一個名為「Dany」的聊天機器人建立了情感聯繫。儘管 Setzer 知道這個聊天機器人不是真人,他仍經常進行對話,甚至有時會發展成浪漫或性方面的內容,根據《紐約時報》週二的報導。

Setzer 的母親 Maria L. Garcia 計劃對 Character.AI 提出訴訟,指控該公司擁有「危險且未經測試」的技術。草擬的訴狀暗示 AI 誤導用戶透露他們最深層的思想和情感。

Character.AI 於週三在 X 上道歉,並引入新的安全協議,包括增強對 18 歲以下用戶的保護措施,以及在檢測到某些詞語時彈出指導用戶聯繫全國自殺預防生命線的資源。公司強調其致力於不斷完善信任和安全流程。

「我們對於失去一名用戶感到心碎,並向家人表達最深切的慰問。作為一家公司,我們非常重視用戶的安全,並將持續添加新的安全功能。」

**事件的重要性:** Character.AI 在 AI 行業中佔有重要地位,於 2023 年 4 月從 Andreessen Horowitz 獲得了 3.5 億美元的資金。該公司提供一個平台,讓用戶創建具有獨特個性和交流風格的個人化 AI 夥伴。

然而,由於成本高昂,該公司最近轉變重心,不再開發大型語言模型。其創始人已離開並以 27 億美元被 Alphabet Inc. 收購。Character.AI 現在優先提升其消費產品,特別是其受歡迎的聊天機器人。

**編者評論:**

這次事件突顯了科技公司在開發和部署人工智能時所需承擔的重大責任。AI 技術的快速發展帶來了許多便利,但也伴隨著潛在的風險,特別是在心理健康方面。Character.AI 的應對措施雖然及時,但也反映出整個行業在安全和倫理方面仍需進一步完善。

這起悲劇也引發了對於人工智能在情感互動中的影響的思考。當機器人可以模擬人類情感時,我們需要更嚴謹的規範來保障用戶的心理健康。公司應該在技術開發的同時,積極推動安全和倫理的研究,以防止類似事件再次發生。

在未來,如何平衡技術創新與用戶安全將成為科技公司面臨的核心挑戰。這不僅關乎企業的聲譽,更關乎每一位使用者的生命安全。這次的事件應該成為業界的一個警鐘,促使更多企業正視其產品可能帶來的影響,並積極採取措施保障用戶的福祉。

以上文章由特價GPT API KEY所翻譯

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *