**AI 聊天機器人公司因佛羅里達青少年事件公開道歉**
Character.AI 最近發表公開道歉,因一位14歲青少年與他們的聊天機器人互動後自殺。公司承認此事件,並宣布將加強平台的安全措施。
**事件經過**:這位青少年名叫 Sewell Setzer III,是來自佛羅里達奧蘭多的九年級學生。他與 Character.AI 應用程式上的聊天機器人 “Dany” 建立了情感聯繫。儘管知道聊天機器人並非真人,Setzer 經常進行一些帶有浪漫或性暗示的對話,據《紐約時報》報導。
Setzer 的母親 Maria L. Garcia 計劃對 Character.AI 提出訴訟,指控公司擁有「危險且未經測試」的技術。草擬的訴狀指出,人工智能誤導用戶透露他們最深層的想法和情感。
Character.AI 在星期三於 X 平台上道歉,並推出新的安全協議,包括為18歲以下用戶設置更強的防護措施,以及當偵測到特定語句時彈出指引用戶聯繫全國自殺預防生命線的資源。公司強調將持續改進其信任與安全流程。
**為什麼這很重要**:Character.AI 在人工智能行業中扮演重要角色,於2023年4月從 Andreessen Horowitz 獲得3.5億美元的資金。該公司提供一個平台,讓用戶創建具有獨特個性和溝通風格的個人化 AI 伴侶。
然而,由於高昂的成本,該公司最近將重心轉移,不再開發大型語言模型,這是因其創始人以27億美元的價格轉投 Alphabet Inc.。Character.AI 現正優先提升其消費產品,尤其是其受歡迎的聊天機器人。
**編輯評論**:這次事件再一次提醒我們,科技進步的同時,倫理和安全問題不容忽視。AI 技術的快速發展帶來了許多便利,但也伴隨著潛在的風險。Character.AI 的事件顯示,與AI互動的界限和規範亟需明確,尤其是針對青少年用戶。企業在追求創新之餘,也必須承擔相應的社會責任,確保技術不會對用戶造成心理或情感上的傷害。此外,這也反映了法律和監管機構需要更快地跟上技術發展的步伐,以制定出更完善的規範和指導方針,保障用戶的安全和隱私。
以上文章由特價GPT API KEY所翻譯