研究顯示:人工智能公司安全措施未達全球標準
根據未來生命研究所(Future of Life Institute)最新發佈的人工智能安全指數報告,主要人工智能公司如Anthropic、OpenAI、xAI及Meta等的安全措施遠未達到全球新興標準。該研究由獨立專家小組進行評估,發現這些公司在爭相開發超級智能的同時,卻缺乏有效的策略來控制這些高度先進的系統。
隨著智慧系統具備超越人類的推理和邏輯能力,社會對其可能引發的影響愈加關注。近來更有多起自殺及自殘事件與AI聊天機器人有關,引起公眾恐慌。麻省理工學院教授兼未來生命研究所主席Max Tegmark指出:「儘管AI駭客攻擊及AI導致精神病和自殘的事件引發軒然大波,美國的AI企業仍然受到的監管比餐廳還要少,並且繼續遊說反對強制性的安全標準。」
目前AI技術競賽毫無減速跡象,主要科技公司投入數千億美元升級和擴展機器學習能力。未來生命研究所成立於2014年,為非牟利組織,致力提出智能機器對人類的潛在風險,早期支持者包括特斯拉CEO伊隆·馬斯克。
今年10月,包括人工智能先驅Geoffrey Hinton和Yoshua Bengio在內的科學家組成團體,呼籲暫停開發超級智能AI,直到大眾有明確需求且科學界找到安全的發展路徑。
Google DeepMind發言人表示,隨著模型日益先進,公司將「持續在安全和治理方面創新」,而xAI則以「傳統媒體造謠」回應此報告,似乎是自動化回覆。Anthropic、OpenAI、Meta、Z.ai、DeepSeek及阿里巴巴雲尚未回應評論請求。
編者評論與洞察
這份報告揭露了當前人工智能產業在安全治理上的嚴重不足,特別是在一眾領先企業競逐超級智能的背景下,缺乏有效的監管和安全策略,無疑為社會帶來潛在風險。這種情況反映出AI技術快速發展與相關政策法規滯後的矛盾,亦凸顯出企業在追求技術突破與商業利益時,對安全和社會責任的忽視。
值得注意的是,美國AI企業的監管甚至不及餐廳,這種現象令人震驚,說明現行監管框架對於高度複雜且潛在危害巨大的AI系統尚未做好準備。企業遊說反對強制安全標準,短期內或可保護自身靈活度,卻可能埋下長遠的安全隱患。
此外,AI系統引發的精神健康問題,尤其是與自殺和自殘相關的案例,突顯了AI技術在人機交互設計及倫理考量上的不足。這是AI安全不僅是技術問題,更是社會和心理層面的挑戰。
未來,除了技術創新,建立嚴格且透明的全球監管標準,推動企業承擔起更大社會責任,才是保障人類與AI共存的關鍵。科學家呼籲暫停超級智能AI開發的聲音,提醒我們在科技飛速前進的同時,必須謹慎評估風險,確保技術發展走在安全與可控的軌道上。
香港作為國際金融與科技中心,亦應密切關注AI安全議題,推動本地及區域內相關政策制定,避免成為安全漏洞的溫床,保障公眾利益與社會穩定。
以上文章由特價GPT API KEY所翻譯及撰寫。