Meta拒絕簽署歐盟AI行為準則
Meta拒絕簽署歐盟最新推出的人工智能(AI)行為準則,這距離歐盟針對通用AI模型供應商的規範正式生效只剩數週時間。Meta全球事務主管Joel Kaplan在LinkedIn發文指出:「歐洲在AI監管方面正走錯路。我們已仔細審視歐盟執委會的通用AI模型行為準則,但Meta不會簽署該準則。這份準則為模型開發者帶來大量法律不確定性,且所採取的措施遠超AI法案本身的範疇。」
這份行為準則是歐盟本月早些時候發布的自願性框架,目的是協助企業建立合規流程和系統,符合歐盟關於AI監管的立法要求。準則內容包括要求企業提供並定期更新其AI工具和服務的相關文件;禁止開發者使用盜版內容訓練AI;並需遵從版權持有者要求,不將其作品納入數據集。
Kaplan批評歐盟的立法執行是「過度擴權」,他認為這條法律將「扼殺歐洲前沿AI模型的開發和部署,也會抑制歐洲企業基於這些模型創業的動力。」
歐盟的AI法案是一套基於風險的監管規則,明令禁止某些「不可接受風險」的AI應用,例如認知行為操控或社會評分。法案同時界定了一批「高風險」用途,包括生物識別技術、面部識別,以及教育和就業領域。法案要求開發者註冊AI系統,並履行風險和質量管理義務。
包括Alphabet(谷歌母公司)、Meta、微軟和Mistral AI等全球科技巨頭一直在對抗這些規則,甚至呼籲歐盟執委會推遲法案實施。不過,歐盟方面堅持按計劃推進,未有改變時間表。
此外,歐盟於本週五公布了針對AI模型供應商的指引,為8月2日生效的新規定作準備。該規定將影響像OpenAI、Anthropic、谷歌和Meta這類提供「具有系統性風險的通用AI模型」的企業。這些企業必須在2027年8月2日前完成合規。
—
評論與深度觀察
Meta拒絕簽署歐盟的AI行為準則,反映出全球科技巨頭對於監管框架的深刻分歧。歐盟以其嚴格且前瞻性的AI法案,試圖在技術創新與風險控制之間取得平衡,尤其關注數據權利、透明度和用戶保護。然而,Meta等企業認為這些規定過於嚴苛,甚至可能扼殺創新活力。
這場拉鋸戰揭示了AI發展中一個核心矛盾:如何在促進技術進步與保障社會倫理、法律底線之間找到合適位置。歐盟的監管視角更偏向預防性和風險管理,強調企業的責任和透明度,而Meta則擔心過度管控會減緩技術引進和商業化速度。
對香港和其他亞洲市場來說,這場歐盟與科技巨頭的角力具有重要啟示。首先,全球AI監管趨勢正加速,企業必須未雨綢繆,適應更嚴謹的合規要求。其次,監管政策的制定不應過於一刀切,應考慮到技術革新的動態特性及不同市場的具體情況。最後,公共政策制定者應加強與業界溝通,尋求平衡創新推動力與社會風險防控的最佳策略。
總括而言,Meta的「不合作」態度或許是促使歐盟調整政策細節的催化劑,但同時也提醒各方,AI監管不僅是法律問題,更是科技倫理、經濟利益與社會價值觀的多維交織。香港作為國際金融及科技樞紐,應密切跟進全球監管趨勢,並積極參與相關討論,為本地企業和用戶創造一個既安全又有利於創新的發展環境。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。