
歐盟禁止具「不可接受風險」的人工智能系統
隨著歐盟的法規於2月2日生效,該區域的監管機構可以禁止使用他們認為會帶來「不可接受風險」或傷害的人工智能(AI)系統。
這一天是歐盟《人工智能法案》的首次合規截止日期,該法案是一項全面的人工智能監管框架,經過多年的發展,歐洲議會於去年3月終於通過。該法案於8月1日正式生效,現在進入首個合規截止日期。
具體內容在第5條中列出,但總體而言,《法案》旨在涵蓋各種人工智能可能出現並與個人互動的使用案例,從消費者應用到物理環境。
根據歐盟的做法,風險層級分為四類:(1) 最低風險(例如,電子郵件垃圾郵件過濾器)不會受到監管;(2) 有限風險,包括客戶服務聊天機器人,將受到輕度監管;(3) 高風險——例如用於醫療建議的人工智能,將面臨嚴格的監管;(4) 不可接受風險的應用——本月合規要求的重點,將被完全禁止。
一些不可接受的活動包括:
– 用於社會評分的人工智能(例如,根據個人行為建立風險檔案)。
– 以潛意識或欺騙性方式操控個人決策的人工智能。
– 利用年齡、殘疾或社會經濟狀況等脆弱性進行剝削的人工智能。
– 根據外貌預測人們犯罪的人工智能。
– 使用生物識別技術推斷個人特徵(例如性取向)的人工智能。
– 在公共場所收集「實時」生物識別數據以用於執法的人工智能。
– 嘗試推斷人們在工作或學校情緒的人工智能。
– 通過在線或安全攝像頭抓取圖像來創建或擴展面部識別數據庫的人工智能。
在歐盟內部發現使用上述任何人工智能應用的公司,無論其總部位於何處,都將面臨罰款。罰款金額可能高達3500萬歐元(約3600萬美元),或其前一財年的年收入的7%,以較高者為準。
英國律師事務所Slaughter and May的技術主管Rob Sumroy在接受TechCrunch訪問時指出,罰款不會立即生效。
「組織預計在2月2日之前完全合規,但……公司需要注意的下一個重要截止日期是八月,」Sumroy表示,「到時我們將知道哪些主管機關負責,罰款和執法條款將生效。」
初步承諾
2月2日的截止日期在某種程度上是一種形式主義。
去年9月,超過100家公司簽署了歐盟人工智能協議,這是一項自願承諾,旨在在法案正式生效前開始應用《人工智能法案》的原則。簽署者包括亞馬遜、谷歌和OpenAI等公司,承諾識別可能被歸類為高風險的人工智能系統。
一些科技巨頭,特別是Meta和Apple,則選擇不簽署該協議。法國人工智能初創公司Mistral,作為《人工智能法案》的嚴厲批評者之一,也選擇不簽署。
不過,這並不意味著Apple、Meta、Mistral或其他未簽署該協議的公司不會履行其義務,包括禁止使用不可接受風險的系統。Sumroy指出,根據所列的禁止使用情況,大多數公司本來就不會進行這些做法。
「對於組織而言,關於歐盟《人工智能法案》的主要關注點在於,是否能及時提供明確的指導方針、標準和行為準則,尤其是這些準則能否為組織提供合規的清晰指引,」Sumroy表示。「然而,工作組迄今為止在開發者行為準則方面正在按時完成他們的任務。」
可能的豁免
《人工智能法案》對幾項禁令設有例外。
例如,該法案允許執法機構在公共場所使用某些系統收集生物識別信息,如果這些系統有助於進行「針對性搜索」,例如尋找綁架受害者,或幫助防止「特定、重大且迫在眉睫」的生命威脅。這一豁免需要適當管理機構的授權,並且法案強調,執法機構不能僅根據這些系統的輸出作出對個人「產生不利法律效果」的決定。
該法案還對在工作場所和學校中推斷情緒的系統設有例外,前提是有「醫療或安全」的理由,例如為治療用途而設計的系統。
歐洲委員會,即歐盟的執行機構,表示將在2025年初發布額外指導方針,並在11月與利益相關者進行磋商。然而,這些指導方針尚未發布。
Sumroy表示,目前尚不清楚其他法律如何與《人工智能法案》的禁令及相關條款相互作用。隨著執法窗口的臨近,清晰度可能要等到今年晚些時候。
「對於組織而言,重要的是要記住,人工智能監管並不是孤立存在的,」Sumroy說。「其他法律框架,例如GDPR、NIS2和DORA,將與《人工智能法案》相互作用,從而帶來潛在挑戰,特別是在重疊事件通報要求方面。理解這些法律如何相互適應,與理解《人工智能法案》本身同樣重要。」
在今天的數字時代,人工智能的發展速度與日俱增,歐盟的這項法案無疑是對人工智能監管的一個重要里程碑。它不僅反映了對技術進步的擔憂,還強調了保護個人隱私和權利的重要性。然而,這些規範的實施與執行仍需時間來檢驗其有效性和可行性。各大科技公司如何適應這些新規範,將成為未來幾年內的重要議題。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。