Meta在首個AI安全評分中獲得F級,其他公司也僅僅及格
隨著人工智能的發展,對其監管的需求變得愈發明顯。大多數AI實驗室公開支持監管,並在發布之前提供前沿模型的獨立評估,但它們可以做得更多。
隨著世界轉向AI以解決各種問題,缺乏適當的監管可能會導致更多問題的產生。
Future of Life機構針對不同的AI實驗室(包括OpenAI、Meta、Anthropic和Elon Musk的xAI)制定了一份報告卡。AI安全指數是一項獨立評估,考量42個“負責任行為”的指標。
該報告根據這些指標給每家公司打分,Meta專注於其Llama系列的開源AI模型,獲得了F級評價。
AI安全指數對主要AI公司的擔憂數據
| 公司 | 總評級 | 得分 | 風險評估 | 當前危害 | 安全框架 | 存在安全策略 | 治理與問責 | 透明度與溝通 |
| ———— | —— | —- | ——– | ——– | ——– | ————- | ———– | ————- |
| Anthropic | C | 2.13 | C+ | B- | D+ | D+ | C+ | D+ |
| Google DeepMind | D+ | 1.55 | C | C+ | D- | D | D+ | D |
| OpenAI | D+ | 1.32 | C | D+ | D- | D- | D+ | D- |
| Zhipu AI | D | 1.11 | D+ | D+ | F | F | D | C |
| x.AI | D- | 0.75 | F | D | F | F | F | C |
| Meta | F | 0.65 | D+ | D | F | F | D- | F |
報告小組由教育界和智庫的多位知名人士組成,旨在檢查AI公司的運作情況,而初步結果令人擔憂。
在評估Anthropic、Google DeepMind、Meta、OpenAI、x.AI和Zhipu AI的情況下,報告指出了“安全措施的重大缺口”和“對改善問責制的迫切需求”。
根據首份報告卡,Meta的評分最低(x.AI緊隨其後),而Anthropic則名列前茅,但也僅獲得C級。
所有旗艦模型均被發現“易受敵意攻擊”,同時也可能不安全並脫離人類控制。
報告中最具指責性的部分指出,“審查者一致強調,在缺乏獨立監管的情況下,各公司無法抵抗以盈利為驅動的誘惑,從而在安全性上走捷徑。”
“雖然Anthropic目前的治理結構和OpenAI的初步治理結構被認為是有前景的,但專家們呼籲對所有公司的風險評估和安全框架合規性進行第三方驗證。”
簡而言之,這是我們在不斷增長的AI行業中迫切需要看到的監管和問責制,因為模型越強大,實際危害就越真實。
—
這份報告不僅揭示了當前AI公司在安全性和責任感方面的不足,還強調了行業內部對於監管的迫切需求。隨著AI技術的迅速發展,我們必須保持警惕,確保這些技術的發展不會帶來潛在的危害。這樣的評估能夠促使公司更加重視安全和道德責任,否則,未來可能會面臨更大範圍的危機。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。