美國A.I.安全機構:創新需有規範保障

Ai

美國A.I.安全研究所捍衛未來科技政策 隨特朗普新時代的來臨

隨著特朗普承諾拆除關鍵規範,美國A.I.安全研究所主張真正的創新需要監管,因為A.I.的風險正在增長。

隨著特朗普當選總統,A.I.監管者正準備迎接一個新的篇章。特朗普已經開始將目標瞄準那些他認為妨礙科技進步的政策,其中一個重點便是去年在拜登-哈里斯政府下成立的美國A.I.安全研究所。儘管該研究所專注於保障措施,其主任伊莉莎白·凱利堅持認為,監管其實是促進而非阻礙A.I.發展的關鍵。她在昨日的《財富全球論壇》中強調:「我們認為這是促進創新的重要一環。」她重申,安全與進步可以共存,只要監管者知道自己在做什麼。

該研究所隸屬於商務部,匯聚了計算機科學家、學者和公民社會倡導者,旨在制定新的指導方針以管理A.I.的風險。作為拜登2023年A.I.行政命令的基石,該研究所的使命包括強制透明度標準和制定A.I.模型的測試協議。根據共和黨2024年的平台,這一設置「妨礙了A.I.創新」,因此被視為應該被廢除的市場項目。

面對這一變化,主要的A.I.開發商並未等待「斧頭」落下。上個月,包括OpenAI、谷歌、微軟和Meta在內的行業巨頭們簽署了一封信,敦促國會永久授權該研究所,並稱其工作對於推進美國A.I.創新、領導力和國家安全至關重要。這意味著,科技巨頭希望在創新速度超越他們之前,建立必要的安全防護。

凱利堅持認為,該研究所不僅僅是對A.I.發展進行監控,更是加速其發展。除了加強研發、人才招聘和計算資源的提升外,凱利表示,該研究所的使命在於建立「信任——這促進了採用,也促進了創新」。

在今年早些時候,該研究所與OpenAI和Anthropic簽署了一項協議,獲得了他們最新模型的早期訪問權限,並對Anthropic的Claude 3.5 Sonnet進行了預部署試運行。凱利稱讚這是利用伯克利和麻省理工學院等地專業知識來評估風險和國家安全影響的「經典範例」,這也暗示了該團隊的專業背景並不簡單。

該研究所的目標非常明確:負責任地釋放A.I.的巨大潛力。從藥物發現到碳捕獲,A.I.的前景令人期待,但凱利警告道,風險同樣不容忽視。她解釋道:「隨著這些模型變得越來越強大和能幹,我們距離那個未來就越近。」在她看來,確保制動系統的靈敏度與引擎的強勁一樣重要,這樣A.I.才能在高速行駛之前保持安全。

這篇文章觸及了一個當前科技界的重要議題:在創新與安全之間找到平衡。隨著A.I.技術的迅速發展,監管的必要性愈發凸顯。凱利的觀點挑戰了傳統上對監管的負面看法,指出適當的監管不僅能保護用戶,還能激發創新。這一觀點值得我們深思,因為在科技不斷進步的今天,如何找到創新與安全的最佳平衡,將是未來政策制定者面臨的重大挑戰。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *