公開透明AI:未來的關鍵與挑戰

Ai

專家布魯斯·施奈爾談安全、社會及「公共AI」模型的重要性

著名安全專家布魯斯·施奈爾在亞特蘭大舉行的安全開源軟件(SOSS)融合會議上,探討了人工智能(AI)在網絡安全和社會中的承諾和威脅。

施奈爾開場表示:「AI是一個複雜的詞。當我考慮技術如何取代人類時,我認為它們在速度、規模、範圍和複雜性四個方面有所提高。AI並不比人類更善於訓練,只是速度更快。」而當這種速度根本性改變事情時,就會變得有趣。

例如,他指出,「高頻交易(HFT)不僅僅是更快的交易。這是一種不同的現象。這就是為什麼我們擔心AI、社交媒體和民主。AI代理的範圍和規模如此之大,以至於改變了社交媒體的性質。」例如,AI政治機器人已經影響了美國的選舉。

施奈爾還提到另一個憂慮,即AI犯的錯誤與人類不同。「AI會犯更多系統性的錯誤,」他警告說。「目前的AI並沒有像人類那樣的常識基礎。」這種缺乏常識可能導致在關鍵決策過程中產生普遍錯誤。

這並不是說AI不能有用——它們可以。施奈爾舉例道:「AI可以監控網絡,進行源代碼和漏洞掃描。這些都是人類可以做的事情,但我們在即時發生時反應太慢。即使AI在審查所有源代碼方面只是做得一般,那也是非凡的,並且在這些領域有很多工作要做。」

具體來說,他繼續說:「我認為我們會看到AI在安全問題上做第一層分診。我把它們視為分析數據的法醫助手。我們獲得了很多關於威脅行為者及其行為的數據,我們需要有人來審視它。」

施奈爾建議AI可以填補這個空白。雖然AI不能取代人類專家(至少目前不行),但它們可以幫助:「AI可以成為我們的助手。它們還行。它們不太聰明。但它們可以通過外包一些繁瑣的工作來提高人類的效率。」

在安全領域使用AI時,施奈爾表示:「這將是一場軍備競賽,但最初我認為防禦者會更有優勢。我們已經在計算機速度下遭到攻擊。能夠在計算機速度下進行防禦將非常有效。」

不幸的是,AI系統還有很長的路要走才能獨立幫助我們。施奈爾說,部分問題在於「我們知道人類助手如何犯錯,我們有幾千年的歷史來應對人類錯誤。但AI犯的是不同種類的錯誤,我們的直覺會失靈,我們需要找出新的審計和審查方法,以確保AI類型的錯誤不會破壞我們的工作。」

施奈爾指出壞消息是我們不擅長識別AI錯誤。然而,「我們會在這方面變得更好,了解AI的局限性以及如何防範它們。我們將更好地分析AI擅長什麼以及它做出的決策,並且還會看看我們是協助人類還是取代他們。我們會尋求增強而不是取代人類。」

目前,「經濟激勵是用這些更便宜的替代品取代人類」,但這往往不是正確的答案。「最終,公司會意識到這一點,但目前他們常常會讓AI負責那些它們根本勝任不了的工作。」

施奈爾還談到了AI發展權力集中在少數大型科技公司手中的問題。他主張創建「公共AI」模型,這些模型完全透明,並以社會利益而非盈利為目的開發。「我們需要非企業的AI模型,」施奈爾說。「我希望燒掉大量現金來創建基礎模型的時代只是暫時的。」

展望未來,施奈爾對AI在改善民主進程和公民參與政府方面的潛力表示謹慎樂觀。他強調了一些非營利性倡議,致力於利用AI改善立法訪問和參與。

「我們能否建立一個系統,幫助人們與立法者互動並對他們關心的法案發表意見?」施奈爾問道。「AI在其中發揮了一部分作用,包括語言翻譯,這對AI在法案摘要方面是一個很大的勝利,以及在後端總結評論以便系統傳達給立法者。」

隨著AI快速發展,施奈爾表示,將需要更精心的系統設計和監管框架,以在利用技術的好處的同時減少風險。我們不能依賴公司來做到這一點。它們的利益不是人民的利益。隨著AI融入安全和社會的關鍵方面,我們必須儘早解決這些問題。

評論

施奈爾的觀點揭示了AI在現代社會中的雙面性。一方面,它能以驚人的速度和效率提升各種操作,減輕人類的負擔;另一方面,AI的系統性錯誤和缺乏人類常識的特點,可能在關鍵時刻帶來災難性的後果。這對香港來說尤其重要,因為我們正處於數碼化轉型的關鍵時期。施奈爾主張的「公共AI」模型概念,為我們提供了一條可行的路徑:不僅要追求技術的進步,更要確保其發展和應用透明且以公共利益為核心。這種模式不僅有助於減少大型科技公司對AI的壟斷,還能激發本地創新,讓更多中小企業和個人參與其中,從而促進整個社會的共同進步。未來,我們需要更多這樣的倡議,讓科技真正成為全社會的資產,而非少數人的工具。

以上文章由特價GPT API KEY所翻譯

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *