AI安全:兼顧社會技術及風險嘅政策設計

Ai

導航AI安全:社會技術及風險導向的政策設計方法

AI安全不僅僅是防止傷害,它需要全面了解信任、責任以及技術與社會之間的複雜互動。AI價值鏈中的各方參與者,包括監管機構、公民社會、技術專家及其他利益相關者,必須面對一個問題:安全是獨立的目標,還是信任和責任更廣泛框架的一部分?對AI系統的信任不僅取決於技術的可靠性,還涉及公平性、透明度、可解釋性和偏見緩解等倫理考量。沒有信任,安全措施便失去影響力;沒有責任,這些措施則可能無效甚至被濫用。

為了應對這些挑戰,結合社會技術方法與風險導向方法至關重要。社會技術框架使我們能在更廣泛的社會背景下理解AI安全,強調AI系統並非孤立存在,而是與治理模型、社會價值觀和人類生活相互作用。這種視角使AI安全的討論超越了技術修復,突顯了理解人類系統與技術如何共同演化的重要性。同時,風險導向方法則根據AI系統的潛在影響將其分類為低、中、高風險,確保治理機制與每個系統所帶來的風險水平相匹配。

在接下來的部分中,我們將進一步闡明如何將社會技術視角與風險導向框架相結合,以提供更全面的AI安全理解,使利益相關者能設計動態和包容的治理結構,促進負責任的AI發展,同時應對其固有風險。我們還將闡述價值鏈本體論,並探討這兩種方法如何有效地進行調解。

社會技術框架

社會技術框架源於對英國煤礦和勞動研究的探討,旨在重新塑造人類與技術的關係。其核心理念是重新校準主導的技術專制敘事,將當時的技術視為必需品,而人類則被視為可有可無。在面對這一觀點時,社會技術系統將技術和社會視為兩個相互作用的子系統,以創建一個超系統(社會技術系統)。更廣泛系統的有效性取決於這兩個子系統之間的有效互動和協作。因此,社會技術系統關注的是“中間”,即社會與技術之間,以理解更大系統的成功與失敗。

將AI框架視為社會技術系統是一種實證方法,用於理解技術在更廣泛背景下的運作。它認識到AI模型和系統所產生的結果既是技術設計的產物,也是更廣泛社會因素(例如組織官僚、社會慣例、權力結構和人力勞動)的結果。將技術和社會視為一個連貫的整體,擴大了我們的範疇,超越技術本身的機械運作,探討這些機器如何互動、改變和傷害現有的社會系統。此外,作為一種衡量治理的方法,它使政策制定者和研究人員能夠從更廣泛的視角考慮AI安全,提供更多的治理杠杆,促進對AI安全問題的創新政策設計。

一個價值鏈本體論與這一社會技術框架密切相關。它是一種獨特的本體論,總結了一個廣泛的參與者、資源、階段、相互關係及在任何技術或產品開發過程中固有的社會、文化和經濟背景網絡。價值鏈可以通過規劃出一系列共同促成AI系統的元素,將社會技術對AI系統的理解具體化,涵蓋技術設計和社會因素。這使我們能夠接觸到促進AI安全的關鍵細節。

雖然這一AI系統的本體論觀點仍處於初期階段,但價值鏈框架幫助研究人員更好地了解AI生命周期。這些學術論述強調,需要從抽象的去脈絡化AI倫理和治理的討論,轉向將參與者置於其特定背景中的價值鏈視角,考慮共同創建AI系統所涉及的多樣資源。與此方法相一致,政策實踐者和公民社會組織也開始利用價值鏈視角來評估風險、實施緩解策略,以及制定針對AI系統特定背景的規範。

AI合作夥伴關係在其研究中使用了價值鏈方法,探討針對開放基礎模型的風險緩解策略,使其能夠考慮AI模型開發中的非線性。這項研究確定了多個參與者,包括在不同階段參與AI開發的主動和潛在角色。類似地,信息技術行業協會(ITI)在其政策指南中利用價值鏈視角,倡導對基礎模型的知情政策決策。

AI安全的社會技術框架

社會技術框架作為一個強大的分析工具,用於分析技術的結果,但其在當前負責任的AI文獻中的使用卻不一致。雖然通常被簡單定義為技術與社會的互動,但這種簡化雖然不完全不準確,卻掩蓋了社會技術視角在AI政策中的具體價值。因此,從社會技術的角度思考AI治理和政策設計時,考慮三個關鍵因素是有幫助的。

1. **技術周圍的社會系統**:將AI視為獨立的智能存在,促使人們普遍認為它對社會的影響是脫離的。這導致對技術規範和機器學習技術的過度強調。這種觀點忽略了AI的所有正面和負面結果都源於它與其他系統(如社會)的互動。而社會技術視角使我們能夠擴大範疇,從技術設計思考轉向探討其與人類、機構和過程的互動。因此,政策設計必須融合更廣泛的社會技術系統思維,以便進行創新的政策設計,解決技術和社會的問題。

例子:雖然許多AI模型在檢測疾病症狀和改善病人護理方面取得了可喜的進展,但這些系統無法改善整體醫療保健,可能是因為它們與現有的病人護理系統不兼容。

2. **問題選擇**:‘AI承諾’將AI推銷為解決氣候變化到醫療保健等眾多全球問題的解決方案,但常常忽視了其他系統性問題(如政治、經濟和文化)對問題的貢獻。社會技術學術研究強調,當AI應用於受更廣泛社會政治系統影響的複雜社會問題時,不僅未能解決問題,反而使問題更加惡化。因此,確保AI系統在技術上準確且“公平”並不能解決這些算法傷害背後更深層的系統性問題。創新的政策設計必須承認依賴技術解決根深蒂固的社會問題的局限性。

例子:設計用於解決系統性問題的AI系統,如果不認識到問題的根源,可能會加劇和製造傷害,成為針對弱勢社群的懲罰性技術。

3. **權力不平等**:權力以多種形式體現,例如資本和資源集中在少數主導者手中。在AI生命周期中,權力從上游到下游參與者流動不均,減少了下游參與者對AI安全話語和政策及技術本身的影響力。社會技術視角檢視潛在的權力動態,以便更好地理解問題並通過考慮影響技術實際表現的社會力量來制定緩解策略。因此,針對跨參與者和利益相關者的更廣泛權力動態和社會結構的政策設計是構建問責和責任的關鍵。

例子:對開發公平和負責任的AI系統的技術關注,導致去偏見和清理有害內容的數據集成為標準做法。然而,這些做法卻對被指派這些任務的社群和工人造成了傷害,他們通常工資低且在AI生態系統中缺乏發言權和代表性。

一個受到這些社會技術因素啟發的AI政策方法對於擺脫技術專制的監管模型至關重要。這種方法能夠更清晰地理解AI技術的潛在傷害和機遇。儘管導航AI發展充滿挑戰,但考慮價值鏈本體論的社會技術方法提供了一個全面和細緻的分析框架。這種方法為AI安全的創新政策設計創造了更豐富的機會。

風險導向思維與AI安全

將風險導向方法整合到AI安全中,例如將AI系統分類為低、中、高風險使用案例,並將其框架置於社會技術視角中,是建立一個更有利於解釋AI安全及其最佳實踐的環境的必要條件。

風險導向的AI安全方法對於應對各種AI應用至關重要,每種應用根據其上下文、目的和設計承擔不同的風險。低風險系統,例如協助日常任務的推薦引擎,對用戶造成的危害最小,需要輕度的監管。而中風險系統,如用於教育的AI,因其對人類影響重大,特別是對兒童,因此需要更大的審查。最後,高風險AI系統,如用於醫療、刑事司法或自動駕駛汽車的系統,由於潛在的偏見,帶來最嚴重的潛在傷害,因此需要嚴格的保障措施,包括增強透明度、問責制和穩健性。

然而,管理這些風險也需要一種社會技術方法,認識到AI與社會、法律和倫理規範的互動。這種方法強調安全結果依賴於技術設計和更廣泛的人類背景,包括權力動態、勞動考量和制度實踐。

使用價值鏈本體論進一步幫助識別AI生命周期中風險可能固化的痛點。它還使我們能夠識別某些利益相關者的角色和責任,主要是影響力大的科技公司和監管機構,然後繪製出每個角色在不同風險類別中促進AI安全的獨特角色。科技建設者和監管者之間的合作對於推進AI安全至關重要,特別是當這一框架強調技術創新與社會價值之間的相互依賴時,為這兩個核心利益相關者共同塑造AI的發展方向提供了空間,確保其負責任、包容和適應性。

科技公司和AI創新者的角色

科技公司和AI創新者推動AI系統的開發和部署,使他們在確保這些技術安全、可靠和合乎倫理方面扮演了核心角色。他們對大量資源、技術專業知識和數據的獲取使他們能夠快速創新,但也增加了他們主動應對AI風險的責任。AI創新者必須在設計中嵌入安全性,開發透明度工具,確保AI系統符合公平性和偏見緩解等倫理標準。

然而,他們的創新和全球規模的驅動力,往往使他們超出傳統治理機制的掌控範圍,對監管機構造成挑戰。因此,合作至關重要。科技公司可以向監管者提供有關技術複雜性、新興風險和當前治理模型局限性的見解,幫助監管機構制定基於證據的、適應性的政策。

監管者的角色

相對而言,監管者通過為AI系統設定可執行的邊界來保護公共利益。他們制定標準,以確保AI應用的問責性和可信度,解決數據隱私、算法透明度和系統穩健性等問題。監管者還必須在AI對社會的影響和簡化之間保持平衡,避免過於具體的規範可能抑制進展。

通過與AI創新者的合作,監管者可以制定基於風險的治理框架,這些框架既受到技術現實的啟發,又能滿足社會需求。例如,監管沙盒允許高風險AI系統進行受控測試,確保其安全性再進行更廣泛的部署。然而,這些監管沙盒的嚴格性和缺乏可解釋性可能會減緩政策制定過程。

合作的重要性

社會技術框架強調,無論是科技公司還是監管者單獨都無法解決AI安全的複雜挑戰。AI發展的速度要求迭代和協作的治理模型,其中:

– 科技公司提供技術專業知識:公司分享系統脆弱性、測試方法和潛在濫用的見解,幫助監管者制定有效政策。
– 監管者建立保護措施:政策制定者強制執行標準,以防止剝削或傷害,同時激勵道德AI實踐。
– 共同責任推動創新:合作促進靈活框架的發展,根據不同AI系統的風險概況進行調整。例如,監管者和AI創新者可以共同設計高風險應用(如醫療或自動系統)的協議。
– 全球協調減少分裂:鑒於技術和政策挑戰的跨國性,合作使國際標準和規範保持一致。

通過結合預見性和合作,監管者與AI創新者之間的社會技術夥伴關係可以確保AI的發展和部署優先考慮創新和社會福祉。最終,AI安全必須不僅僅是一組監管或技術目標,而是優先考慮民主理念(如自由、多元和公平)以及技術原則(如問責制、透明度和可解釋性)的共同責任。

結論

通過結合社會技術框架和風險導向方法,我們可以創建創新和靈活的政策框架,在安全與技術進步之間取得平衡。風險導向政策確保高風險AI應用(如醫療、金融服務或自動系統)受到嚴格監管,而低風險應用則不會被不必要的規範所壓制。與此同時,社會技術方法確保安全措施考慮到AI系統的技術層面及其社會、倫理和組織背景。

價值鏈框架還提供了一種強大的工具,用於分析AI系統中技術與社會維度之間的複雜相互作用。通過拆解這些系統,我們能更準確地識別和分配與技術層面和更廣泛社會系統及參與者相關的細微、階段特定的風險。這種方法使我們能夠將風險映射到特定行業和社會參與者,從而對這些風險如何出現和擴散有更全面的理解。

因此,這些框架在結合價值鏈模型時,能夠更全面地操作化AI安全。它們幫助彌合抽象風險管理框架與AI治理實際現實之間的差距,使政策更加信息化、社會敏感,並有效保障AI的發展和部署。

我們感謝我們的同事Rattanmeek Kaur對價值鏈方法的貢獻。

作者

GAUTAM MISRA
Gautam是Aapti Institute的副研究員,熱衷於解決技術與公共政策交叉處的複雜挑戰。他為數據治理、平台工作不斷演變的格局等問題帶來了獨特的視角。

SUPRATIK MITRA
Supratik是Aapti Institute的研究員,專注於開發創新的政策框架和偏見緩解策略,以創建公平、安全和負責任的AI系統。他擁有Azim Premji大學公共政策與治理碩士學位,研究範疇涵蓋多個領域。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *