AI 偏見:解決多元化挑戰的關鍵

Ai

**AI 偏見:Accenture 和 SAP 領導人對多元化問題及解決方案的見解**

生成式人工智能(AI)的偏見,主要由訓練數據驅動,對於組織來說是一個大問題。專家建議亞太地區的組織在將生成式AI應用於生產時,應主動採取措施來設計或消除偏見。

Accenture 的高級董事總經理 Teresa Tung 向 TechRepublic 表示,生成式AI模型主要基於英語互聯網數據訓練,強烈的北美視角可能會延續互聯網上流行的觀點,這對亞太地區的科技領導者造成問題。

「從語言的角度來看,如果你不是以英語為基礎,比如在中國或泰國等地,你的語言和觀點便無法在模型中得到體現,」她說。

位於非英語國家的技術和商業人才也因此處於劣勢,因為生成式AI的實驗主要由「英語使用者和能夠使用英語的人」進行。儘管許多本地模型正在開發,特別是在中國,但該地區的一些語言仍未被涵蓋。

**AI 偏見可能帶來的組織風險**

SAP 澳大利亞和新西蘭的AI負責人 Kim Oosthuizen 指出,偏見也延伸至性別。一項 Bloomberg 研究顯示,Stable Diffusion 生成的圖像中,高收入職業如醫生中女性的形象嚴重不足,儘管實際參與率更高。

「這些AI系統創造的誇大偏見被稱為表現性傷害,」她在悉尼的 SXSW Festival 上告訴觀眾。「這些是通過強化現狀或放大刻板印象來貶低某些社會群體的傷害。」

如果不改善數據,問題可能會惡化。Oosthuizen 引用了專家預測,未來幾年互聯網上的大部分圖像可能會是人工生成的。她解釋說,「當我們將某些人群排除在未來之外時,這種情況將持續下去。」

另一個性別偏見的例子是,一個AI預測引擎在分析肝癌的血樣時,因數據集中女性不足,結果在男性中檢測該疾病的可能性是女性的兩倍。

Tung 說,健康環境對於組織來說是一個特別的風險,因為基於偏見結果推薦的治療可能很危險。相反,如果不與人類參與和負責任的AI視角結合,AI在工作申請和招聘中的使用可能會有問題。

**AI模型開發者和使用者必須圍繞AI偏見進行設計**

企業應調整他們設計生成式AI模型或將第三方模型整合到業務中的方式,以克服偏見數據或保護其組織免受其影響。

例如,模型生產者正在通過注入新的、相關的數據來源或創建合成數據來微調其模型的訓練數據,以引入平衡。Tung 說,性別方面的例子是使用合成數據使模型能夠同時代表「她」和「他」。

AI模型的組織使用者需要像進行軟件代碼的質量保證一樣測試AI偏見,或使用第三方供應商的API。

「就像你運行軟件測試一樣,這是讓你的數據正確,」她解釋說。「作為模型使用者,我將進行所有這些驗證測試,尋找性別偏見、多樣性偏見;這可能僅僅是關於準確性,確保我們有很多測試我們關心的事情。」

除了測試之外,組織應在其AI模型之外實施防護措施,以在將輸出傳遞給最終用戶之前糾正偏見或準確性。Tung 提供了一個例子,說一家公司使用生成式AI生成識別新Python漏洞的代碼。

「我需要處理這個漏洞,並且需要一個了解Python的專家生成一些測試——這些問題-答案對展示了什麼是好的,可能有錯誤答案——然後我將測試模型是否能做到,」Tung 說。

**AI技術行業的多元化將有助於減少偏見**

Oosthuizen 說,要改善AI中的性別偏見,女性「需要在桌上有一席之地」。這意味著在AI旅程的每個方面都包括她們的觀點——從數據收集到決策,再到領導層。這需要改善女性對AI職業的看法,她說。

Tung 同意改善代表性非常重要,無論是性別、種族、年齡還是其他人口統計數據。她說,擁有多學科團隊「真的很關鍵」,並指出AI的一個優勢是「如今並不是每個人都必須是數據科學家或能夠應用這些模型」。

「很多是在應用中,」Tung 解釋說。「所以實際上是一些非常了解市場營銷或財務或客戶服務的人,而不僅限於一個坦白說不如所需多樣化的人才庫。所以當我們考慮今天的AI時,這是一個擴大多樣性的絕佳機會。」

**評論**

這篇文章深入探討了AI偏見的多方面問題,特別是在亞太地區的挑戰。值得注意的是,語言和文化的多樣性在技術開發中常被忽視,這不僅僅是一個技術問題,更是一個社會議題。AI偏見不僅影響技術的準確性,還可能加深社會不平等。企業在開發和使用AI時需要考慮多元化和包容性,這不僅是為了提升技術的精確度,更是為了促進社會公正。未來的技術發展應更加強調多學科合作,以便在技術應用中實現真正的多樣性和包容性。

以上文章由特價GPT API KEY所翻譯

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *