免費任玩!AI幫你改圖!!

Google Gemini爆種族歧視風波:AI開發秘辛大公開!

Ai

這是有爭議的Gemini起源故事,充滿了種族主義

最新的一篇文章詳述了谷歌Bard和Gemini聊天機器人的早期發展歷程。事實證明,Bard的早期原型在回答中顯示了「可笑的」種族刻板印象,而這些刻板印象也延伸到Gemini的圖像生成器的早期原型中。谷歌的Gemini目前是市場上最受歡迎的生成AI聊天機器人之一,谷歌也在多個服務中推廣它。現在,一篇詳盡的文章回顧了這款聊天機器人的起源。

Bard遭遇「可笑的」種族刻板印象

首先,Bard團隊負責人Sissie Hsiao告訴媒體,谷歌只給團隊100天的時間來打造一個能與ChatGPT抗衡的產品。谷歌對開發的要求似乎是:「質量高於速度,但要快。」這句話的意思也讓人摸不著頭腦。

我們已經知道Bard早期的失誤,但一位前員工表示,早期原型中存在種族主義的問題:當詢問任何帶有印度名字的人物傳記時,它會將其描述為「寶萊塢演員」。而如果是中國男性的名字,則會被描述為「計算機科學家」。另一位前員工提到,當他要求Bard以音樂組合Three 6 Mafia的風格寫一首關於將汽車電池扔進海洋的饒舌時,Bard竟然「奇怪地具體化」到將人綁在電池上讓他們沉下去和死亡,這與他的初始提示並沒有提到謀殺。

據信,大約有80,000人參與了Bard的測試。谷歌還有一個負責負責任創新的團隊,通常需要幾個月來測試AI系統,但谷歌似乎要求縮短這個過程。

不幸的是,評審人員無法跟上Bard的新模型和功能,儘管他們在周末和晚上加班工作。「當出現延遲Bard發布的警告時,這些警告被否決了。」網站報導稱。對於這一說法,谷歌告訴媒體,「沒有任何參與批准或阻止發布的團隊建議不發布。」

Gemini的圖像生成比最初看到的更糟糕

一些測試未經審查的Gemini圖像生成器模型的員工在發布前發現了一些嚴重的問題:一位前員工告訴Wired,他們要求更多時間來解決問題,例如「強姦者」這個提示往往會生成深色皮膚的人。他們還敦促產品團隊阻止用戶生成人物圖像,擔心這可能會顯示個體在不敏感的光線下。

在收到這些反饋後,谷歌似乎在另一個極端上走得太遠。當圖像生成器發布時,用戶發現它會創造出種族多元的納粹圖像。對於19世紀的美國參議員的提示,則會生成有色人種而不是白人男性的圖像。最終,谷歌還是刪除了生成人物圖像的能力。

在輕鬆的方面,文章還簡要提到了谷歌Pixel手機的天氣應用中的AI預報報告:在發布前,一位工程師問用戶是否真的需要這個功能:現有的圖形是否已經足夠?參與的高級主管命令進行一些測試,最終用戶反饋贏得了勝利:90%的參與者對這些摘要表示贊同。

總的來說,這篇Wired的文章值得一讀,因為它更詳細地涵蓋了整個開發過程,以及最初Bard的揭示和AI概述的故事。

這篇文章揭示了AI技術發展中的一個重要問題:在追求速度和創新時,是否忽略了道德和社會責任?谷歌在開發Bard和Gemini的過程中,顯然面臨著巨大壓力,這可能導致了對種族刻板印象的容忍。這不僅是對技術的挑戰,更是對企業倫理的考驗。隨著AI技術的進一步發展,如何確保這些系統不僅高效,還能尊重多元文化,將是業界需要持續關注的議題。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

Chat Icon