ChatGPT 示範失敗!香奈兒CEO大失所望

Ai

不發揮最佳表現

ChatGPT在香奈兒CEO的演示中搞砸了

香奈兒的CEO Leena Nair在參觀微軟總部時,對OpenAI的聊天機器人ChatGPT感到失望甚至受到了冒犯。Nair是這家歷史悠久的時尚品牌近115年來的第二位女性全球CEO,她回憶起自己給ChatGPT一個相對簡單的形象提示,卻得到了非常糟糕的結果。

她在斯坦福商學院的訪談中提到:“我們想要的是一張香奈兒高層領導團隊訪問微軟的照片。”但結果卻是“全是穿著西裝的男性”。

這在任何大型企業中都是一個錯誤,但對於香奈兒這個主要面向女性的品牌,這個錯誤顯得尤為離譜。香奈兒的創始人Coco Chanel是歷史上最著名的時尚設計師之一,這樣的失誤簡直不可思議。Nair強調:“這就是香奈兒,76%的員工是女性,96%的客戶是女性,我還是位女性CEO。”她指著自己說。

她繼續批評道:“這是一個100%男性的團隊,連時尚的衣服都沒有穿。”她感到無奈:“這就是你們能提供的?”

人工智能的盲點

儘管埃隆·馬斯克等文化戰士對ChatGPT的評價可能是“進步”或其他類似的標籤,但大量研究和尷尬的事件已經證明,生成式人工智能模型經常會產生種族歧視和性別歧視的輸出。

一些半吊子的防護措施只會更加凸顯這些模型的缺陷。問題在於,人工智能模型主要是基於其訓練資料——互聯網,這其中充斥著令人厭惡的內容,因此它們重複了人類的偏見。當技術被視為一種公正、超智能的現實仲裁者時,卻出現對女性的露骨性別化描繪,這令人感到震驚。

儘管如此,Nair對人工智能持積極態度,並表示香奈兒正在努力使其“人工智能準備就緒”。但她強調,這項技術必須以“倫理和完整性”為設計考量。

她表示:“我經常跟我的科技朋友、所有的CEO談論,‘來吧,各位,你們必須確保在人工智能中融合人性化的思維。’”

不過,目前來看,“人工智能產業”和“倫理”似乎有些矛盾。

這篇文章揭示了人工智能在性別和種族問題上的固有偏見,這不僅是技術層面的問題,更反映了社會文化的深層次矛盾。香奈兒作為一個女性主導的品牌,Nair的經歷恰恰突顯出企業在利用人工智能時,必須考慮到其反映的社會價值觀。這種情況不僅僅是香奈兒的問題,而是整個科技行業都面臨的挑戰。我們需要更加重視AI的倫理設計,以確保這些工具能夠促進而不是阻礙社會進步。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *