**Instagram如何界定乳頭性別?**
過去兩年,一位名為Ada Ada Ada的算法藝術家,透過在Instagram上記錄自己的轉變過程,挑戰人類和自動化審核系統的邊界。每週,她會上傳一張赤裸上身的自拍,並附上一張顯示由亞馬遜和微軟等大型科技公司推出的AI工具如何自動分類她性別的圖片。每張圖片上還標有順序號碼、年份及自從Ada Ada Ada開始激素療法以來的周數。
在2023年,Ada Ada Ada的項目進行一年多後,Instagram因違反社群準則而刪除了一張她的自拍,認為其涉及裸露。我們無法確定Instagram為何刪除該圖片,以及是人還是自動系統標記了它,因為Meta的審核系統仍不透明。但在那一刻,Instagram首次認定Ada Ada Ada的乳頭為女性,因而被視為裸露,這在平台上是不被允許的。在Instagram上,男性赤裸上身是被允許的,而女性則不可顯露乳頭,因此網上裸露的定義常常取決於乳暈的性別認定。
Ada Ada Ada表示,她對算法執行和算法對我們生活的影響十分感興趣。她認為乳頭規則是開始討論這個話題的最簡單方式,因為它是一個非常二元的概念——女性乳頭不行,男性乳頭可以。但這引發了許多問題:什麼是男性乳頭?什麼是女性乳頭?
Ada Ada Ada的項目In Transitu突顯了Instagram和其他大型科技公司如何回答這個問題的荒謬性。許多藝術家以不同方式挑戰這一點,但Ada Ada Ada感到自己處於獨特的位置,可以利用自己的身體深入探討這個問題,看看Instagram和性別分類算法如何理解性別。
儘管我們無法確定Ada Ada Ada的圖片被移除的具體原因,但她正在一個電子表格中盡可能多地收集數據,記錄哪些圖片被移除,Instagram給出的理由,以及她所知的圖片覆蓋範圍是否受限。
數據顯示,隨著她的轉變進程,更多圖片被移除,但也有其他可能線索。第一張被移除的圖片中,她做了一個“親吻臉”並擠壓胸部,這可能被視為更女性化或性暗示。Ada Ada Ada能夠重新上傳同一張圖片,但乳頭被遮住。在另一張被移除的圖片中,她表示自己穿著一件內衣,乳頭仍然可見。
Ada Ada Ada還維護一個電子表格,追踪多個AI性別分類器(如Face++、face-api.js、Microsoft Azure的圖像分析、Amazon Rekognition和Clarifai)如何判斷她是男性還是女性。專家批評這些性別分類器常常出錯,特別是對跨性別者有害。
Ada Ada Ada表示,她學到性別分類器是不可靠且有缺陷的技術,尤其是在涉及跨性別者的性別表達時。她定期觀察到她的算法性別每週來回擺動。此外,這些算法常常在其性別判定上存在分歧,顯示出這種技術的文化依賴性。
Ada Ada Ada指出,通過不斷測試這些分類器,可以揭示它們實際運作的方式與擁有它們的公司聲稱的方式之間的差異。微軟在2022年宣布將退休其性別分類器,但Ada Ada Ada仍能使用該技術,直到媒體詢問後微軟才發現錯誤並撤銷了她的訪問權限。
In Transitu還揭示了Instagram在紙面上對裸露的政策,並指出Instagram經常移除成人內容創作者、性教育者和性別不合規者的內容和帳戶,而那些偷竊成人內容或創建非自願內容的人則能自由地發佈。
**評論與分析**
這篇文章不僅揭示了Instagram在處理裸露和性別問題上的不一致性,也反映了科技公司在算法設計和實施中的盲點和偏見。Ada Ada Ada的藝術項目不僅是一種自我表達,更是一種對科技如何影響我們日常生活的深刻批判。從她的經驗中,我們可以看到,當技術試圖用簡單的二元分類來處理複雜的人類身份時,往往會產生錯誤和不公。
此外,這篇文章還揭示了科技公司在面對公眾批評時的反應速度和透明度問題。微軟在被媒體詢問後才發現其性別分類器的錯誤使用,這反映了公司在技術監控和管理上的不足。對於跨性別者和非二元性別者來說,這樣的技術缺陷可能會帶來實質性的傷害和歧視。
對於未來的技術發展,我們需要更加關注技術如何影響多元化的人類身份,並確保這些技術在設計和實施上不帶有偏見。這需要技術公司、政策制定者和社會各界的共同努力,以創造一個更加包容和公正的數字環境。Ada Ada Ada的作品提醒我們,技術不應該簡化或忽視人類的複雜性,而應該尊重和反映我們的多樣性。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。