作者/Womany Ting
原來 IG 貼文底下,不同性別看到的留言不一樣?這些 AI 潛在的無意識偏見,你有察覺到嗎?
延伸閱讀:活出自己原本的樣子好難?《個別差異》:人本來就存有差異,不要用先入為主的偏見去看待他人
IG 同則貼文下,不同人會看到不同的留言?
在數位時代,人工智慧(AI)已深入我們生活的各個層面。然而,AI 應用不當可能會加劇無意識偏見,特別是在性別議題上。
一個引人深思的例子來自社交媒體平台 Instagram,一位內容創作者 thekingzletter 分享了一個有趣的觀察:在一則關於「女生抱怨男友遲到」的影片下,男性和女性用戶看到的熱門評論完全不同。
女性用戶看到的評論多是支持影片中的女生,如:
「他不尊重你的時間,分手吧!」
「他有跟妳說他會晚到嗎?沒有的話放生吧!」
「甩了他吧」
「我不喜歡他」
「他根本不尊重女生的時間!」

圖片來源:IG@thekingzletter
男性用戶看到的評論則傾向支持男友,例如:
「別整天等他,自己找點事做吧。」
「抱歉喔,我就是那個一起打高爾夫的朋友。」
「放過他吧,他正開心的勒。」
為什麼會看到不一樣的留言?AI 的演算法造成什麼現象?
該篇貼文下,有位機器學習研究者分享造成這個現象的原因為協同過濾(collaborative filtering),目的是最大化用戶的螢幕使用時間。
AI 演算法根據每位用戶的使用習慣,顯示最可能吸引他們繼續瀏覽的評論。在社交軟體環境中,協同過濾可能導致用戶只看到與自己觀點相似的評論。這種機制雖然提高了用戶參與度,卻也可能強化既有觀點,限制多元視角的接觸。
透過此案例的留言現象,我們也發現 3 點 AI 演算法會造成的現象如下:
1. 同溫層效應(Echo Chamber Effect):用戶可能只接收到符合自己既有觀點的訊息,減少接觸多元觀點的機會,可能加劇社會分裂。
2. 固有偏誤(inherent bias):如果 AI 的資料庫存在性別或文化偏見,這些偏見可能被無意識地強化和傳播。
3. 社會對立:長期的協同過濾與訊息隔離,可能導致不同群體之間的理解和溝通障礙,增加社會對立情緒。
延伸閱讀:如何增加社群曝光?自媒體文案掌握 4 原則:善用分段、金句寫出高流量文章!
還有哪些 AI 應用,有顯示出性別偏見的案例?
這個社交軟體的例子只是冰山一角。近年來,AI 在各個領域的應用都顯示出性別偏見的問題。
一、圖像生成系統中的性別偏見
根據 Nature 的報導,AI 圖像生成器(如 Midjourney)在生成專業人員的圖像時,對性別存在偏見。例如,當被要求生成某些「專業」的人物圖像時,系統往往會生成男性形象,特別是在年齡較大的專業人員中,這強化了性別偏見。
二、醫療診斷系統中的性別偏見
根據 IBM - United States 的報導,醫療診斷系統在對不同種族和性別的病患進行診斷時準確性不同。例如,對於黑人的診斷準確性低於白人,這是因為系統訓練數據中女性和少數族裔數據不足。
延伸閱讀:很在意「按讚數」?沒修圖不敢發社群?專家提 5 方法建立青少年正確網路使用習慣,不迷失在虛擬世界
三、招聘中的性別偏見
根據 IBM - United States 及 World Economic Forum 的報導,許多應用追蹤系統(如亞馬遜的招聘系統)使用自然語言處理演算法來篩選簡歷,但這些演算法往往會根據某些特定的詞語(如 “executed 執行”或 “captured 捕捉” )進行偏見篩選,這些詞語更常出現在男性簡歷中,導致女性應徵者受到不公平對待
四、虛擬助理中的性別偏見
根據 IPI Global Observatory 的描述,人工智慧工具女性化的趨勢模仿並強化了社會的結構等級和刻板印象,「男性」機器人被認為更適合安全相關工作,而當日本在 2015 年推出第一家配備機器人接待員的飯店時,大多數機器人都是「女性」。
亞馬遜的 Alexa、微軟的 Cortana 和蘋果的 Siri 等「家庭虛擬助理」都優先被賦予了女性聲音。
本文授權轉載自女人迷,觀看完整內容請至女人迷觀看
圖片來源:canva
更多內容:
DEI納入企業AI策略的3種方法、Google Cloud 擁抱多元化AI團隊|DEI快訊
AI會取代人類做決策嗎?拋開無意識偏見、擁抱多元共融,巧用ChatGPT人類一定要有的能力
直擊 DEI 企業友沙龍!元富證券、KPMG安侯永續分享:DEI多元共融如何真正落地?
加入Bella LINE@ ,成為儂粉每周五抽時尚小禮