公平性

公平性
當演算法決策結果對自己有利時,我們才會覺得公平嗎?

當演算法決策結果對自己有利時,我們才會覺得公平嗎?

當演算法決策結果對自己有利時,我們才會覺得公平嗎?
撰文/楊期蘭(日本東京大學學際情報學)

我們未來能不能通過智慧系統的判斷取得工作或入學資格、通過考試、通過信用評等,都會有演算法的介入。當越來越多事情交由演算法決定後,你會不會好奇這些決定我們得到多少機會的演算法到底「公不公平」?一起來看看人機互動研究者們如何透過線上實驗發現:當演算法結果對個人有利時,即便我們明知這是一個帶有偏見的演算法,也會認為它是公平的?!既然如此,數位素養能夠改變我們對公平的感受嗎?

公平性
性盲信用評比中的性別偏見

性盲信用評比中的性別偏見

性盲信用評比中的性別偏見
編譯/陳宣豪

2019年11月的某個清晨,紐約金融服務部對高盛集團展開一項性平調查。原因是David Heinemeier Hansson(網頁應用開發框架Ruby on Rails的原創者)在Twitter上發文,指控蘋果公司信用卡Apple Card的核卡制度不利於女性申辦人。在自己與妻子同時以聯合納稅申報表申辦的前提下,核發給自己的刷卡額度竟是妻子的20倍!對此,委託管理Apple Card的高盛,在聲明中強調內部信用評估所使用的演算法完全不考慮「性別」這項因子。這凸顯了AI公平性這項議題上的一個弔詭:當電腦完全不知道某人性別時,如何去歧視?

公平性
打造對身障者友善的AI

打造對身障者友善的AI

打造對身障者友善的AI
編譯/陳宣豪

人臉辨識系統無法辨識黑人女性,或將黑人視為潛在罪犯,種種AI表現出針對特定種族或性別的認知偏差,已引發廣泛的關注。即使研究人員已努力設法解決這些潛在的社會歧視問題,但仍有部分弱勢團體往往在這類討論中被忽略,尤其肢體或精神障礙者。

公平性
偏見如何形成?由人類到AI

偏見如何形成?由人類到AI

偏見如何形成?由人類到AI
編譯/黃柏瑋

偏見,針對特定個體或族群產生難以事實或其他跡證撼動的既定印象,看似一種涉及高等認知能力、專屬於人類的社會現象。即使許多電腦演算法的公平性受到質疑,但多被歸因於訓練集中無法完全剔除的人類「偏見」所致,演算法最多只是忠實反映人類社會中既有的種族或性別問題。然而英國卡地夫大學與美國麻省理工學院共同主持的一篇研究,卻認為看似「不經大腦」的「有樣學樣」或許正是促使偏見形成的禍首。

公平性
公平公正的AI,可能嗎?

公平公正的AI,可能嗎?

公平公正的AI,可能嗎?
編譯/ 黃柏瑋

在這逐漸自動化的世界裡,許多金融或政府機構已開始利用AI來審查貸款、社會福利、簽證,甚至於職缺應徵資格。但AI就像是一面鏡子,如實地反映訓練集中的資料,也難免透露出背後人類固有的偏好與社會不公,導致演算結果對弱勢族群的歧視,甚至因行政效率的提升,加速剝削的發生。「演算法的公平性與透明性」於是逐漸受到重視,歐盟更試圖將「可解釋AI」編入法律,要求所有「個人化自動決策」(Automated Individual Decision-Making)賦予用戶請求解釋的權利,並確保訓練數據的中立,不得讓任何用戶的權益因此受損。只是,如「黑盒子」般神秘又複雜的神經網路,其判斷依據可能就連開發者都理不清。