偏差的模型比想像中致命
偏差的模型比想像中致命 編譯/劉大維 當前這個萬物…
性盲信用評比中的性別偏見
編譯/陳宣豪
2019年11月的某個清晨,紐約金融服務部對高盛集團展開一項性平調查。原因是David Heinemeier Hansson(網頁應用開發框架Ruby on Rails的原創者)在Twitter上發文,指控蘋果公司信用卡Apple Card的核卡制度不利於女性申辦人。在自己與妻子同時以聯合納稅申報表申辦的前提下,核發給自己的刷卡額度竟是妻子的20倍!對此,委託管理Apple Card的高盛,在聲明中強調內部信用評估所使用的演算法完全不考慮「性別」這項因子。這凸顯了AI公平性這項議題上的一個弔詭:當電腦完全不知道某人性別時,如何去歧視?