打造對身障者友善的AI

打造對身障者友善的AI

Print Friendly

打造對身障者友善的AI
編譯/陳宣豪

人臉辨識系統無法辨識黑人女性,或將黑人視為潛在罪犯,種種AI表現出針對特定種族或性別的認知偏差,已引發廣泛的關注。即使研究人員已努力設法解決這些潛在的社會歧視問題,但仍有部分弱勢團體往往在這類討論中被忽略,尤其肢體或精神障礙者。

依據WHO的估計,全球約有15%人口患有某種形式的身心障礙,包括永久或暫時的身體或認知障礙。系統的公平與公正性,隨著AI逐漸普及更顯重要。例如世界各國正積極發展的無人駕駛汽車,無論Tesla或Apple,其所使用的演算法仍是藉由大量訓練數據學習預測正常行人的樣態,從而判斷車輛何時該放緩或停止行駛。倘若系統當初的訓練模型中,並未考量如輪椅使用者或其他障礙者的步態數據,可能導致自駕車將這些人的生命安全置之度外。

對IBM無障礙研究團隊來說,這樣的結果是無法接受或忽略的。《麻省理工評論》的記者特別採訪到該團隊研究員Shari Trewin,分享IBM在探索新的設計流程、技術,來克服AI對身心障礙者的認知偏差時,所面臨的困難與挑戰。

AI對身障者與種族/性別的認知偏差,兩者有何區別?

目前美國約有五分之一的人口患有某種身心障礙。即使我們之中任何一個正常人,也有可能在短時間內需要去適應身障者的生活方式,因此這類問題,影響層面其實遠比我們想像深遠。

身障可能有不同形式、程度,永久或暫時,個體間差異多樣且復雜。與性別或種族不同,我們很難將其簡化為單一個、只有少量可能值的簡單變量。這也提高公平系統的設計難度:一個考量聽障人士需求所設計出的系統,反而可能對盲人造成困擾。

再者,這類資訊也極為敏感。大多數人寧願透露性別、年齡、種族等資訊,而不願意透露自己是否有某方面的身心障礙;在許多情況下,要求他人提供這類資訊,不僅不合時宜,也是違法的。因此,你也很難知道某人是否患有身心障礙,也很難評估系統是否公平。

不透漏也就不會有另眼相看的問題,為何在AI領域並非如此?

其實「一視同仁」會衍生另一個問題:身心障礙會影響其他訊息的輸入。假設身為盲人的我今天為了求職,需要利用電子閱讀器上網進行線上測驗。如果我所使用的閱讀器,無法獲得最佳瀏覽體驗,我會需要更長的時間去作答;在後續評估我的表現時,若沒有考量到這層因素,將會導致任何使用相同管道的殘疾人士都處於劣勢,即便系統、評分者自始自終不知道我是盲人。

根據聯合國《身障人權利公約》的定義:「身心障礙」是由於有障礙的人、事和環境障礙之間的相互作用,阻礙患者有效參與社會。所以「身障」其實擁有許多面向,強度和影響也都不盡相同,更會隨時間與情境而變化,諸如物理障礙、感官障礙、溝通障礙等,這些都意味著描述身障者的數據本身就非常獨特。

如此一來,如何打造對身障者公平的AI系統?

AI未來面臨的挑戰將會是如何處理異常值,因為機器學習其實就是由巨量數據中學習規則並優化,捨棄異常值。但身障者本身便與一般人不同,執意使用常態來判斷或預測身障者,本身就是公平AI的一個侷限。

開發人員勢必得在開發過程中花時間思考如何妥善處理異常值以及相應的解決方案,也不能一味依賴如金錢成本等指標作為唯一的效能評估依據。例如語音控制系統,可能就得特別考量語言障礙或聾啞人士的使用經驗,因為他們的聲音對於多數語音識別系統而言,或許是陌生而無法辨識的。

當然,確保訓練資料集的多元與多樣性,肯定有所助益。但目前也有人嘗試一種技術,能直接取出數據核心並針對異常值再訓練,或是嘗試不同的學習技術,來更好地處理異常值。

 

編譯來源

K. Hao, “Can you make an AI that isn’t ableist?”, MIT Technology Review, 2019.

參考資料

S. Trewin, “How to tackle AI bias for people with disabilities”, Venturebeat, 2019.

(本文由教育部補助「AI報報─AI科普推廣計畫」執行團隊編譯)

發表迴響

你的電子郵件位址並不會被公開。 必要欄位標記為 *


9 − = 3