倫理

媒體識讀
AI事實查核中心

AI事實查核中心

AI事實查核中心
撰文/Balboa Crenshaw(現職為數據科學家)

事實查核(fact-checking)在近幾年已經成為一個非常重要的課題。資訊爆炸的時代,我們每天都接觸大量的媒體、新聞,甚至是社交網站的貼文,許許多多都未經查核,充斥著假消息(disinformation)和誤傳(misinformation)。更多的是網友瘋狂轉載的這類資訊,輕則使人混淆,重則造成嚴重的網路霸凌等種種問題。而在科學界,科學家需要透過發表學術論文有系統地呈現研究證據,訊息的分享有著嚴謹的程序與規範。最近,在AI的幫助下,科學家已經可以在十秒左右查核一項訊息的真實性,並告訴你有哪些學術論文支持或與該訊息相左。也許是時候查查你今天看到的新聞了!

可解釋性/黑盒子
你真的熟悉所使用的工具嗎?

你真的熟悉所使用的工具嗎?

你真的熟悉所使用的工具嗎?
編譯/賴佳昀

隨著機器學習模型的應用範圍越來越廣,也就不可避免地對我們的生活造成或多或少的影響,甚至擴大原本就存在社會中的歧視或給出不公的預測結果,深入了解模型的內部運作也就有其必要性。然而可解釋性的相關研究相當困難,即使已有許多工具與套件可供使用,但研究人員能否正確解讀這些工具所提供的數據也是一大問題。

AI的評估與控制
考試都考100分?測驗AI智慧的新試題

考試都考100分?測驗AI智慧的新試題

考試都考100分?測驗AI智慧的新試題
編譯/許守傑

人工智慧到底有多聰明?這個問題自AI發展以來就不斷地挑戰著電腦科學家們,希望能夠設計一套測驗來衡量機器的智商。2019年美國華盛頓大學Keisuke Sakaguchi等研究員發表了一個全新的測驗──WinoGrande,能夠更精準地測驗出AI模型的聰明程度。

可解釋性/黑盒子
相較於愛情與佛法,AI更具可解釋性

相較於愛情與佛法,AI更具可解釋性

相較於愛情與佛法,AI更具可解釋性
講者/黃從仁(臺大心理學系助理教授 )|彙整/羅崇綱
整理自2019.12.28 〈AI嘉年華.當AI成為人的那一天:未來世界的人與社會〉

還記得在準備大學入學面試時,老師總會警告:「記得千萬不要搞怪!」不要搞怪的意思很簡單,將五顏六色的頭髮染回黑色,或將時下流行的潮T改回西裝,總之去回想想阿嬤的乖孫該長怎樣,面試那天打扮成那樣就對了!如果今天面試官從人類換成無法被窺見喜怒哀樂的AI,那又該如何成功達陣呢?

Pages