可解釋性/黑盒子
關於「演算法」 你應該知道的事 編譯/劉大維 到底…
你真的熟悉所使用的工具嗎?
你真的熟悉所使用的工具嗎?
編譯/賴佳昀
隨著機器學習模型的應用範圍越來越廣,也就不可避免地對我們的生活造成或多或少的影響,甚至擴大原本就存在社會中的歧視或給出不公的預測結果,深入了解模型的內部運作也就有其必要性。然而可解釋性的相關研究相當困難,即使已有許多工具與套件可供使用,但研究人員能否正確解讀這些工具所提供的數據也是一大問題。
AI的可解釋性是什麼?能吃嗎?
AI的可解釋性是什麼?能吃嗎?
撰文/賴佳昀
機器學習,或是說人工智慧快速的發展,讓所謂的「預測能力」大大提升,但是你信任預測出來的結果嗎?或是說你相信這個模型嗎?專業領域內的學者有他們一套衡量的標準,但是對普通民眾(大部分的用戶)而言,他們的信任感該來自何處?
我們能信任人工智慧嗎?
我們能信任人工智慧嗎?
撰文/Peter Bentley|譯者/常靖
轉載自《BBC知識》2018年3月第79期
從語音辨識到自動駕駛,深度學習技術的應用可謂無所不包。只是它的運作原理就像人腦一樣,至今仍然成謎。
人工智慧重新定義人和資訊連結的方式
人工智慧重新定義人和資訊連結的方式
講者/馬維英(字節跳動公司副總裁兼人工智能實驗室負責人)|彙整/蘇建翰
整理自2018.12.16〈CASE探索系列講座第20期.人工智能賦能全球創作與交流平台〉
人工智慧的發展不僅帶動新一波的工業革命、革新商業的模式,也改變了傳統人和資訊互動的方式。