假新聞

倫理
如何辨識文章是由機器或人類所寫?

如何辨識文章是由機器或人類所寫?

如何辨識文章是由機器或人類所寫?
撰文/陳儁翰

2019年2月,OpenAI開發出幾可亂真的文本生成器GPT-2,因擔心有心人士濫用,延後公布完整原始碼;然而解鈴還需繫鈴人, MIT-IBM Watson人工智慧實驗室與哈佛自然語言實驗室(Harvard NLP)合作開發出一套工具GLTR(Giant Language model Test Room),能準確分析文章是否由機器生成或由人類所撰寫。以下簡單介紹GLTR的分析方法與運作。

倫理
真假之間:GPT-2的危險成就

真假之間:GPT-2的危險成就

真假之間:GPT-2的危險成就
撰文/陳儁翰

2019年2月,知名研究團隊OpenAI發表了簡稱為GPT-2的文本生成模型。研究團隊使用達40 GB的資料量,結果好到讓研究人員為避免惡意濫用,決定暫緩開放原始碼。2019年5月初,兩個簡化後的模型在千呼萬喚中釋出,參數量分別為1.17億與3.45億個,雖與15億參數的原始版本相比,小巫見大巫,卻也顯示出僅是增加資料量與模型複雜度,電腦便可寫出令人難辨真偽的文字內容,輕易淪為假新聞的量產工具。

應用
走出同溫層

走出同溫層

走出同溫層
編譯/陳宣豪

推薦系​​統依據用戶的個人特徵和過去瀏覽行為,投放迎合用戶喜好的個人化廣告與推薦清單,刺激消費、提升業者的銷售額,可說是機器學習技術在商業中最成功且最廣泛的應用。然而,近來也有不少學者開始擔憂,推薦系統的普及所引起的「過濾泡泡」(filter bubble)與「迴聲室」(echo chamber)現象,正對我們的生活產生負面影響。

倫理
眼見不為憑:假新聞攻防戰

眼見不為憑:假新聞攻防戰

眼見不為憑:假新聞攻防戰
編譯/葛竑志

假新聞、假消息氾濫的時代來襲,有心人士杜撰的不再只是充滿陰謀論的文字與情節,或是那些容易被看破的粗糙修圖,現在已能借AI之力偽造出以假亂真的影片了。這關乎的不再只是大眾的媒體識讀能力,而是我們人類是否有能力看穿偽造影片背後的真相呢?

Pages
  • 1
  • 2