發布日期:2018-06-08
據外媒CNET報道,麻省理工學院媒體實驗室的研究人員創建出稱為 Norman的“精神病AI”,作為“在機器學習算法中使用有偏差的數據時人工智能出錯的案例研究”。研究人員將Norman設置為執行圖像字幕,這是一種深度學習方法,可以生成圖像的文本描述,然后將其插入一個以其死亡圖像而聞名的subreddit版塊。
然后,他們讓Norman解釋了一系列羅夏墨跡,將他們的“精神病人AI”與“標準AI”的答案進行比較。雖然Norman最初是在4月1日揭幕,但這些答案非常令人不安。
在標準AI發現“在樹枝上的一群鳥”時,HAL-9000式的死亡機器人Norman發現“一個人被電死了”。標準AI能看到“桌子上的結婚蛋糕”,而Norman看到“一名男子因超速駕駛而死亡”。
研究人員并沒有“創造”Norman的“精神病態”傾向,他們只是通過只允許它看到特定的圖像標題子集來幫助人工智能。Norman用簡單的語句描述羅夏墨跡的方式確實使它看起來像是在一個subreddit上發布內容。
但為什么要創造一個“精神病AI”?該研究小組旨在強調將特定數據提供給算法的危險,以及這可能會對其行為產生偏見或影響。
來源:cnBeta.COM