avav588con,最近2019中文免费字幕在线观看,欧美一道本一区二区三区,九九热在线观看,经典好看免费AV

移動版

當前位置:智慧城市網(wǎng)資訊中心視點跟蹤

新發(fā)產(chǎn)品更多
把松鼠當海獅 蜻蜓當井蓋 為什么圖像識別AI會犯這些“低級錯誤”?
2019年07月11日 09:17:10來源:前瞻網(wǎng)點擊量:42028
導讀人工合成的對抗標志需要知道所有的人工智能系統(tǒng)是如何防范誤判的。但相比之下,即使人工智能系統(tǒng)各自的防范措施不同,這些自然的例子也能很好地發(fā)揮作用。
  【安防展覽網(wǎng) 視點跟蹤】目前的人工智能技術(shù)已經(jīng)非常擅長識別圖像中的物體,但仍然很容易犯些“低級錯誤”。
 
  在部分情況下,只需在人眼不可見的靜態(tài)噪聲中添加一些可選的筆觸或圖層,就可以“愚弄”AI圖像識別系統(tǒng),這有時甚至會造成致命的后果。
 
  例如,曾有研究人員將打印的涂鴉貼在路牌上導致AI自動駕駛系統(tǒng)將限速標志識別為禁行,騰訊科恩實驗室也曾發(fā)布報告稱路面上難以注意到的小貼紙就能誤導特斯拉錯誤判斷并駛?cè)敕聪蜍嚨馈?br /> 
  這些誤導標志被稱為“對抗補丁”,研究人員現(xiàn)在正忙于開發(fā)保護人工智能系統(tǒng)不受這些例子影響的方法。
 
  但在去年的一篇論文中,Google Brain和普林斯頓大學的一組研究人員,包括該領(lǐng)域早的研究人員之一Ian Goodfellow,認為這些新研究過于理論化,沒有抓住重點。
 
  他們說,雖然大部分研究的重點是保護系統(tǒng)免受特別設計的標志的干擾,但黑客可能會選擇一種更直接的方法:使用一張完全不同的照片,而不是在現(xiàn)有照片上疊加噪音圖案。這也可能導致系統(tǒng)誤判斷。這一批評促使加州大學伯克利分校的博士生Dan Hendrycks編寫了一個新的圖像數(shù)據(jù)集。
 
  這個數(shù)據(jù)集中包括一些容易被誤判的圖像,比如松鼠(它們通常會被誤認為是海獅)或蜻蜓(它們會被誤認為是井蓋)。他表示:“這些例子似乎更難防范。”
 
  人工合成的對抗標志需要知道所有的人工智能系統(tǒng)是如何防范誤判的。但相比之下,即使人工智能系統(tǒng)各自的防范措施不同,這些自然的例子也能很好地發(fā)揮作用。
 
  Hendrycks上周在機器學習會議上發(fā)布了該數(shù)據(jù)集的早期版本,包含大約6000幅圖像。他計劃在幾周內(nèi)發(fā)布終版本,其中包括近8000個圖像。他打算讓研究團體使用該數(shù)據(jù)集作為基準。
 
  換句話說,與其直接在圖像上訓練圖像識別系統(tǒng),不如將其保留下來只用于測試。他說:“如果人們只是用這些數(shù)據(jù)集訓練系統(tǒng),那么系統(tǒng)僅僅只是記住了這些例子。這樣雖然系統(tǒng)已經(jīng)解決了誤判這些圖像的問題,但它們對新圖像的誤判程度并沒有得到改善。”
 
  破解這些令人困惑的誤判背后的邏輯,可能會讓系統(tǒng)的適應性更廣。“為什么系統(tǒng)會把蜻蜓和鱷梨色拉醬搞混?”Hendrycks開玩笑道,“根本不清楚為什么會犯這樣的錯誤。”
 
  為什么人工智能會誤判?
 
  有些人工智能系統(tǒng)的底層計算機制是已知的,有些則不是,這被稱為“黑箱”,即該系統(tǒng)的可能都無法完全了解系統(tǒng)如何做出決策。
 
  對于圖像識別技術(shù)來說,有時原因是因為給定的訓練數(shù)據(jù)集出了問題。比如近日Facebook人工智能實驗室的一項新研究就表明,科技巨頭銷售的物體識別算法在識別來自低收入國家的物品時表現(xiàn)得更差。
 
  據(jù)報道,研究人員測試了五種流行的現(xiàn)成對象識別算法——微軟Azure、Clarifai、谷歌Cloud Vision、亞馬遜Rekognition和IBM Watson。而測試的圖像包括來自不同階級的家庭的家中用品的圖像。這些圖像可能來自非洲布隆迪的一個月收入27美元的家庭,也可能來自烏克蘭一個月收入1090美元的家庭。
 
  研究人員發(fā)現(xiàn),與月收入超過3500美元的家庭相比,當被要求識別月收入50美元的家庭的物品時,物體識別算法的出錯率要高出10%左右。
 
  而且在識別來自美國的照片時,算法的準確性也比識別來自索馬里或布基納法索的照片要高出15%至20%。
 
  研究人員稱,在一系列用于圖像識別的商業(yè)云服務中,這些發(fā)現(xiàn)具有一致性。
 
  人工智能算法的這種“偏見”還有很多別的例子,其中一種常見的推測原因是用于培訓的數(shù)據(jù)有了偏頗——它們往往反映了相關(guān)工程師的生活和背景。由于這些人通常是來自高收入國家的白人男性,他們訓練的算法所要識別的世界也是如此。
 
  研究人員稱,視覺算法的訓練數(shù)據(jù)主要來自歐洲和北美,“在人口眾多的地理區(qū)域,特別是非洲、印度、中國和東南亞,對視覺場景的采樣嚴重不足”。
 
  由于美國科技公司在人工智能領(lǐng)域處于世界地位,這可能會影響到從照片存儲服務、圖像搜索功能到更重要的AI安全攝像頭、自動駕駛汽車等系統(tǒng)的方方面面。
 
  “評估人工智能系統(tǒng)并不一定容易,因為沒有執(zhí)行這類評估的標準基準。”幫助開展這項研究的Facebook人工智能研究科學家勞倫斯·范德馬頓(Laurens van der Maaten)在接受采訪時表示。
 
  “對抗這種偏見重要的一步是,在培訓AI系統(tǒng)之前的數(shù)據(jù)收集環(huán)節(jié)就要謹慎得多。”
 
  值得注意的是,科技公司們經(jīng)常把自家人工智能產(chǎn)品宣傳為“人人平等、人人可得”,但實際上,它們可能只是在按照自己的形象來評估、定義和塑造世界。
關(guān)鍵詞 圖像識別人工智能低級錯誤
相關(guān)閱讀更多
版權(quán)與免責聲明:

凡本網(wǎng)注明“來源:智慧城市網(wǎng)”的所有作品,均為浙江興旺寶明通網(wǎng)絡有限公司-智慧城市網(wǎng)合法擁有版權(quán)或有權(quán)使用的作品,未經(jīng)本網(wǎng)授權(quán)不得轉(zhuǎn)載、摘編或利用其它方式使用上述作品。已經(jīng)本網(wǎng)授權(quán)使用作品的,應在授權(quán)范圍內(nèi)使用,并注明“來源:智慧城市網(wǎng)”。違反上述聲明者,本網(wǎng)將追究其相關(guān)法律責任。

本網(wǎng)轉(zhuǎn)載并注明自其它來源(非智慧城市網(wǎng))的作品,目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點或和對其真實性負責,不承擔此類作品侵權(quán)行為的直接責任及連帶責任。其他媒體、網(wǎng)站或個人從本網(wǎng)轉(zhuǎn)載時,必須保留本網(wǎng)注明的作品第一來源,并自負版權(quán)等法律責任。

如涉及作品內(nèi)容、版權(quán)等問題,請在作品發(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

正在閱讀:把松鼠當海獅 蜻蜓當井蓋 為什么圖像識別AI會犯這些“低級錯誤”?
我要投稿
  • 投稿請發(fā)送郵件至:(郵件標題請備注“投稿”)afzhan@foxmail.com
  • 聯(lián)系電話0571-87756384
智慧城市行業(yè)“互聯(lián)網(wǎng)+”服務平臺
智慧城市網(wǎng)APP

功能豐富 實時交流

智慧城市網(wǎng)小程序

訂閱獲取更多服務

微信公眾號

關(guān)注我們

抖音

智慧城市網(wǎng)

抖音號:afzhan

打開抖音 搜索頁掃一掃
i

視頻號

AF智慧城市網(wǎng)

視頻號ID:sphF7DOyrojJnp8

打開微信掃碼關(guān)注視頻號

小紅書

智慧城市

小紅書ID:2537047074

打開小紅書 掃一掃關(guān)注
反饋