avav588con,最近2019中文免费字幕在线观看,欧美一道本一区二区三区,九九热在线观看,经典好看免费AV

移動版

當前位置:智慧城市網資訊中心國際新聞

新發(fā)產品更多
智力還是情感?人類到底想要人工智能怎么樣
2015年09月01日 09:49:51來源:雷鋒網點擊量:11396
導讀回望過去的幾個世紀,我們可以發(fā)現似乎人類一直在試圖證明自己不是“動物”,而現在,人類可能要再證明下自己和“機器”其實并不一樣。
  【中國安防展覽網 新聞】阿蘭·圖靈是英國數學家、邏輯學家,被稱為計算機之父、人工智能之父;他曾經構思了的人工智能測試方法——圖靈測試。阿達·洛夫萊斯是詩人拜倫的女兒,也是一個的數學家和科學思想家。她熱衷于創(chuàng)造一臺能模擬大腦如何產生想法和感受的機器,這要早于人工智能。她認為自己的做法是“詩意的科學”,美國國防部曾將一種計算機語言命名為Ada語言,來紀念她。


智力還是情感?人類到底想要人工智能怎么樣
  
  不過現在,請先忘記圖靈和阿達·洛夫萊斯曾經進行過的人工智能測試吧,因為筆者要提出一個全新的人工智能測試——弗蘭普頓測試(FramptonTest)?;蛟S你會感到好奇,什么是“弗蘭普頓測試”呢?
  
  回望過去的幾個世紀,我們可以發(fā)現似乎人類一直在試圖證明自己不是“動物”,而現在,人類可能要再證明下自己和“機器”其實并不一樣。
  
  阿蘭·圖靈曾經發(fā)明了一種所謂的“模擬游戲”,(其實就是的圖靈測試),用來測試機器是否能和人類一樣思考。比如當人類和機器進行交流時,如果一個人無法區(qū)別和自己進行交流的是人還是機器,那么這臺機器就算是通過了圖靈測試。初,圖靈提出判斷人工智能的概念是“機器是否能夠像人類一樣思考”。但是后來人類自己也意識到,對于“思考”這個概念,就連人類自己都無法給出一個明確的定義。
  
  欺騙圖靈測試
  
  人類有很多不同的人格品質,比如有些人就比較刁滑。事實上,圖靈測試一直鼓勵計算機程序員設計一些“刁滑”的機器來迷惑人類判斷,這在本質上能掩蓋真實的對話,讓機器“通過”圖靈測試。
  
  這種“欺騙”在去年七月七日真的就實現了,在英國學會的圖靈測試大賽中,一個名為Eugene Goostman的家伙讓三分之一的評委覺得“他”是一個13歲的烏克蘭男生。
  
  事實上,Eugene不是“人”,而是一個人工智能聊天程序,一款專門設計與人類進行聊天的計算機程序或聊天機器人。當然啦,受到某些超現實主義的影響,這款機器人還能和其他聊天機器人進行對話交流。
  
  不過,有批評家很快就指出,類似這種“人工智能欺騙”其實也是人為設定的,因此根本算不上真正的人工智能。因為將人類智能設置為一個13歲的烏克蘭男生,而測試是使用的英語,那么測試的時候就算出現一些低級錯誤,人們也會諒解:還能怎么樣,他只是一個13歲的外國小男孩?這帶來了極大的迷惑性。
  
  創(chuàng)造性思維
  
  如今,類似Eugene這樣的聊天機器人基本上已經算是非常成功了,但對于研究人員來說,他們希望迎接更具挑戰(zhàn)性的使命:讓機器具有創(chuàng)造力!
  
  四年前,Selmet Bringsjord、Paul Bello以及David Ferrucci三位研究人員擬建了“洛夫萊斯測試”,它是以十九世紀的數學家、程序員阿達?洛夫萊斯伯爵夫人的名字命名的。你可以要求計算機去創(chuàng)造一些東西,比如編一個故事或寫一首詩。
  
  實際上,計算機寫詩、編故事,這些功能早就已經實現了。事實上,《三體》的作者劉慈欣就曾經開發(fā)了一個簡單的寫詩小程序“電子詩人”。但是要通過所謂的“洛夫萊斯測試”,所有設計相關程序的人必須能夠解釋它是如何生成這些創(chuàng)意作品的。
  
  Mark Riedl來自佐治亞理工大學交互計算學院,他提出對“洛夫萊斯測試”進行升級,也就是“洛夫萊斯測試2.0版本”,一臺計算機必須要完成一系列越來越苛刻的創(chuàng)意挑戰(zhàn),之后會獲得一個分數,并以此評估創(chuàng)造性。
  
  他是這樣描述創(chuàng)造性的:
  
  在我的測試中,我們有人類評委坐在計算機對面。他們知道自己在與人工智能進行交互。他們會讓這個人工智能分兩個層級去完成一項任務。個層級,他們會要求人工智能創(chuàng)作一個有創(chuàng)意的作品,比如編一個故事、寫一首詩或畫一幅圖。接著,他們會提供一個標準,比如,“給我講一個關于‘貓的一天’的故事”,或是“給我畫一個抱著一只企鵝的人物畫像”等等。
  
  創(chuàng)造力的偉大之處又是什么呢?
  
  洛夫萊斯測試2.0版本可能具有一定挑戰(zhàn)性,但同時,又有人提出異議,因為他們認為不應該把創(chuàng)造力看做是人類重要的品質。
  
  事實上,在本月初舉辦的Robotronica 2015機器人創(chuàng)力大會上,Jared Donovan和機器人學家Michael Milford,以及舞蹈家Kim Vincs教授對人工智能創(chuàng)造力進行了一次專題討論。近,很多業(yè)界人士(包括史蒂芬·霍金、比爾·蓋茨、以及埃隆·馬斯克)都認為人工智能有一天會導致人類滅亡,而在本屆機器人創(chuàng)力大會上的這次專題討論更多地是去關注創(chuàng)造力和機器人的現狀,以及人類更希望智能機器去表達什么樣的情緒或情感。
  
  在人類的精神層面上,共鳴可以算得上是高層次的一種情緒表達了,人類具有理解彼此,分享彼此感受的能力{而且在絕大多數情況下,彼此之間根本不需要做太多識別判斷,僅僅是一個眼神、一個動作,就能做到心有靈犀。
  
  因此,筆者提出了“弗蘭普頓測試”這一概念,之所以要用搖滾傳奇Peter Frampton的名字來命名,其實是因為他在1973年的一首歌曲中提出了一個重要的問題“你能像我們一樣感覺彼此嗎?”
  
  我們知道,人類會在某些特定狀態(tài)里產生共鳴,同感彼此的感覺。弗蘭普頓測試也希望能夠達到這一目標,它要求人工智能系統(tǒng)必須在類似的某些特定狀態(tài)里,給出一個令人信服、且適當的情緒或情感回應。
  
  我重復那種情感
  
  值得一提的是,人們已經開始在相關領域里進行探索了,這種所謂“情感計算”的人工智能,希望能夠給機器灌輸模擬人類共鳴的能力,如果真的能夠實現的話,這種具備人類情感的人工智能機器所產生的影響,或許會引發(fā)人們更多有趣的思考。
  
  今年七月,人工智能和機器人研究人員發(fā)布了一封公開信,其中明確指出,如果機器人可以自動控制武器,未來將會是非常危險的。不過,如果機器人能具有人類的同情心,我們還會擔心開發(fā)這種殺傷性機器人嗎?
  
  如果機器人具備了人類情感,比如同情心,它可能不會去殺人。但同樣地,讓機器人具備人類情感就真的是件好事兒嗎?我們知道,人類情感并不都是積極正面的,比如憎恨、憤怒、忿怨等等?;蛟S我們真的應該感到慶幸,自己生活在一個沒有情感機器人的世界里面。(如果你調戲Siri之后,得到的是惡語相向的回答,真不知道會是個什么樣的場景。)
  
  當然,如果你看看生活中的大環(huán)境就會發(fā)現,其實積極正面的情感情緒依然在人類生活中占據了主導地位。
  
  事實上,所有和人工智能相關的問題都值得認真思考,機器人是否會在未來某一天具有創(chuàng)造力,我們人類是否希望機器人具有創(chuàng)造力呢?諸如此類。
  
  至于機器情感,我認為弗蘭普頓測試可能會應用很長一段時間。當然啦,現階段那些機器人身上所表現出的強烈的情緒、情感,其實都是繼承自它們的創(chuàng)造者而已。
關鍵詞 人工智能物聯網智能制造
相關閱讀更多
版權與免責聲明:

凡本網注明“來源:智慧城市網”的所有作品,均為浙江興旺寶明通網絡有限公司-智慧城市網合法擁有版權或有權使用的作品,未經本網授權不得轉載、摘編或利用其它方式使用上述作品。已經本網授權使用作品的,應在授權范圍內使用,并注明“來源:智慧城市網”。違反上述聲明者,本網將追究其相關法律責任。

本網轉載并注明自其它來源(非智慧城市網)的作品,目的在于傳遞更多信息,并不代表本網贊同其觀點或和對其真實性負責,不承擔此類作品侵權行為的直接責任及連帶責任。其他媒體、網站或個人從本網轉載時,必須保留本網注明的作品第一來源,并自負版權等法律責任。

如涉及作品內容、版權等問題,請在作品發(fā)表之日起一周內與本網聯系,否則視為放棄相關權利。

正在閱讀:智力還是情感?人類到底想要人工智能怎么樣
我要投稿
  • 投稿請發(fā)送郵件至:(郵件標題請備注“投稿”)afzhan@foxmail.com
  • 聯系電話0571-87756384
智慧城市行業(yè)“互聯網+”服務平臺
智慧城市網APP

功能豐富 實時交流

智慧城市網小程序

訂閱獲取更多服務

微信公眾號

關注我們

抖音

智慧城市網

抖音號:afzhan

打開抖音 搜索頁掃一掃
i

視頻號

AF智慧城市網

視頻號ID:sphF7DOyrojJnp8

打開微信掃碼關注視頻號

小紅書

智慧城市

小紅書ID:2537047074

打開小紅書 掃一掃關注
反饋