avav588con,最近2019中文免费字幕在线观看,欧美一道本一区二区三区,九九热在线观看,经典好看免费AV

移動(dòng)版

當(dāng)前位置:智慧城市網(wǎng)資訊中心視點(diǎn)跟蹤

新發(fā)產(chǎn)品更多
語音識(shí)別結(jié)合應(yīng)用場景 唱響未來新篇章
2017年04月20日 08:37:25來源:Xtecher點(diǎn)擊量:42496
導(dǎo)讀近幾年來隨著深度學(xué)習(xí)技術(shù)的突破,識(shí)別準(zhǔn)確率大幅提升,帶動(dòng)了一波產(chǎn)業(yè)熱潮。對(duì)語音識(shí)別未來發(fā)展,各位大咖也有一些精彩論點(diǎn)。
  【中國安防展覽網(wǎng) 視點(diǎn)跟蹤】近二十年來,語音識(shí)別技術(shù)取得顯著進(jìn)步,開始從實(shí)驗(yàn)室走向市場。人們預(yù)計(jì),未來10年內(nèi),語音識(shí)別技術(shù)走進(jìn)了工業(yè)、家電、通信、汽車電子、消費(fèi)電子產(chǎn)品等各個(gè)領(lǐng)域。語音識(shí)別作為人工智能發(fā)展早、且商業(yè)化的技術(shù),近幾年來隨著深度學(xué)習(xí)技術(shù)的突破,識(shí)別準(zhǔn)確率大幅提升,帶動(dòng)了一波產(chǎn)業(yè)熱潮。對(duì)語音識(shí)別未來發(fā)展,各位大咖也有一些精彩論點(diǎn)。
 
語音識(shí)別結(jié)合應(yīng)用場景 唱響未來新篇章
 
  科大訊飛研究院副院長——王士進(jìn)
 
  王士進(jìn)表示,語音識(shí)別是人機(jī)交互里很重要的模塊,從PC時(shí)代到現(xiàn)在的移動(dòng)互聯(lián)時(shí)代,人機(jī)交互由鼠標(biāo)鍵盤走向智能手機(jī)、Pad等的多點(diǎn)觸摸。到了智能硬件時(shí)代,交互則更加多元,不僅有觸摸,還有基于語音、視覺的交互。原本是以機(jī)器為中心的人機(jī)交互,逐漸走向以人為中心的自然交互。
 
  他認(rèn)為,在將來萬物互聯(lián)的浪潮下,以語音為主,鍵盤、觸摸、視覺、手勢為輔的交互時(shí)代很快會(huì)到來。
 
  提到傳統(tǒng)的語音交互,王士進(jìn)列舉了幾個(gè)缺點(diǎn):,交互距離要近;第二,發(fā)音必須標(biāo)準(zhǔn);第三,環(huán)境必須安靜;第四,人機(jī)不能持續(xù)對(duì)話。
 
  科大訊飛在2015年提出AIUI,旨在解決上述問題同時(shí)期望在人工智能時(shí)代提供一種智能的人機(jī)交互界面。AIUI提供遠(yuǎn)場喚醒和識(shí)別降噪方案,兼容全國近17種方言,可以進(jìn)行全雙工交互和基于業(yè)務(wù)場景的多輪對(duì)話,同時(shí)結(jié)合訊飛超腦的認(rèn)知智能使得機(jī)器進(jìn)行更智能的交互。
 
  AIUI實(shí)現(xiàn)了軟硬一體化、云端一體化、技術(shù)服務(wù)一體化,通過三個(gè)一體化提供人機(jī)智能交互整體解決方案,使得用戶可以快速切換到新的業(yè)務(wù)場景。
 
  在提到基于AIUI交互技術(shù)的一些商業(yè)化嘗試時(shí),王士進(jìn)列舉了幾種:
 
  在交流方面,科大訊飛在05年推出了聽見智能會(huì)議這款產(chǎn)品。一般來說,會(huì)議場景的同傳準(zhǔn)確率為80%左右,而智能會(huì)議轉(zhuǎn)寫準(zhǔn)確率則能達(dá)到90%以上,之后,其在醫(yī)療和司法系統(tǒng)進(jìn)行了應(yīng)用。另外,科大訊飛還推出了便攜翻譯機(jī),易于隨身攜帶,方便遠(yuǎn)程實(shí)時(shí)交流。
 
  在電視方面,早的電視是用數(shù)字加上下左右按鍵控制僅有的十幾個(gè)臺(tái),而現(xiàn)在的智能電視后臺(tái)對(duì)接海量資源,通過訊飛智能電視助手可以進(jìn)行方便的語音交互,節(jié)省時(shí)間。
 
  在汽車方面,由于人在駕駛時(shí)候手不能離開方向盤,故把語音引入代替手進(jìn)行交互會(huì)方便許多。實(shí)際上相比其他應(yīng)用場景,語音識(shí)別由于汽車場景的噪音更強(qiáng),面臨更大挑戰(zhàn),而科大訊飛也在基于車載的語音識(shí)別做了許多優(yōu)化,更在寶馬、奔馳、通用舉行的車載語音識(shí)別比賽取得名,有效的支撐了車載場景的交互。
 
  在機(jī)器人方面,機(jī)器人與人的語音交互滿足自然交互、個(gè)性化服務(wù)以及基于業(yè)務(wù)場景的整合服務(wù),可以方便的任意打斷,在理解用戶的需求下進(jìn)行的內(nèi)容推薦和服務(wù)。
 
  語音識(shí)別和自然語言理解都是基于統(tǒng)計(jì)和概率體系,所以商業(yè)化過程建議選擇人受到一定限制(如車載)或者很難做正確(如會(huì)議同傳)的場景,然后隨著技術(shù)的進(jìn)一步成熟,可以進(jìn)入到更多的場景。
 
  后,王士進(jìn)總結(jié)道,“語音識(shí)別和人機(jī)交互技術(shù)在進(jìn)行技術(shù)優(yōu)化的同時(shí)更要結(jié)合應(yīng)用場景,終可使得技術(shù)完善,產(chǎn)業(yè)更好的發(fā)展。”
 
  百度語音技術(shù)部聲學(xué)技術(shù)負(fù)責(zé)人——李先剛
 
  提到這些年對(duì)手機(jī)百度語音搜索的不斷優(yōu)化過程,李先剛認(rèn)為要做好這樣一個(gè)產(chǎn)品,先要收集相關(guān)數(shù)據(jù),然后將語音識(shí)別應(yīng)用推廣到相關(guān)產(chǎn)品線上供用戶使用,用戶使用后反饋回來數(shù)據(jù)形成完整鏈條,終達(dá)到非常的狀態(tài)。
 
  他把輸入法在語音識(shí)別中的作用表述為:輸入法這一場景對(duì)語音識(shí)別性能提升有非常大的幫助。
 
  而今年,百度在語音技術(shù)方面的進(jìn)展包括基于GramCTC的端對(duì)端語音識(shí)別系統(tǒng)以及端對(duì)端說話人識(shí)別技術(shù)。
 
  基于CTC的端對(duì)端語音識(shí)別系統(tǒng)是目前主流的工業(yè)系統(tǒng),在2015年底,百度實(shí)現(xiàn)了CTC端對(duì)端語音識(shí)別系統(tǒng)的上線。而今年,百度進(jìn)一步提出了GramCTC算法。
 
  主流的說話人識(shí)別技術(shù)使用經(jīng)典的DNN-IVECTOR技術(shù),其框架基于統(tǒng)計(jì)模型,并將DNN引入此框架去學(xué)習(xí)。
 
  可以看到的是,語音識(shí)別已走向大數(shù)據(jù)和端對(duì)端的道路,百度也將把說話人識(shí)別技術(shù)向此發(fā)展,進(jìn)一步提升相關(guān)性能。
 
  李先剛表示,人臉識(shí)別與說話人識(shí)別有技術(shù)共性,二者之間的差異僅僅只是人臉識(shí)別對(duì)象可以是固定尺寸的圖片,而語音的時(shí)長會(huì)有很多變化。因此,百度說話人識(shí)別技術(shù)借鑒了目前人臉識(shí)別好的方法——度量學(xué)習(xí),搭建了端對(duì)端度量學(xué)習(xí)的說話人識(shí)別系統(tǒng)。百度內(nèi)部的實(shí)驗(yàn)顯示,基于端對(duì)端的說話人技術(shù)顯著提升了說話人識(shí)別的性能。
 
  從商業(yè)化的角度分析語音識(shí)別,可將其應(yīng)用分為兩個(gè)維度,個(gè)是近場和遠(yuǎn)場,第二個(gè)是人配合機(jī)器說話和人對(duì)人說話的不同說話風(fēng)格。經(jīng)過這樣劃分會(huì)發(fā)現(xiàn)很多語音場景其實(shí)是處在不同的語音象限里面,目前業(yè)界所做的近場人對(duì)機(jī)器說話的識(shí)別準(zhǔn)確率可達(dá)90%以上,但另外幾個(gè)場景所做不盡人意。
 
  在李先剛看來,隨著語音技術(shù)的推進(jìn),輔之商業(yè)化情景必將推動(dòng)產(chǎn)品和技術(shù)的發(fā)展。
 
  搜狗語音交互技術(shù)中心研發(fā)總監(jiān)——陳偉
 
  從2012年到現(xiàn)在,隨著數(shù)據(jù)和算法的提升,搜狗的語音識(shí)別的識(shí)別錯(cuò)誤率是逐年下降的。陳偉分享了一組數(shù)據(jù):到目前為止,搜狗輸入法每天的語音識(shí)別請(qǐng)求量高達(dá)2億次,每天產(chǎn)生語料達(dá)到18萬小時(shí)。
 
  陳偉表示,搜狗在2016年發(fā)布知音引擎,對(duì)外輸出完整的語音交互解決方案,也一直在探索語音識(shí)別和交互的不同場景和經(jīng)驗(yàn)。語音識(shí)別可以更好提升輸入、記錄、交流的效率,其可分為聽寫和轉(zhuǎn)寫,聽寫更多要求實(shí)時(shí)性,轉(zhuǎn)寫則面向客服數(shù)據(jù),不要求實(shí)時(shí)。另外,語音識(shí)別技術(shù)面向不同客戶,除了直接提供給消費(fèi)者,還有一些公司、企業(yè)如法院、醫(yī)院等,語音識(shí)別的應(yīng)用場合則更多是在演講、直播、語音分析中。
 
  語音識(shí)別不是一個(gè)單獨(dú)的技術(shù),其需要同其他技術(shù)進(jìn)行融合,比如機(jī)器同傳、語音交互,未來的產(chǎn)品將會(huì)是技術(shù)與技術(shù)的組合,產(chǎn)品與產(chǎn)品的組合。
 
  對(duì)如何做出一款好的語音交互產(chǎn)品,陳偉認(rèn)為首先是要重視場景和知識(shí)。只有技術(shù)(ASR、NLU等)與具體應(yīng)用場景比如車載、智能家具、可穿設(shè)備結(jié)合在一起,才能得到穩(wěn)定的產(chǎn)品。另外,僅僅有技術(shù)是不夠的,還需要技術(shù)創(chuàng)新。在得到良好的使用體驗(yàn)之后用戶基數(shù)會(huì)擴(kuò)大,帶來更多數(shù)據(jù),這些累積的數(shù)據(jù)也是推動(dòng)技術(shù)提升的關(guān)鍵。只有有了產(chǎn)品的迭代、有了真實(shí)的數(shù)據(jù)才能更好的分析出用戶需求,更好的推動(dòng)產(chǎn)品發(fā)展。
 
  他表示,技術(shù)與產(chǎn)品缺一不可。
 
  “語音交互以技術(shù)為驅(qū)動(dòng),加之好的運(yùn)算力帶來大量數(shù)據(jù),以此進(jìn)行迭代,不斷通過技術(shù)和產(chǎn)品的耦合得到更好的產(chǎn)品。”
 
  思必馳CMO——龍夢竹
 
  “目前的語音產(chǎn)品識(shí)別率再高,也只是作為一個(gè)參考。”
 
  龍夢竹提到,在識(shí)別率的數(shù)字背后,諸如降噪、遠(yuǎn)場、回聲消除及聲源定位等也需要關(guān)注。
 
  那這幾個(gè)詞在整個(gè)語音技術(shù)里面有什么作用呢?
 
  其可以影響識(shí)別率和準(zhǔn)確性以及是判斷語音交互產(chǎn)品是否實(shí)用的重要方向。
 
  目前,各個(gè)公司做的都是端到端的,非配合的私人交互系統(tǒng),在這整個(gè)系統(tǒng)里基本分為三個(gè)層面:從感知、到認(rèn)知、到抽象思維的智能。
 
  首先從感知的方向,要保障機(jī)器能夠聽得清,在克服環(huán)境、降噪的方面有很大挑戰(zhàn)的。以思必馳為例,其依靠強(qiáng)大的數(shù)據(jù)庫,已經(jīng)把錯(cuò)詞率降低到了7.19%,比業(yè)界普遍的10%有了非常大的效率提升。
 
  另外,聽清以后需要讓機(jī)器快速反應(yīng)。常常會(huì)有客戶好奇“你們的產(chǎn)品是本地還是云端?”實(shí)際上,現(xiàn)在業(yè)界包括思必馳所做的都是本地+云端,一些簡單的喚醒詞、指令可能會(huì)放在本地。思必馳目前的本地識(shí)別指令高支持三千條,當(dāng)然,高支持?jǐn)?shù)目和產(chǎn)品的硬件配置、系統(tǒng)是相關(guān)的。而更多的需要交流的,需要機(jī)器思考的部分放到云端。
 
  后,機(jī)器能夠聽清并且能夠快速反應(yīng)了,反應(yīng)出來的效果如何?這個(gè)效果用專業(yè)術(shù)語可以稱為TTS,TTS的優(yōu)劣很大程度會(huì)決定產(chǎn)品體驗(yàn)的優(yōu)劣。許多人理解的TTS可能是明星的合成音,而這些合成音不能適用于所有場景。
 
  目前業(yè)界提出的97%、98%、99%的識(shí)別率這只是單獨(dú)針對(duì)語音識(shí)別而言,在不同的領(lǐng)域、場景下,針對(duì)不同業(yè)務(wù)方向的語音識(shí)別和語意理解其實(shí)是有層次不齊的,這個(gè)圖顯示了在家庭和車載環(huán)境下不同的準(zhǔn)確率。
 
  龍夢竹談到,無論在哪個(gè)領(lǐng)域做語音交互技術(shù),都必須要滿足幾個(gè)要求:
 
  要滿足用戶剛需;
 
  第二不一定是高頻使用,但在某一場景能讓用戶形成依賴性;
 
  第三,語音技術(shù)背后一定要有第三方的內(nèi)容和服務(wù)作支持,因?yàn)樗皇且环N交互手段;
 
  “我們一再強(qiáng)調(diào)的是,語音只是一個(gè)交互的手段,而不是一種功能。”現(xiàn)在的語音還沒有達(dá)到全國人民普及的程度,但未來一定會(huì)實(shí)現(xiàn)。而這一手段,其背后第三方的內(nèi)容和服務(wù)是比語音本身更重要的東西。
 
  后,交互體驗(yàn)一定要好。
關(guān)鍵詞 識(shí)別技術(shù)人臉識(shí)別生物識(shí)別
相關(guān)閱讀更多
版權(quán)與免責(zé)聲明:

凡本網(wǎng)注明“來源:智慧城市網(wǎng)”的所有作品,均為浙江興旺寶明通網(wǎng)絡(luò)有限公司-智慧城市網(wǎng)合法擁有版權(quán)或有權(quán)使用的作品,未經(jīng)本網(wǎng)授權(quán)不得轉(zhuǎn)載、摘編或利用其它方式使用上述作品。已經(jīng)本網(wǎng)授權(quán)使用作品的,應(yīng)在授權(quán)范圍內(nèi)使用,并注明“來源:智慧城市網(wǎng)”。違反上述聲明者,本網(wǎng)將追究其相關(guān)法律責(zé)任。

本網(wǎng)轉(zhuǎn)載并注明自其它來源(非智慧城市網(wǎng))的作品,目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點(diǎn)或和對(duì)其真實(shí)性負(fù)責(zé),不承擔(dān)此類作品侵權(quán)行為的直接責(zé)任及連帶責(zé)任。其他媒體、網(wǎng)站或個(gè)人從本網(wǎng)轉(zhuǎn)載時(shí),必須保留本網(wǎng)注明的作品第一來源,并自負(fù)版權(quán)等法律責(zé)任。

如涉及作品內(nèi)容、版權(quán)等問題,請(qǐng)?jiān)谧髌钒l(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

正在閱讀:語音識(shí)別結(jié)合應(yīng)用場景 唱響未來新篇章
我要投稿
  • 投稿請(qǐng)發(fā)送郵件至:(郵件標(biāo)題請(qǐng)備注“投稿”)afzhan@foxmail.com
  • 聯(lián)系電話0571-87756384
智慧城市行業(yè)“互聯(lián)網(wǎng)+”服務(wù)平臺(tái)
智慧城市網(wǎng)APP

功能豐富 實(shí)時(shí)交流

智慧城市網(wǎng)小程序

訂閱獲取更多服務(wù)

微信公眾號(hào)

關(guān)注我們

抖音

智慧城市網(wǎng)

抖音號(hào):afzhan

打開抖音 搜索頁掃一掃
i

視頻號(hào)

AF智慧城市網(wǎng)

視頻號(hào)ID:sphF7DOyrojJnp8

打開微信掃碼關(guān)注視頻號(hào)

小紅書

智慧城市

小紅書ID:2537047074

打開小紅書 掃一掃關(guān)注
反饋