四虎综合网,老子影院午夜伦不卡国语,色花影院,五月婷婷丁香六月,成人激情视频网,动漫av网站免费观看,国产午夜亚洲精品一级在线

每日經(jīng)濟(jì)新聞
新科技

每經(jīng)網(wǎng)首頁 > 新科技 > 正文

人工智能黎明將至?繼谷歌后百度開放四項語音技術(shù)接口

每日經(jīng)濟(jì)新聞 2016-11-23 12:02:52

作為人工智能的主要技術(shù)及應(yīng)用之一,語音識別是國內(nèi)外科技公司都在耕耘的方向。百度公司首席科學(xué)家吳恩達(dá)甚至形容稱,“我們已經(jīng)站在人工智能的黎明。”

每經(jīng)編輯 趙娜    

Graywatermark.thumb_head

每經(jīng)記者 趙娜

日前,百度宣布在其語音開放平臺上線三周年之際,向公眾開放四項全新語音技術(shù)接口,分別是情感合成、遠(yuǎn)場方案、喚醒二期技術(shù)和長語音。

《每日經(jīng)濟(jì)新聞》記者注意到,作為人工智能的主要技術(shù)及應(yīng)用之一,語音識別是國內(nèi)外科技公司都在耕耘的方向。百度公司首席科學(xué)家吳恩達(dá)甚至形容稱,“我們已經(jīng)站在人工智能的黎明。”

早些時候,谷歌于今年3月宣布開放其語音識別API(應(yīng)用程序編程接口)。

據(jù)了解,百度語音開放平臺日前宣布對外開放的四項技術(shù),也可以理解為輸出解決方案,包括情感合成、遠(yuǎn)場方案、喚醒二期技術(shù)和長語音四種。

“這些技術(shù)有很大的潛力,去徹底改變?nèi)藱C(jī)交互的效率和辦法。未來語音技術(shù)在很多應(yīng)用場景有很好的機(jī)會,將為人機(jī)交互帶來巨大的改變。”吳恩達(dá)表示,這些技術(shù)旨在解決用戶在使用語音交互的場合時,普遍感到困擾的一些關(guān)鍵問題。例如,百度情感合成技術(shù)主要聚焦在為合成語音“加入情感”,目前可達(dá)到接近真人發(fā)聲效果。類似地,開發(fā)者還可以利用新的接口,使語音識別距離增加到3米到5米,將設(shè)備的語音喚醒率提升到95%以上,同時更省電、誤報更少,或提升長時間語音識別的準(zhǔn)確率問題。這將為語音技術(shù)帶來遠(yuǎn)比現(xiàn)在更多的想象空間,而不只是遙控電視或解鎖手機(jī)。

公開資料顯示,百度語音識別準(zhǔn)確率已達(dá)97%。百度語音開放平臺自2013年10月上線以來,開發(fā)者數(shù)量超過14萬。

斯坦福大學(xué)人工智能專家James Landay提到,“近兩年,受益于大數(shù)據(jù)和深度學(xué)習(xí)技術(shù)的不斷發(fā)展,語音識別技術(shù)突飛猛進(jìn),速度及準(zhǔn)確性都有了長足進(jìn)步。”

值得注意的是,作為人工智能的主要技術(shù)及應(yīng)用之一,語音識別是國內(nèi)外科技公司都在耕耘的方向,包括蘋果、微軟、谷歌、百度、騰訊、科大訊飛和搜狗等多家公司都在這一領(lǐng)域發(fā)力。

“我們已經(jīng)站在人工智能的黎明。”11月22日下午,吳恩達(dá)在接受包括《每日經(jīng)濟(jì)新聞》在內(nèi)的媒體采訪時稱,語音識別的門檻很高,除了技術(shù)復(fù)雜,數(shù)據(jù)門檻也非常高?,F(xiàn)階段,最難的仍是核心技術(shù)研發(fā),如識別率提升、大數(shù)據(jù)語音合成等。百度希望通過開放相關(guān)技術(shù),讓智能應(yīng)用更易被開發(fā)。

另一方面,今年3月,谷歌在其Next云計算大會上發(fā)布面向開發(fā)者的新機(jī)器學(xué)習(xí)平臺的同時,宣布開放語音識別API,即谷歌語音搜索和語音輸入的支持技術(shù)。

記者留意到,Google Cloud SPeech API包括了80多種語言,適用于各種實時語音識別與翻譯應(yīng)用。9月下旬,外媒報道稱,谷歌宣布將收購智能語音識別工具開發(fā)商API.ai,預(yù)計會整合后者的自然語言理解技術(shù)。

而就在上周的第三屆世界互聯(lián)網(wǎng)大會上,王小川在演講中現(xiàn)場演示了實時語音識別和翻譯的能力,并提到,搜索的未來就是問答機(jī)器人,隨著技術(shù)的突破,搜索引擎會自然而然演化成為問答引擎。但他也直言,盡管人工智能最重要的突破領(lǐng)域是在語音和圖像領(lǐng)域,但在文字領(lǐng)域的進(jìn)展仍較緩慢。比如,在安靜的環(huán)境下,搜狗的語音識別準(zhǔn)確度已經(jīng)到了95%甚至97%,但一旦有噪音,準(zhǔn)確率會迅速下降。

 

如需轉(zhuǎn)載請與《每日經(jīng)濟(jì)新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

人工智能 語音識別

歡迎關(guān)注每日經(jīng)濟(jì)新聞APP

每經(jīng)經(jīng)濟(jì)新聞官方APP

0

0