「明明白白我的心」 語音互動成無人駕駛汽車剛需

2021-09-23 02:28:26 字數 960 閱讀 2300

試想,如果有一天人類與機械人對話,會使用什麼方式?尤其是當人類指揮乙個車型機械人行駛在道路上的時候,是用計算機語言不斷給機械人輸入**,還是只是簡單地使用人類最熟悉的互動方式——人類語言?答案顯而易見。

語音互動成自動駕駛汽車剛需

與傳統汽車不同,目前被熱議的自動駕駛汽車從本質上看相當於智慧型化機械人,只是智慧型程度不同。作為智慧型程度最高的無人駕駛汽車,即完全自動駕駛汽車,必須具有看、聽、說、思考、決策、行動的能力,在城市道路等複雜環境中,這些能力將直接決定無人車的使用體驗,甚至是使用者的生命安全。

在這些技術儲備中,良好的人車互動是無人駕駛汽車與使用者接觸的第一步。而在複雜的行車環境中,其他的互動模式都不如語音互動來得自然、順暢,符合人類使用習慣——用耳朵聽來做資訊的輸入,用嘴巴說來做資訊的輸出。

事實上,語音互動並不僅侷限於無人駕駛汽車,相關調查資料顯示,語音互動逐漸在替代傳統手動控制,成為智慧型行車的顯著特徵之一。 

語音互動技術可以讓操控和管理汽車更便捷,這項技術已經成為自動駕駛汽車的剛需。對於無人駕駛汽車來說,實現語音互動,聽得清是第一步,能聽懂是第二步,能反饋是第三步。

「聽得清」是實現人機互動體驗的第一步,也就要考驗語音識別的準確度。事實上,語音識別技術已經經過了多年發展,2023年以後,基於統計語言學方法,ibm將當時的語音識別率從70%提公升到90%,語音識別規模也從幾百個單詞上公升到幾萬個單詞。2023年,基於對大量資料加以分析的統計方式來構建機器翻譯系統的觀點。最近幾年,行業開始引進深層神經網路(dnn)的演算法,dnn技術為語音識別領域帶來了新的突破。

「聽得懂」是第二步,也是人車語音互動中最重要的,只有聽懂了人類語言的意圖,無人駕駛汽車才能夠執行對應的命令。

實現「聽得懂」的核心是建立統計語言模型,而語言模型的有效性則依賴強大的計算能力和足夠多的資料對該模型進行訓練,語言模型越複雜則需要的計算量越大,而巨大、豐富的資料量是保證語言模型輸出的準確性的重要基礎。

原文發布時間為:2023年9月22日 

明明白白我的心 fs series 4

作者 gtt 本文件歸屬 請提出寶貴意見mail mtloveft hotmail.com linux version 2.6.33 提示 本文是關於file system 實現的介紹 再來看看linux 2.6.33中ext2的結構圖 super block的定義如下 struct ext2 su...

一些明明白白的句子

1,沒有乙個人會真的喜歡孤獨,可是對於優秀的人來說,他們明白能夠通向幸福的捷徑,從來不是合群,而是成為最優秀的自己。人只有在獨處的時候,才能夠真正的去學習一些東西,去思考一些東西,優秀的人喜歡的從來不是獨處,而是喜歡因為獨處而給自己帶來的收穫。2,我渴望有自己獨立的人格,我渴望自己內心的特立獨行和桀...

明明白白OSPF與EIGRP的區別

明明白白ospf與eigrp的區別 在網際網路飛速發展的今天,tcp ip協議已經成為資料網路互聯的主流協議。在各種網路上執行的大大小小各種型號路由器,承擔著控制本世紀或許最重要資訊的流量,而這成百上千臺路由器間的協同工作,離不開路由協議。ospf和eigrp都是近年來出現的比較好的動態路由協議,o...