欧美,精品,综合,亚洲,好吊妞视频免新费观看,免费观看三级吃奶,一级a片女人自慰免费看

您當前的位置是:  首頁 > 資訊 > 國際 >
 首頁 > 資訊 > 國際 >

谷歌推出AI非標準語音識別功能,大大降低ASR模型錯誤率

2019-08-15 16:27:47   作者:   來源:CTI論壇   評論:0  點擊:



  谷歌于5月在I/O上宣布了Euphonia項目:試圖使語音識別理解具有非標準語音或障礙的人。谷歌剛剛發(fā)布了一篇文章和一篇論文,解釋了其人工智能的一些功能。
  對于那些有運動障礙的人,比如由肌萎縮側(cè)索硬化癥(ALS)等退化性疾病引起的人,他們的說話聲音根本無法被現(xiàn)有的自然語言處理系統(tǒng)所理解。
  ASR(自動語音識別)系統(tǒng)通常是從“典型”語音中訓練出來的,這意味著代表性不足的群體,比如那些有語音障礙或口音重的群體,不會體驗到同樣程度的實用功能。
  目前最先進的ASR模型也會發(fā)生高錯誤率,只有中度言語障礙的ALS,有效地阻止訪問ASR依賴的技術(shù)。
  值得注意的是,他們至少在一定程度上要歸咎于訓練集。這是我們在人工智能模型中發(fā)現(xiàn)的那些內(nèi)隱偏見之一,這些偏見可能會在其他地方導致高錯誤率,比如面部識別。
  對谷歌的研究人員來說,這些意味著他們要從ALS患者那里收集數(shù)十小時的語音。正如你可能預期的那樣,因為每個人受自身狀況的影響都不一樣,所以適應疾病的影響與適應,比如說,一種不尋常的口音,不是同一個過程。
  用一個標準的語音識別模型作基準,然后以一些實驗性的方式進行調(diào)整,在新的音頻上進行訓練。僅這一點就大大降低了單詞錯誤率,而且對原始模型的更改相對較小,這將意味著在調(diào)整到一個新的語音時不需要太多的計算。
  研究人員發(fā)現(xiàn),當這個模型仍然被一個給定的音素(即像“e”或“f”這樣的單個語音)所混淆時,它有兩種錯誤。首先,它不能識別圖上的因素,因此不能識別單詞。其次,模型必須猜測說話者想要表達的音素,在兩個或兩個以上單詞發(fā)音大致相似的情況下,就有可能會選擇錯誤的音素。
  第二個錯誤是智能處理的錯誤。也許你說,“我要回到房子里去”,而系統(tǒng)卻不能識別出房子里的“b”和“h”。
  但這要留給未來去研究。目前,你可以知道的是該團隊發(fā)表的一篇名為“在有限的數(shù)據(jù)下,個性化語音障礙和重音語音的ASR”的論文,將于下月在奧地利舉行的Interspeech大會上發(fā)表。
【免責聲明】本文僅代表作者本人觀點,與CTI論壇無關。CTI論壇對文中陳述、觀點判斷保持中立,不對所包含內(nèi)容的準確性、可靠性或完整性提供任何明示或暗示的保證。請讀者僅作參考,并請自行承擔全部責任。

專題

CTI論壇會員企業(yè)