欧美,精品,综合,亚洲,好吊妞视频免新费观看,免费观看三级吃奶,一级a片女人自慰免费看

您當(dāng)前的位置是:  首頁(yè) > 資訊 > 國(guó)際 >
 首頁(yè) > 資訊 > 國(guó)際 >

Google Duo采用WaveNetEQ填補(bǔ)語(yǔ)音間隙

2020-04-03 09:34:22   作者:Google AI blog  編譯:LiveVideoStack   來(lái)源:LiveVideoStack   評(píng)論:0  點(diǎn)擊:


  在線語(yǔ)音通話已經(jīng)成為人們?nèi)粘I畹囊徊糠,但?shù)據(jù)包常以錯(cuò)誤的順序或錯(cuò)誤的時(shí)間到達(dá)另一端,有時(shí)個(gè)別數(shù)據(jù)包甚至可能會(huì)完全丟失。這不僅導(dǎo)致通話質(zhì)量降低,而且是音頻和視頻傳輸都普遍存在的問(wèn)題。
  Google Duo (移動(dòng)設(shè)備視頻通話服務(wù))發(fā)現(xiàn),其99%的呼叫需要處理數(shù)據(jù)包丟失、抖動(dòng)過(guò)多或網(wǎng)絡(luò)延遲等問(wèn)題。在這些通話中,有20%因?yàn)榫W(wǎng)絡(luò)問(wèn)題損失了3%以上的音頻持續(xù)時(shí)間,而10%的通話則損失了至少8%的音頻。
  導(dǎo)致數(shù)據(jù)包丟失的網(wǎng)絡(luò)問(wèn)題的簡(jiǎn)化圖,接收方需要對(duì)其進(jìn)行抵消,以實(shí)現(xiàn)可靠的實(shí)時(shí)通信。
  為了確?煽康膶(shí)時(shí)通信,有必要處理丟失的數(shù)據(jù)包,這個(gè)過(guò)程被稱(chēng)為PLC。接收方的PLC負(fù)責(zé)創(chuàng)建音頻(或視頻),以填補(bǔ)由丟包、過(guò)度抖動(dòng)或臨時(shí)網(wǎng)絡(luò)故障造成的空白(所有這三種情況都會(huì)導(dǎo)致數(shù)據(jù)丟失)。
  為了解決這些音頻問(wèn)題,Google Duo開(kāi)始使用全新的PLC系統(tǒng)WaveNetEQ。
  WaveNetEQ是基于DeepMind的WaveRNN技術(shù)生成的模型,使用大量語(yǔ)音數(shù)據(jù)集進(jìn)行訓(xùn)練,以更為逼真地延續(xù)短語(yǔ)音段,從而使其能夠完全合成丟失語(yǔ)音的原始波形。
  由于Duo采用端到端的加密,因此所有的加工處理都需要在移動(dòng)設(shè)備上完成。Google稱(chēng)WaveNetEQ模型速度足夠快,可以在電話上運(yùn)行,同時(shí)仍提供最先進(jìn)的音頻質(zhì)量和比其他當(dāng)前正在使用的系統(tǒng)更自然的探測(cè)PLC。
  A New PLC System for Duo
  像許多其他基于Web的通信系統(tǒng)一樣,Duo也基于WebRTC開(kāi)源項(xiàng)目。為了抵消數(shù)據(jù)包丟失的影響,WebRTC的NetEQ組件使用信號(hào)處理方法分析語(yǔ)音并產(chǎn)生平滑的連續(xù)性。
  這對(duì)于較小的數(shù)據(jù)包丟失(20ms或更短)非常有效,但當(dāng)丟失的數(shù)據(jù)包數(shù)量過(guò)多導(dǎo)致出現(xiàn)60ms或更長(zhǎng)的時(shí)間間隔時(shí),帶來(lái)的效果并不盡如人意。在后一種情況下,語(yǔ)音會(huì)變得機(jī)械化且不斷重復(fù),這對(duì)于許多使用線上語(yǔ)音通話的用戶(hù)來(lái)說(shuō)都是很常見(jiàn)的。
  為了更好地解決數(shù)據(jù)包丟失的問(wèn)題,Google Duo用WaveRNN的修改版本替換了NetEQ PLC組件。WaveRNN是用于語(yǔ)音合成的遞歸神經(jīng)網(wǎng)絡(luò)模型,它由兩部分組成:自回歸網(wǎng)絡(luò)和調(diào)節(jié)網(wǎng)絡(luò)。
  自回歸網(wǎng)絡(luò)負(fù)責(zé)信號(hào)的連續(xù)性,它通過(guò)使每個(gè)生成的樣本取決于網(wǎng)絡(luò)的先前輸出來(lái)提供語(yǔ)音的短期和中期結(jié)構(gòu)。調(diào)節(jié)網(wǎng)絡(luò)會(huì)影響自回歸網(wǎng)絡(luò),并產(chǎn)生與移動(dòng)速度較慢的輸入功能一致的音頻。
  但是,WaveRNN與其前身WaveNet一樣,是在考慮了文本到語(yǔ)音(TTS)應(yīng)用程序的情況下創(chuàng)建的。作為T(mén)TS模型,WaveRNN會(huì)提供有關(guān)其應(yīng)說(shuō)和如何說(shuō)的信息。
  調(diào)節(jié)網(wǎng)絡(luò)直接接收該信息作為構(gòu)成詞語(yǔ)和附加韻律特征的音素形式的輸入(即所有諸如音調(diào)或音高之類(lèi)的非文本信息)。從某種程度上來(lái)說(shuō),調(diào)節(jié)網(wǎng)絡(luò)能夠“窺見(jiàn)未來(lái)”,后續(xù)將自回歸網(wǎng)絡(luò)轉(zhuǎn)向正確的波形并進(jìn)行匹配,而這些在PLC系統(tǒng)和實(shí)時(shí)通信中則無(wú)法被提供。
  對(duì)于功能正常的PLC系統(tǒng),需要從當(dāng)前語(yǔ)音(即過(guò)去)中提取上下文信息,同時(shí)生成逼真的聲音。
  Google Duo的WaveNetEQ解決方案可以在使用自回歸網(wǎng)絡(luò)保證音頻連續(xù)性的同時(shí),使用調(diào)節(jié)網(wǎng)絡(luò)對(duì)長(zhǎng)期特征(例如語(yǔ)音特性)進(jìn)行建模。過(guò)去音頻信號(hào)的頻譜圖被用作調(diào)節(jié)網(wǎng)絡(luò)的輸入,該調(diào)節(jié)網(wǎng)絡(luò)提取有關(guān)韻律和文本內(nèi)容的有限信息。這些被壓縮的信息被反饋到自回歸網(wǎng)絡(luò),該網(wǎng)絡(luò)將其與近期的音頻相結(jié)合,以預(yù)測(cè)波形域中的下一個(gè)樣本。
  這與WaveNetEQ模型訓(xùn)練過(guò)程中遵循的過(guò)程略有不同,在該過(guò)程中,自回歸網(wǎng)絡(luò)接收訓(xùn)練數(shù)據(jù)中存在的實(shí)際樣本作為下一步的輸入,而不是使用生成的最后一個(gè)樣本。
  這個(gè)被稱(chēng)為teacher forcing的過(guò)程可確保即使在訓(xùn)練的早期階段(其預(yù)測(cè)仍為低質(zhì)量),該模型仍可學(xué)習(xí)到有價(jià)值的信息。一旦對(duì)模型進(jìn)行了充分的訓(xùn)練并將其用于音頻或視頻通話后,teacher forcing只會(huì)被用于 “預(yù)熱”第一個(gè)樣本模型,然后將其自身的輸出作為下一步的輸入傳遞回去。
  WaveNetEQ結(jié)構(gòu)。在推理過(guò)程中,Google通過(guò)teacher forcing用最新的音頻來(lái)“預(yù)熱”自回歸網(wǎng)絡(luò)。之后,模型將提供自己的輸出作為下一步的輸入。來(lái)自較長(zhǎng)音頻部分的MEL頻譜圖則被用作調(diào)節(jié)網(wǎng)絡(luò)的輸入。
  該模型將應(yīng)用于Duo抖動(dòng)緩沖區(qū)中的音頻數(shù)據(jù)。丟包事件發(fā)生后,如果真實(shí)音頻仍然存在,Duo將無(wú)縫合并合成的、真實(shí)的音頻流。為了找到兩個(gè)信號(hào)之間的最佳對(duì)準(zhǔn),該模型的輸出要比實(shí)際所需要的輸出多一些,并從一個(gè)到另一個(gè)交叉淡入淡出。這樣可使過(guò)渡平滑,并避免明顯的噪音。
  在60毫秒的移動(dòng)范圍內(nèi)模擬音頻上的PLC事件。藍(lán)線代表實(shí)際的音頻信號(hào),包括PLC事件的過(guò)去和將來(lái)。在每個(gè)時(shí)間步長(zhǎng),橙色線代表合成音頻WaveNetEQ將預(yù)測(cè)音頻是否在灰色直線處被切斷。
  60 ms Packet Loss
  音頻片段:音頻片段來(lái)自LibriTTS,10%的音頻被分成60 ms,然后由WebRTC默認(rèn)的PLC系統(tǒng)NetEQ與Google的PLC系統(tǒng)WaveNetEQ填充。(由于微信推送最多只能上傳3個(gè)音頻文件,這里沒(méi)能列出原文中的所有音頻,包括音頻被拆分成120 ms后再填充的效果)
  Ensuring Robustness
  影響PLC的一個(gè)重要因素是網(wǎng)絡(luò)適應(yīng)各種輸入信號(hào)的能力,包括不同的揚(yáng)聲器或背景噪聲的變化。
  為了確保模型在眾多用戶(hù)中的魯棒性,Google對(duì)WaveNetEQ進(jìn)行了語(yǔ)音數(shù)據(jù)集的訓(xùn)練,該語(yǔ)音數(shù)據(jù)集中包含100多位使用48種不同語(yǔ)言的演講者。
  這使模型可以學(xué)習(xí)普適的人類(lèi)語(yǔ)音特征,而不是某些特定的語(yǔ)言屬性。為了確保WaveNetEQ能夠處理嘈雜的環(huán)境,例如在火車(chē)站或自助餐廳接聽(tīng)電話這樣的情形,Google通過(guò)將數(shù)據(jù)與各種背景噪聲混合來(lái)增強(qiáng)數(shù)據(jù)。
  盡管Google的模型學(xué)習(xí)了如何逼真地延續(xù)語(yǔ)音,但這僅在短期內(nèi)有效——它可以完成一個(gè)音節(jié),但不能預(yù)測(cè)單詞本身。相反,對(duì)于更長(zhǎng)的數(shù)據(jù)包的丟失,Google會(huì)逐漸淡出直到該模型在120毫秒后保持靜音。
  為了進(jìn)一步確保該模型不會(huì)產(chǎn)生錯(cuò)誤的音節(jié),Google使用了Google Cloud語(yǔ)音轉(zhuǎn)文本API對(duì)WaveNetEQ和NetEQ的樣本進(jìn)行了評(píng)估,并發(fā)現(xiàn)單詞錯(cuò)誤率沒(méi)有顯著差異(即抄錄口頭語(yǔ)音時(shí)產(chǎn)生的錯(cuò)誤文本數(shù)量)。
  Google一直在Duo上試驗(yàn)WaveNetEQ,結(jié)果顯示W(wǎng)aveNetEQ對(duì)通話質(zhì)量和用戶(hù)體驗(yàn)都有積極的影響。WaveNetEQ已經(jīng)可以在Pixel 4手機(jī)的所有Duo通話中使用,現(xiàn)在正被推廣到其他型號(hào)及設(shè)備中。
  原文鏈接:https://ai.googleblog.com/2020/04/improving-audio-quality-in-duo-with.html
 
【免責(zé)聲明】本文僅代表作者本人觀點(diǎn),與CTI論壇無(wú)關(guān)。CTI論壇對(duì)文中陳述、觀點(diǎn)判斷保持中立,不對(duì)所包含內(nèi)容的準(zhǔn)確性、可靠性或完整性提供任何明示或暗示的保證。請(qǐng)讀者僅作參考,并請(qǐng)自行承擔(dān)全部責(zé)任。

專(zhuān)題

CTI論壇會(huì)員企業(yè)