1. 概述
人工智能技術迅猛發展,人機語音交互更加自然,搭載語音喚醒、識別技術的智能設備也越來越多。語音喚醒在學術上稱為 keyword spotting(簡稱 KWS),即在連續語流中實時檢測出說話人特定片段(比如:叮當叮當、Hi Siri 等),是一種小資源的關鍵詞檢索任務,也可以看作是一類特殊的語音識別,應用在智能設備上起到了保護用戶隱私、降低設備功耗的作用,經常扮演一個激活設備、開啟系統的入口角色,在手機助手、車載、可穿戴設備、智能家居、機器人等運用得尤其普遍。
喚醒效果好壞的判定指標主要有召回率 (recall,俗稱喚醒率)、虛警率 (false alarm,俗稱誤喚醒)、響應時間和功耗四個指標。召回率表示正確被喚醒的次數占總的應該被喚醒次數的比例。虛警率表示不該被喚醒卻被喚醒的概率,工業界常以 12 或者 24 小時的誤喚醒次數作為系統虛警率的評價指標。響應時間是指用戶說出喚醒詞后,設備的反應時間,過大的響應時間會造成較差的用戶體驗。功耗是指喚醒系統的耗電情況,多數智能設備都是電池供電,且需要保證長時續航,要求喚醒系統必須是低耗能的。一個好的喚醒系統應該保證較高的召回率、較低的虛警率、響應延時短、功耗低。
喚醒技術落地的難點是要求在低功耗下達到高性能要求。一方面是目前很多智能設備為了控制成本,搭載的都是一些低端芯片,計算能力有限,需要喚醒模塊盡可能的減少計算計算量以減少能源消耗;一方面用戶使用場景多種多樣,設備也常沒有經過專業聲學設計,遠場、大噪聲、強干擾、高回聲、高混響等情況下仍然面臨召回率低、虛警率高的問題。
針對此問題,騰訊 AI Lab 近期發表一篇論文,針對復雜聲學環境,特別是噪聲和干擾人聲場景,對送給喚醒模型的聲學信號進行前處理,以提升其語音信號質量。本論文已被 Interspeech 2020 接收。
很多智能設備安裝有多個麥克風,因此多通道的前端處理技術被應用到喚醒的前端信號處理中。當目標說話人與干擾聲源分布在不同方向時,多通道的語音增強技術,例如波束形成 (beamformer), 能夠有效的增強目標說話人,抑制其它干擾聲源。但是這一做法依賴較準確的目標說話人方向定位。在實際環境中,由于有干擾聲源的存在,使得很難從帶噪數據中準確估計目標說話人的方位,特別是當有多人在同時說話時,也無法判斷哪一個是目標說話人。因此本文采用“耳聽八方” (多音區) 的思路,在空間中設定若干待增強的方向(look direction),然后區別于傳統的波束形成做法(這個做法已發表于 ICASSP 2020 [1]),本文提出了一個基于神經網絡的多音區(multi-look)語音增強模型,可同時增強多個指定的方向聲源。這些多個方向增強輸出的信號再通過注意力機制進行特征融合送予喚醒模型。由于前端的增強是通過神經網絡處理的,這樣多音區的增強模型與喚醒模型可以進行聯合優化,實現真正的前后端一體的多音區語音喚醒。
基于神經網絡的多音區語音增強模型是首個完全基于神經網絡的多音區語音增強模型。相比于特定方向的語音增強,本文提出的模型可同時增強多個方向聲源。同時這種基于神經網絡的方法,在性能上顯著優于基于傳統的波束形成做法。完全基于神經網絡的多音區前端,與喚醒模型聯合訓練,前后一體的做法進一步提升模型的魯棒性和穩定性。此模型適用于多麥克風設備的語音喚醒。
以下為方案詳細解讀。
2. 方案詳解
傳統的多音區語音處理的思路,是在空間中設定若干待增強的方向(look direction),每個方向分別應用一個波束形成,增強這個方向的聲源,最終本文將每個方向增強輸出的信號輪流送給喚醒模塊,只要有一個方向觸發喚醒,則喚醒成功。這種基于多音區的多波束喚醒技術大大提高了噪聲下的喚醒性能,然而需要多次調用喚醒模塊,因此計算量較單路喚醒也成倍增加,功耗變大制約了應用。針對這一情況,作者在早前一點的工作中 [1] 將注意力 (attention) 機制引入到喚醒框架下,如圖 1 所示,多個 look-direction 增強的信號提取特征后通過 attention 層映射成單通道輸入特征,再送入單路喚醒網絡層,與單路喚醒相比僅僅增加了一層網絡,既保證了喚醒性能,計算量又大大降低。
圖 1:基于多波束特征融合的喚醒模型 [1]
以上介紹的基于波束形成的多音區喚醒 [1],前端的信號處理(波束形成)和喚醒模塊還沒有做到聯合調優。因此本文提出了一個基于神經網絡的多音區語音增強模型。該模型讀取單個通道的語譜特征和多通道的相位差特征,同時根據預設的若干音區方向(look direction),作者分別提取對應的方向特征 (directionalfeature)。這些方向特征表征每個時頻點是否被特定音區方向的聲源信號占據,從而驅動網絡在輸出端增強距離每個音區方向最近的那個說話人。為了避免因為音區和說話人的空間分布導致目標說話人經過多音區增強模型處理后失真,實驗中使用一個原始麥克風信號與多個方向增強輸出的信號一起通過注意力機制進行特征融合送予喚醒模型,由于前端的增強是通過神經網絡處理的,這樣多音區的增強模型與喚醒模型可以進行聯合優化,實現真正的前后端一體的多音區語音喚醒。完整的模型結構在圖 2 中描述。
圖 2: 本文提出的基于神經網絡的多音區語音增強和喚醒模型 [2]
圖 3 是一個多音區增強的實例。兩個說話人分別位于圖 (a) 所示位置,麥克風采集的兩人同時說話信號譜如圖 (b). 作者設定了 4 個待增強的方向(0 度,90 度,180 度和 270 度)。多音區增強模型將會在 0 度和 90 度方向增強藍色說話人,180 度和 270 度方向將會增強黑色說話人, 增強后的 4 個方向語譜如圖 (c)。
圖 3: 多音區增強網絡輸出實例
在圖 4 中,作者對比了基于神經網絡的多音區增強喚醒模型與基于波束形成的多音區增強喚醒模型和基線的單通道喚醒模型??梢钥闯鎏貏e是在小于 6dB 的信干比聲學環境下,本文提出的做法顯著超越其它方法。不同方法喚醒率測試均在控制誤喚醒為連續 12 小時干擾噪聲下 1 次的條件下進行的。
圖 4: 多音區喚醒模型的性能對比
3.總結及展望
本文提出的多音區語音增強和喚醒的做法,大幅降級了喚醒前端語音增強與喚醒結合使用的計算量,在未知目標聲源方位的情形下,同時增強的多個方向聲源信號的特征融合可保證目標語音得到增強,給準確的喚醒提供了保障。在論文中測試的多說話人帶噪聲的復雜聲學環境下,喚醒率達到 95%。
多音區的語音增強模型已經與聲紋模型結合,形成多音區的說話人驗證,提升聲紋系統在復雜遠場聲學環境下的魯棒性。未來這一工作可與語音識別等其它語音任務相結合。
原文標題:論文解讀丨基于神經網絡的多音區語音喚醒
文章出處:【微信公眾號:通信信號處理研究所】歡迎添加關注!文章轉載請注明出處。
責任編輯:haq
-
神經網絡
+關注
關注
42文章
4772瀏覽量
100838 -
人工智能
+關注
關注
1791文章
47350瀏覽量
238743
原文標題:論文解讀丨基于神經網絡的多音區語音喚醒
文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯網技術研究所】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論