訂閱
糾錯
加入自媒體

揭秘Siri,蘋果發(fā)布論文闡釋語音助手設計想法

就多任務處理、多語言識別等問題,蘋果在論文中給出了自己不同的想法。

最近,蘋果發(fā)布了一系列論文來闡釋語音助手的重要工作機理,公開揭秘Siri,向業(yè)界貢獻了自己在設計上的不同想法。

揭秘Siri,蘋果發(fā)布論文闡釋語音助手設計想法

在第一篇論文中,蘋果就語音助手中的多任務處理問題進行了闡釋,它指出在Siri中,喚醒處理通常需要兩個步驟:AI首先必須確定輸入音頻中的語音內容是否與觸發(fā)短語的語音內容匹配(語音觸發(fā)檢測),然后必須確定說話者的語音是否與一個或多個注冊用戶的語音相匹配(說話者驗證)。一般方法是將兩項任務分別來處理,蘋果則認為可以用一個神經(jīng)網(wǎng)絡模型同時解決兩項任務,同時它表示,經(jīng)過驗證,該方法各方面性能可以達到預期。

揭秘Siri,蘋果發(fā)布論文闡釋語音助手設計想法

在該論文中,研究人員給出了模型示例。他們在包含16000小時帶注釋樣本的數(shù)據(jù)集中訓練了基于兩種思路下設計的模型,其中5000小時的音頻帶有語音標簽,其余均只有揚聲器標簽。相比于一般訓練模型去獲取多個標簽的思路,蘋果通過將不同任務的訓練數(shù)據(jù)進行級聯(lián)來訓練多個相關任務的模型。結果發(fā)現(xiàn),在性能表現(xiàn)相同的情況下,蘋果新提出的模型反而更適合應用,它能夠在兩個任務之間共享計算,大大節(jié)省了設備上的內存空間,同時計算時間或等待時間以及所消耗的電量/電池數(shù)量都將降低。

在另一篇論文中,蘋果還介紹了多語言演講場景的演講者識別系統(tǒng)設計——知識圖譜輔助聽寫系統(tǒng)決策。以聲學子模型為例,它可以基于語音信號傳輸痕跡來進行預測,并且其上下文感知的預測組件考慮了各種交互上下文信號,其中上下文信號包含有關發(fā)出命令的條件信息、已安裝的命令語言環(huán)境、當前選擇的命令語言環(huán)境以及用戶在發(fā)出請求之前是否切換命令語言環(huán)境的信息。

結果顯示,這一設計的優(yōu)勢在于,它們可以在語音信號太短而無法通過聲學模型產(chǎn)生可靠預測的情況下提供幫助。

此外,蘋果還提出了一項補充研究,緩解錯誤觸發(fā)問題,即忽略不適合語音助手(Siri)的語音。基于圖結構設計AI模型的思路,研究人員提出了一種圖神經(jīng)網(wǎng)絡(GNN),其中每個節(jié)點都與標簽相連。結果顯示,該模型減少了87%的錯誤觸發(fā)。

作者:Lynn

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內容
文章糾錯
x
*文字標題:
*糾錯內容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號