我們擅長商業策略與用戶體驗的完美結合。
歡迎瀏覽我們的案例。
據 VentureBeat 報道,Google 人工智能研究部門在語音識別方面取得了新的進展,能從嘈雜的環境中分辨聲音,準確率高達 92%。Google 人工智能研究部門在一篇名為《Fully Super vised Speaker Diarization》的論文中描述了這一新的 AI 系統,稱它“能以一種更有效的方式識別聲音”。
這套強大的 AI 系統涉及到 Speaker diarization 任務,需要標注出“誰”從“什么時候”到“什么時候”在說話,將語音樣本分割成獨特的、同構片段的過程。還能將新的演講者發音與它以前從未遇到過的語音片段關聯起來。
其核心算法已經開源可用。它實現了一個在線二值化錯誤率(DER),在 NIST SRE 2000 CALLHOME 基準上是 7.6%,這對于實時應用來說已經足夠低了,而谷歌之前使用的方法 DER 為 8.8%。
谷歌研究人員的新方法是通過遞歸神經網絡(RNN)模擬演講者的嵌入(如詞匯和短語的數學表示),遞歸神經網絡是一種機器學習模型,它可以利用內部狀態來處理輸入序列。每個演講者都從自己的 RNN 實例開始,該實例不斷更新給定新嵌入的 RNN 狀態,使系統能夠學習發言者共享的高級知識。
研究人員在論文中寫道:“由于該系統的所有組件都可以在監督環境下學習,所以在有高質量時間標記演講者標簽訓練數據的情況下,它比無監督系統更受青睞。我們的系統受到全面監督,能夠從帶有時間戳的演講者標簽例子中學習。”
在未來的工作中,研究團隊計劃改進模型,使其能夠集成上下文信息來執行脫機解碼,他們希望這將進一步減少 DER。研究人員還希望能夠直接對聲學特征進行建模,這樣整個 Speaker diarization 系統就可以進行端到端訓練。
(邯鄲網絡公司)