侵權(quán)投訴
訂閱
糾錯
加入自媒體

汽車AI語音交互正在讓機(jī)器交互更接近真人交互

汽車AI語音交互  正在讓機(jī)器交互更接近真人交互

文|胡楊 胡皓

來源|智能相對論

- 今天天氣怎么樣?

- 今日是晴天,氣溫17到22度,東北風(fēng)3到4級。

- 那周五呢?

- 周五距今天還有2天。

“重復(fù)喚醒,答非所問,這不是人工智能,是‘人工智障智障’!边@是大部分智能網(wǎng)聯(lián)汽車用戶對語音交互的抱怨。

現(xiàn)在,情況有了改善。當(dāng)用戶詢問車機(jī)“明天出門需要帶傘么?”,車機(jī)就會播報(bào)明天的天氣情況,如果需要再查詢其他時(shí)間或者城市的天氣,那么用戶不用重新喚醒,也不需要說出完整表達(dá),只需要說“那大后天呢?”、“那杭州呢?”。在用戶和車機(jī)在自然連續(xù)對話的過程中,語義理解服務(wù)會記住會話的歷史,并結(jié)合歷史處理用戶的請求,通過這種方式,用戶的多次連續(xù)交互就可以形成一個會話流,與用戶的交互也更加自然。

自然連續(xù)對話,是車載語音交互從“人工智障”邁向“人工智能”的重要一步。不過斑馬網(wǎng)絡(luò)最近推出的斑馬智行VENUS系統(tǒng),打破了對用戶說話規(guī)則的要求,用戶可以按照自身的說話習(xí)慣來進(jìn)行交流,交互過程更加人性化。這會不會是一個跨越?

從科幻到現(xiàn)實(shí),語音交互一直在進(jìn)化

提到智能語音交互,普羅大眾對于技術(shù)刷屏的記憶停留在2018年的Google開發(fā)者大會“Google I/O”開幕式上。當(dāng)Google Assistant以驚人的流利會話,打電話和店家溝通,預(yù)約理發(fā)店、餐廳,并用一句俏皮的“嗯哼”作為回應(yīng)時(shí),觀眾給予了熱烈的掌聲。這是技術(shù)愿景美好、激勵人心的一面。

有趣的是,同年2月的美國第五十二屆超級碗的天價(jià)廣告上,亞馬遜賣力黑了自家的智能音箱和智能助手——Alexa。喚醒失誤、識別不準(zhǔn)、響應(yīng)困難等等用戶槽點(diǎn),被廣告創(chuàng)意表現(xiàn)得淋漓盡致。這是技術(shù)的現(xiàn)實(shí)。

但不論是基于場景的未來暢想,還是對當(dāng)下缺陷的大膽自嘲,兩個科技巨頭都將業(yè)務(wù)重心的一角,押注在了語音交互賽道上。

亞馬遜首席技術(shù)官Werner Vogels斷言:未來,人和數(shù)字世界對的交互,一定是以“人”為核心,而不是機(jī)器驅(qū)動;我們終將構(gòu)建出更人性化的交互,讓人機(jī)互動更加融合。

在“以人為核心”、“更加融合”的人機(jī)交互中,語音交互(簡稱VUI)是核心。VUI允許更自由、高效的人機(jī)交互,其本質(zhì)上比任何其他形式的用戶界面都更“人性化”。斯坦福大學(xué)教授,Wired for Speech的合著者,克利福德·納斯寫道:“語音是人類交流的基本手段…….所有文化主要通過語音來說服,告知和建立關(guān)系!

VUI允許用戶使用語音作為媒介與機(jī)器進(jìn)行交互。從《2011太空漫游》中的HAL到《星球大戰(zhàn)》中的C-3PO,人們在科幻電影里暢想著能夠與機(jī)器自由溝通。事實(shí)上,早在1952年,貝爾實(shí)驗(yàn)室的工程師就開發(fā)出了Audrey(奧黛麗):它可以識別數(shù)字0-9的發(fā)音。盡管奧黛麗能夠以超過90%的精度識別語音輸入,但其體積大,成本高昂,未曾步入大規(guī)模商業(yè)化的發(fā)展通道。

自此,人類開啟了長達(dá)半個多世紀(jì)的語音交互探索。1962年,IBM推出了第一臺真正意義上的是語音識別機(jī)器。工程師William Dersch開發(fā)出的Shoebox可以收聽操作員說出的數(shù)字和命令。例如“5+3+8+6+4-9,總和”,機(jī)器將打印出正確答案:17。

1970年,隱馬爾可夫模型(HMM)為語音識別的發(fā)展插上了算法的翅膀,讓語音識別從文字匹配進(jìn)化到了可預(yù)測的高度。20世紀(jì)80年代,Covox,Dragon Systems,Speechworks相繼成立,推動了語音識別的商用化進(jìn)程。

90年代,語音識別技術(shù)迎來了大規(guī)模商用和普及。1995年,Dragon發(fā)布了單詞聽寫級的語音識別軟件。這是人類歷史上首個面向廣大消費(fèi)者的語音識別產(chǎn)品。僅一年之后,Charles Schawab(嘉信理財(cái))和Nuance(紐昂斯)聯(lián)合推出了一套“語音股票經(jīng)紀(jì)人”系統(tǒng),可同時(shí)響應(yīng)360個客戶的股票詢價(jià)電話。1997年,如今隸屬Nuance旗下的聲龍系統(tǒng)(Dragon system)推出了“NaturallySpeaking”軟件,這是歷史上第一個可用的“連續(xù)語音”聽寫軟件。它標(biāo)志著單詞級不停頓語音交互的開始。

最近的20年,Google,Apple,Amazon先后推出了大眾耳熟能詳?shù)闹悄苷Z音助手,并通過智能手機(jī)、智能音箱等產(chǎn)品,來到普羅大眾身邊。據(jù)Juniper Research統(tǒng)計(jì),截至2019年2月,全球使用中的語音助手達(dá)32.5億;預(yù)計(jì)到2023年,該數(shù)字將達(dá)到80億。

汽車AI語音交互  正在讓機(jī)器交互更接近真人交互

語音交互技術(shù)上的高山一:自然連續(xù)對話

隨著軟硬件的快速迭代,如今的ASR(語音識別)技術(shù)已近成熟,未來智能語音交互的核心競爭力在于在復(fù)雜場景下準(zhǔn)確理解用戶的意圖,并為其提供差異化服務(wù)。更加智能的自然連續(xù)對話能力,將讓語音交互系統(tǒng)更具人類的親和力特質(zhì)和邏輯思維能力,能帶給用戶更具情景化、更有溫度的用車體驗(yàn)和服務(wù)潛力。

“智能相對論”認(rèn)為,自然連續(xù)對話是一個系統(tǒng)的工程,涉及到從車機(jī)端的聲學(xué)前端處理、語音喚醒、語音識別、語義理解、對話管理、自然語言生成、語音合成等核心交互技術(shù)。斑馬智行VENUS的AI語音得益于阿里達(dá)摩院的重磅加持以及科大訊飛、思必馳等合作伙伴的大力支持,極大提升了語音能力。斑馬基于AliOS系統(tǒng),可以更好地將語音核心技術(shù)能力與系統(tǒng)能力相結(jié)合,更大程度地發(fā)揮出語音核心技術(shù)的優(yōu)勢,將多種引擎的協(xié)作發(fā)揮到極致,達(dá)到“1+1>2”的效果。

語音交互技術(shù)上的高山二:個性化,即聲音克隆

如果說自然連續(xù)對話為更自由的交互和差異化服務(wù)提供可能,那語音定制化則將個性化、情感化的語音交互率先落地。

2017年9月,一家名為Lyrebird的加拿大初創(chuàng)公司在推特上發(fā)布了一段10秒的錄音。錄音是內(nèi)容AI模仿美國總統(tǒng)特朗普的話語。在此之前,Google旗下的DeepMind曾經(jīng)公布了一個用AI合成人聲的研究成果:WaveNet,達(dá)到以假亂真的地步。Adobe也發(fā)布過一款名為Project VoCo的原型軟件,在傾聽20分鐘音頻樣本之后可以進(jìn)行模仿。而Lyrebird將音頻采樣的輸入時(shí)間縮短到了60秒。

如今,國內(nèi)智能網(wǎng)聯(lián)行業(yè)也首次迎來了語音定制——“聲音克隆”產(chǎn)品。斑馬智行VENUS系統(tǒng)“聲音克隆”操作流程非常簡單。用戶只需在斑馬智行APP錄制20句話即可合成私人語音包,一鍵發(fā)送至車機(jī)便可全局使用,無論是導(dǎo)航引導(dǎo)、天氣查詢,還是預(yù)訂餐廳,和你對話的都是你最想聽的聲音。

聲音是車載AI語音交互功能的“靈魂”,基于“聲音克隆”技術(shù),斑馬智行VENUS系統(tǒng)將為用戶提供“千人千聲”的定制化服務(wù),用戶可以“克隆”親人和愛人的聲音,讓陪伴更長久,讓駕駛更舒心。

據(jù)介紹,斑馬智行VENUS系統(tǒng)“聲音克隆”操作流程非常簡單。用戶只需在斑馬智行APP錄制20句話即可合成私人語音包,一鍵發(fā)送至車機(jī)便可全局使用,無論是導(dǎo)航引導(dǎo)、天氣查詢,還是預(yù)訂餐廳,和你對話的都是你最想聽的聲音。斑馬網(wǎng)絡(luò)AI語音相關(guān)負(fù)責(zé)人表示,斑馬智行VENUS系統(tǒng)能在錄制“傾聽”中“掌握”每個人說話時(shí)的字母、音位、單詞和語句的發(fā)音特點(diǎn),通過深度學(xué)習(xí)技術(shù)推理并模仿聲音中的語音音色、語調(diào),“說”出全新的語句。

攀登技術(shù)高山,如何讓機(jī)器交互能夠更接近真人交互依然在等待更好答案

語音是人類最舒適,最直觀的交流方式之一。如今的智能語音交互產(chǎn)品,變得越來越像人一樣聰明且富有感情。它可以準(zhǔn)確理解信息輸入、高效處理并提供理想的信息輸出!爸悄芟鄬φ摗闭J(rèn)為,在人工智能和5G迅速發(fā)展的背景下,語音平臺有機(jī)會成為物聯(lián)網(wǎng)時(shí)代下新的“操作系統(tǒng)”,連接全新的產(chǎn)業(yè)生態(tài),包括各類服務(wù)、應(yīng)用、硬件等。

在各類應(yīng)用場景中,除了智能家居,汽車產(chǎn)品對于語音交互的需求顯而易見。不論是點(diǎn)擊、滑動等觸摸交互方式,在車載環(huán)境下都存在安全隱患且并不高效,語音交互是天然適應(yīng)車載環(huán)境的交互方式。不過想要設(shè)計(jì)、開發(fā)、應(yīng)用一套成熟的車載語音交互系統(tǒng),要翻越重重高峰:行車噪音干擾如何處理、方言口音如何適配、自然的表達(dá)如何更好支持、系統(tǒng)的誤觸發(fā)如何控制在可用范圍。

而隨著用戶對汽車智能化要求的越來越高,更自然的交互成為語音交互的發(fā)展方向。如何讓機(jī)器交互能夠更接近真人交互?多模態(tài)融合理解、自然全雙工對話、自然語義理解成為了新的需要攀登的高峰。

斑馬智行的系統(tǒng)底層——AliOS,在傳統(tǒng)觸控、按鍵交互模式的基礎(chǔ)上,將語音交互能力、視覺交互能力以及場景信息在系統(tǒng)層進(jìn)行融合互通,更大程度得發(fā)揮了各個交互能力的優(yōu)勢,使得多模態(tài)融合理解、融合交互以及更自然的全雙工對話、擁有更多信號輸入的自然語義理解成為可能。同時(shí)在各種交互能力融合后對上層應(yīng)用進(jìn)行開放,使得最終呈現(xiàn)給用戶的交互更自然。

語音交互帶來的產(chǎn)業(yè)機(jī)遇方興未艾。如果說,未來的主流交互方式存在多樣的可能性,那更高率、更自然、更接近于人本能的方向一定是人機(jī)交互的未來。


聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報(bào)。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

文章糾錯
x
*文字標(biāo)題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號