訂閱
糾錯
加入自媒體

用算法聽懂你:“聲音風險評估”是偽科學還是真本事?

編者注:本文作者Ava Kofman是一名專欄作家。本文中,作者根據(jù)AC Global Risk公司開發(fā)的一種基于聲音的風險評估系統(tǒng)展開討論,從這一系統(tǒng)本身出發(fā)并結(jié)合行業(yè)內(nèi)情形進行客觀論述。

試想,是否有這樣的可能:僅通過觀察人們的臉或聽他們的聲音來判斷某人是否是罪犯?這個想法可能看似荒謬,就像科幻小說《1984》中的老大哥(Big Brother)察覺到某些“帶有異常暗示”的無意識表情。然而,近期一些公司開始直面這個問題:答案不是可能,而是肯定。一家成立于2016年的初創(chuàng)企業(yè)AC Global Risk,聲稱能夠確定一個人作為員工或?qū)で蟊幼o者的風險水平,依據(jù)不是這個人說了什么,而是怎么說。

這家位于加利福尼亞州的企業(yè)提供一種自動篩選系統(tǒng),稱為RRA(Remote Risk Assessment,遠程風險評估)。該系統(tǒng)的工作原理是:AC Global Risk在客戶的幫助下形成一些自動化的、是或否的面試問題。選定進行篩選的人群隨后將在10分鐘的面談中用自己的母語回答這些簡單的問題,該過程可在電話上進行。然后RRA通過測量他們的聲音特征產(chǎn)生評估報告,該報告將以從低風險到高風險的頻譜形式對每個人進行評分。AC Global Risk首席執(zhí)行官Alex Martin表示,作為該公司的專利,該風險分析將“永遠改變?nèi)祟愶L險的衡量標準”。

AC Global Risk則表示,其咨詢委員會成員包括羅伯特·蓋茨(Robert Gates)、康多莉扎·賴斯(Condoleezza Rice)和斯蒂芬·哈德利(Stephen Hadley)的咨詢公司,并與美國駐阿富汗特種作戰(zhàn)司令部、烏干達野生動物管理局以及Palantir、蘋果、Facebook、谷歌等安全團隊簽訂了合同。Martin表示,風險篩選在這些市場和其他市場的廣泛使用,證明其“準確性高、可擴展、具有成本效益,并且具有高吞吐量!盇C Global Risk還聲稱其RRA系統(tǒng)可以對上百個處于世界各地的人同時進行操作。針對當前美國總統(tǒng)特朗普要求對移民進行“極端審查”的呼吁,該公司已經(jīng)將自己視為美國和其他國家目前正經(jīng)歷的巨大難民危機的“殺手锏”。

這項建議似乎引起了美國國土安全局(DHS)的興趣。國土安全局已經(jīng)對研究開發(fā)類似的邊境人工智能技術(shù)提供了資助。自動實時真相評估虛擬系統(tǒng)(AVATAR)測謊儀,使用人工智能來評估旅客的聲音、姿勢和面部表情的變化,從而標記那些有意欺騙或可能構(gòu)成潛在風險的旅客。2012年,該技術(shù)在美國與墨西哥的邊境對志愿者進行了測試。歐盟也對這項可以減少由人為因素產(chǎn)生的工作量和主觀錯誤的技術(shù)提供了資助。

語音分析、算法歧視和機器學習方面的一些領(lǐng)先專家發(fā)現(xiàn),數(shù)字測謊儀測試的趨勢令人不安,并且指出AC Global Risk等公司的方法存在謬誤。普林斯頓大學心理學家Alex Todorov解釋道:“語音的動態(tài)變化會產(chǎn)生一些信息,這些公司正在對這些信息進行檢測,這非常合理。但問題是,在檢測他們認為有風險的人時,這些信息的可信度有多高?因為這些信息一般來說都是模棱兩可的!盇lex Todorov的研究方向是社會感知和第一印象科學。

過去的一年里,美國公民自由聯(lián)盟和其他有關(guān)組織表示,邊境巡邏人員一直根據(jù)外表或口音在灰狗巴士(Greyhound)上逮捕一些人。由于海關(guān)和邊境保護局已經(jīng)采用某人說話方式或長相的信息作為依據(jù),在160千米的邊境地區(qū)進行搜查,或者拒絕某人入境。專家們擔心基于聲音情緒的檢測軟件會使這種歧視成為一種常規(guī)、普遍甚至看似“客觀”的現(xiàn)象。

AC Global Risk拒絕回復本文的多次置評請求,也沒有對該技術(shù)詳細運作方式的問題作出回應(yīng)。然而,在公開場合,Martin聲稱其公司的專有分析流程可以確定某人的風險等級,準確率超過97%。(而AVATAR則表示其準確率在60%到70%之間。)幾位業(yè)內(nèi)領(lǐng)先的視聽專家在審閱了AC Global Risk公開發(fā)布的文件后,使用“廢話”或“虛假”一詞來描述該公司的主張。奧格斯堡大學教授Bj?rn Schuller表示:“從道德的角度來看,只通過聲音測謊會讓人們覺得非常可疑和陰暗,任何一家宣稱自己能做到這一點的公司可能都是一顆‘定時炸彈’!盉j?rn Schuller領(lǐng)導了該領(lǐng)域的主要研究,致力于提高聲音情緒檢測的最新技術(shù)水平。

高風險業(yè)務(wù)

去年夏天有報道稱,特朗普的極端審查計劃(Extreme Vetting Initiative)要求軟件能夠自動確定和評估簽證申請者成為社會積極成員的可能性,并預(yù)測申請者是否打算在進入美國后實施犯罪或恐怖行為。AC Global Risk將自己標榜為實施這一舉措的完美工具,聲稱可以評估忠誠度不明人員的風險等級,例如難民和簽證申請者。隨后,國土安全局將決定如何根據(jù)這些報告的結(jié)果采取行動!拔覀儗L險等級分為低水平、平均水平、潛在水平和高水平,根據(jù)這四個風險等級建立部門協(xié)議并不難。”該公司在其博客上表示。

風險評估本身并不是什么新鮮事。近年來,在刑事司法程序的各個階段幾乎都引入了算法,從警務(wù)、保釋到量刑、假釋。這種技術(shù)的出現(xiàn)并非無可非議。許多這類自動化工具都因其不透明性、保密性和偏見遭到批判。在大多數(shù)情況下,辦公人員、法院和公眾沒有能力或根本不允許質(zhì)疑這些工具的基本假設(shè)、訓練或結(jié)論。而持懷疑態(tài)度的專家關(guān)注的主要問題是,機器學習的客觀光環(huán)可能為歧視提供一個道貌岸然的借口。

對于其技術(shù)原理,AC Global Risk提供的細節(jié)寥寥無幾。該公司沒有發(fā)表支持其研究主張的白皮書,也沒有公布其研究人員的科學譜系。除此之外,該公司甚至沒有回答關(guān)于其產(chǎn)品特征(比如音高、速度、拐點)的問題。猶他州大學一位主攻算法公平性的計算機科學家Suresh Venkatasubramanian認為:“盡管在刑事司法環(huán)境中使用風險評估存在一定的問題,但比這家公司的工具準確得多!

如果AC Global Risk對其技術(shù)的任何一項聲明得到證實,都將成為人類聲音研究的前沿,因為研究人員認為聲音具有確定某些信息的可能性。例如,聲音評估可以出色地識別人口統(tǒng)計信息。這類信息可能很常規(guī),例如某人的年齡、性別或方言,也可能非常個性化,比如判斷某人來自哪個地區(qū),以及他們?nèi)魏螡撛诘慕】祮栴}。

上個月,亞馬遜獲得了一項專利,允許其虛擬助手Alexa確定用戶的聲音特征,包括語言、口音、性別和年齡等。然而,在從聲音確定情緒的過程中,準確性仍然是一個重大問題。聲音分析公司audEERING的聯(lián)合創(chuàng)始人Schuller表示,目前通過聲音判斷某人是否在說謊的準確率不高于70%(如果說謊是該公司的風險評估指標之一),這與人類判斷的平均概率基本相同。

Schuller還表示,通過聲音有可能判斷某人是否陶醉、真誠或欺騙,但同樣,其準確率與人類判斷相似。他說:“有時在具備可靠標簽的基礎(chǔ)上,工具的準確性可能更高,但如果有人宣稱零誤差,最好還是保留態(tài)度!

評估AC Global Risk的主張是否有效的關(guān)鍵是,什么是風險,以及誰來定義這一概念。主攻生物識別技術(shù)的澳大利亞學者Joseph Pugliese表示:“他們把風險定義為一種不言自明的、看似普遍的品質(zhì),并且假設(shè)人們已經(jīng)知道什么是風險,而當然,定義風險參數(shù)的主體和風險參數(shù)的構(gòu)成應(yīng)該是一個政治問題!

AC Global Risk首席執(zhí)行官Alex Martin曾談到“尋找每個人都存在的連續(xù)統(tǒng)一體的實際風險!倍樟炙诡D大學的心理學家Todorov則解釋,風險是一種天生的、可識別的人類特征,而且這種特性可以從聲音中確定,這種觀點依賴于有缺陷的假設(shè)。他補充道,我們檢測人們實際感受的方式與我們感知他們感受的方式的能力,一直是機器學習領(lǐng)域一個眾所周知的難題。評估設(shè)置可能會使錯誤印象的可能性進一步復雜化。Pugliese說:“邊境地區(qū)的人們已經(jīng)處于高壓和高度情緒化的環(huán)境中,又怎么可能用我們所謂的正常情緒標準來衡量?”

新的人相學?

越來越多公司對其行為分析軟件的能力要求過高,AC Global Risk只是其中之一。受人工智能觀察能力的鼓舞,許多生物識別供應(yīng)商和人工智能公司一直在向企業(yè)和政府提供這樣的服務(wù):采集面部表情、動作和聲音信息,從而判斷一個人的人格。例如,2014年俄羅斯冬季奧運會期間,一家生物識別供應(yīng)商通過掃描與會者的表情,使該國的安全機構(gòu)FSB能夠找出那些看似不起眼,但實際精神狀態(tài)過激且存在潛在威脅的人。

一些研究人工智能和人類行為的專家對這類工具持懷疑態(tài)度,他們將這些工具框定為人們對人相學(physiognomy)興趣日益返潮的一部分。人相學是一種通過觀察一個人的 身體來尋找道德品質(zhì)和犯罪意圖跡象的行為。在19世紀中期,塞薩爾·隆布羅索(Cesare Lombroso)對“天生罪犯”的頭骨和面部特征的精確測量,為這種“紙上談兵”披上了科學的外衣。然而,盡管像隆布羅索這樣的犯罪學家的成果被扔進了“偽科學”的垃圾箱,但是從身體特征和行為中推斷某人的道德品質(zhì)或隱藏思想的欲望仍舊持續(xù)不斷。

Pugliese認為,AC Global Risk和同類公司的努力都基于一個假設(shè)——大數(shù)據(jù)的相關(guān)性可以規(guī)避科學方法。他解釋說,這些“人相”應(yīng)用尤其令人不安,因為機器學習算法設(shè)計的初衷就是為了在他們給出的數(shù)據(jù)中找到表面模式(無論這些模式是否真實)。Pugliese表示:“當這些公司聲稱正在進行風險等級分類時,不言而喻,他們已經(jīng)對構(gòu)成‘犯罪意圖’的跡象有了客觀的認識。但我們并不知道什么實際跡象會這些犯罪預(yù)測指標。”

然而,揭露這種技術(shù)的偽科學前提并不一定會降低企業(yè)和政府使用這項技術(shù)的可能性。與許多其他預(yù)測性和基于風險的系統(tǒng)相同,這些技術(shù)的能力主要依賴于它們對效力和速度的承諾。Venkatasubramanian解釋說:“他們主要的主張是提高效率,從這個意義上講,這種技術(shù)的確會起作用!睋Q句話說,這種效率是否對這種系統(tǒng)受眾的生命機會有益或有害,他們漠不關(guān)心。遠程風險評估由于人類的接納將得到廣泛應(yīng)用。正如Todorov與另外兩位機器學習專家在表達他們對這一大趨勢的擔憂時所寫:“無論是否有意,通過計算機算法為人類的歧視‘洗白’,確實有可能使這些偏見看起來更客觀合理!

聲明: 本文系OFweek根據(jù)授權(quán)轉(zhuǎn)載自其它媒體或授權(quán)刊載,目的在于信息傳遞,并不代表本站贊同其觀點和對其真實性負責,如有新聞稿件和圖片作品的內(nèi)容、版權(quán)以及其它問題的,請聯(lián)系我們。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號