侵權(quán)投訴
訂閱
糾錯
加入自媒體

淺析:人臉識別的罪與罰

創(chuàng)新下一代監(jiān)控技術

這些方法的最終結(jié)果是,導致我們現(xiàn)在擁有的監(jiān)控攝像頭可能由于多種原因而不起作用,但它們已經(jīng)成為公共監(jiān)控的一個組成部分,而且在更大的一些場所,如公司、商店等,也成為監(jiān)控的一部分。在一個比較復雜的且需要人進入的環(huán)境中,人們往往希望在已有的基礎上找到一個快速、廉價的解決方案,因為這樣就只需增加附加功能就能達到想要的效果。這就是面部識別開始被認為是萬靈藥的原因,成為原有監(jiān)視設備基礎設施的“附加組件”。

大眾傳媒對這一概念也有貢獻。在科幻小說中,人臉識別技術能發(fā)揮自己的作用。電影贊美偵探和警察,他們通過面部識別捕捉壞人來拯救人類。但這不是現(xiàn)實,因為科幻小說是照本宣科的,它的情節(jié)和角色在任何一個相互依賴的社會中都無法發(fā)揮作用,因為現(xiàn)實社會有著有各式各樣的信仰和問題。魅力無窮的大預算科幻電影,其運用的炫酷科技手段吸引了技術專家和市政當局的注意,因為前者想要利用小說來建立技術的模版;而后者在與財政赤字做斗爭的同時,能看到最新最好的技術是成功和地位的象征。技術人員可能并不經(jīng)常關心或熟悉他們所構(gòu)建的東西將如何影響社會。與此同時,一些市政當局似乎要么掩蓋新技術的潛在成果和影響,繼續(xù)為科技公司提供一個免費的測試平臺,要么誤解了這些技術將給城鎮(zhèn)帶來怎樣的變化。

從本質(zhì)上講,面部識別提供了一個偉大的承諾,可以像在電影中那樣,輕松地識別和抓住壞人,而不需要建立任何人際關系和了解社區(qū)中人們干的“臟活”。對警察來說,使用軟件要比與潛在的危險罪犯互動安全得多,或者冒險與人接觸,卻發(fā)現(xiàn)他們實際上根本不是罪犯。通過這種方式,由監(jiān)控攝像頭組成的社會技術框架(現(xiàn)在可能包括面部識別)開始被用作社區(qū)知識和行為的代表。

但是,這些數(shù)據(jù)并不能準確地替代社區(qū)知識,因為它可能被誤解和誤用。這項技術并不是對所有人都平等、公平地適用,尤其是對那些非白人和跨性別的人來說。麻省理工學院(MIT)去年的一項研究發(fā)現(xiàn),三種常見的面部分析系統(tǒng)顯示,淺膚色男性的錯誤率為0.8%,而深膚色女性的錯誤率為34.7%,尤其是在執(zhí)法場景中,找錯人帶來的風險更加嚴重。

從面部識別到側(cè)寫

人臉識別軟件是對監(jiān)控攝像頭的一種創(chuàng)新,它被用來解決一個社會問題。但是只有人,而不是技術,才能解決社會問題。然而,人們可能不得不應用技術來解決這些問題,而這正是我們陷入困境的癥結(jié)所在:什么技術是合適的,什么不是,我們使用什么工具,就像Dr. Chowdhury和其他人所要求的那樣,來構(gòu)建一個“安全和健康的社會”?

廣泛使用價格低廉、沒有監(jiān)管和極具透明的人臉識別工具容易令人們感到不安。此外,目前還不清楚人手短缺、預算緊張或缺乏技術經(jīng)驗的警察部門是否會遵守面部識別軟件供應商制定的自愿規(guī)則。

一旦像亞馬遜這樣的公司的面部識別軟件得到廣泛應用——我們是這些異類實驗的對象——下一個技術進步應用可能會被引進:人工智能通過利用面部識別得出關于我們和我們的行為的結(jié)論。這就是目前中國正在發(fā)生的事情,人工智能和人臉識別正被用于監(jiān)視1100萬維吾爾族(一個穆斯林少數(shù)民族)。

《紐約時報》最近報道稱:“這種人臉識別技術被整合到中國迅速擴張的監(jiān)控攝像頭網(wǎng)絡中,只根據(jù)維吾爾人的外貌來尋找他們,并記錄他們的行蹤,以便進行搜索和審查。”“這種做法使中國成為應用下一代技術觀察其人民的先驅(qū),可能會開啟一個自動化種族主義的新時代!

中國有關部門和企業(yè)正在利用該技術在大型公共活動中抓捕犯罪嫌疑人,以及在更日常的情況下使用該技術,例如在機場和酒店認出尋找的人,鎖定在人行橫道上羞辱亂穿馬路的人,找準用戶做針對性廣告。人臉識別技術也正在美國各地蔓延,從用于邊境安全到制作冰箱貨架上的個性化廣告。紐約一家房地產(chǎn)集團最近試圖為其公寓大樓內(nèi)的每個公寓單元創(chuàng)建基于人臉識別的鑰匙。

也許我們正處在一些技術的尖端,這些技術將以一種對我們來說是全新的方式回歸,既挑戰(zhàn)我們的底線,又考驗我們的社會規(guī)范。例如,一旦我們走到哪里都被“認識”,那么,就像其他跟蹤和識別我們的數(shù)據(jù)所做的那樣,我們可以不斷地被“剖析”。當我們被“剖析”時,人們認為我們的行為可以通過算法預測。一旦我們的行為可以被政府和營銷人員“預測”出來,那么我們可能會在算法面前失去我們的主動權(quán),算法生成的“可信數(shù)據(jù)”要遠遠多于從我們的賬戶信息獲取的數(shù)據(jù)信息。

當所有各方都能創(chuàng)造一個他們自己可接受的結(jié)果時,就能實現(xiàn)合作。雖然人們有時可能會放棄自己的代理權(quán)來得到他們想要的結(jié)果,但這種做法并不常見。這就是奴役。沒有代理權(quán),沒有能力選擇自己的形象或銷售方式,破壞了合作的基礎。為了“方便”而利用面部識別的人工智能應用,在圍繞監(jiān)控技術的技術“創(chuàng)新”中,變得更加危險,因為我們被迫將越來越多的信息暴露出來。

徹底禁止使用該軟件的努力面臨阻力。國會議員和微軟等公司大多在推動相關規(guī)定,其中包括強制要求在公共場合使用面部識別工具時,需使用清晰的標識來提醒人們。但這種做法表示,除了主動離開該區(qū)域,否則你沒有辦法選擇退出監(jiān)視,標識給人們提供了不合理的選擇。如果沒有辦法選擇退出這個潛在的強大監(jiān)控系統(tǒng),人類就會開始成為奴隸。這就是為什么能夠限制面部識別的嚴肅的、可執(zhí)行的法律是至關重要的,也是為什么在我們的技術發(fā)展到這個關鍵時刻,這種討論顯得如此重要的原因。

一旦面部識別和其他人工智能變得普及,在缺乏嚴格的可強制執(zhí)行的法律來保護這項技術的情況下,我們將不受保護;也就意味著,為了滿足政府和企業(yè)的目的,我們的身份信息和地理位置信息將被利用。這就是貪婪、利潤和權(quán)力作為激勵因素發(fā)揮作用的地方。

如果我們想要識別出危險分子,也許他們就是那些希望我們喪失自己的面孔、身份和異質(zhì)性的實體——不僅僅是為了讓他們獲利,而是作為一種自動分類和社會控制的手段。這就是為什么面部識別技術會成為我們重點討論的對象,也是為什么越來越多的人希望在我們的社會中禁止使用它的原因。

<上一頁  1  2  
聲明: 本文系OFweek根據(jù)授權(quán)轉(zhuǎn)載自其它媒體或授權(quán)刊載,目的在于信息傳遞,并不代表本站贊同其觀點和對其真實性負責,如有新聞稿件和圖片作品的內(nèi)容、版權(quán)以及其它問題的,請聯(lián)系我們。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

安防 獵頭職位 更多
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號