訂閱
糾錯
加入自媒體

如何重塑智能化世界的信任、隱私和道德邊界?

當(dāng)各個行業(yè)部署人工智能技術(shù)時,首先需要處理一些技術(shù)、倫理、可靠性和法規(guī)相關(guān)的挑戰(zhàn)。例如,在交通和汽車領(lǐng)域?qū)嵤?span id="w2ascsw" class='hrefStyle'>人工智能時,安全和保障是主要挑戰(zhàn)之一。本期文章將探討人工智能在道德倫理方面需克服的難題,目前,除了解決相關(guān)技術(shù)、算法問題,政府和監(jiān)管機(jī)構(gòu)也需預(yù)見關(guān)鍵的倫理和社會挑戰(zhàn),并開始制定新政策予以應(yīng)對。

本文編譯自國際電工委員會(IEC)于2019年3月發(fā)布的報告《人工智能將賦能哪些行業(yè)》,報告描述了人工智能當(dāng)前使用的主要系統(tǒng)、技術(shù)和算法,并指出了它們有助于解決哪些類型的問題以及面臨的主要挑戰(zhàn)。本文節(jié)選自第六章:人工智能的挑戰(zhàn)。

國際電工委員會(International Electrotechnical Commission)是世界上成立最早的國際性電工標(biāo)準(zhǔn)化機(jī)構(gòu),目前IEC的工作領(lǐng)域已由單純研究電氣設(shè)備等問題擴(kuò)展到通訊、視聽、機(jī)器人、信息技術(shù)、新型醫(yī)療器械和儀表等各個方面。

【算力觀點(diǎn)】

機(jī)器學(xué)習(xí)的自動化決策依賴于合作伙伴間的信賴和數(shù)據(jù)質(zhì)量的保障。糟糕的數(shù)據(jù)質(zhì)量、甚至惡意的操作,都可能導(dǎo)致毫無價值的結(jié)果,甚至對算法的用戶產(chǎn)生負(fù)面影響。

人工智能的一大倫理挑戰(zhàn)是,當(dāng)面臨道德困境時如何進(jìn)行決策。一個可以被廣泛接受的倫理框架需要人類進(jìn)一步研究,以便對人工智能系統(tǒng)在推理和決策時進(jìn)行指導(dǎo)。

人工智能的數(shù)據(jù)共享系統(tǒng)引發(fā)信任挑戰(zhàn)

人們普遍認(rèn)為,人工智能是一個涉及許多不同利益相關(guān)者的主題。例如,在制造業(yè)的預(yù)測維修領(lǐng)域,為了給人工智能算法提供足夠的支持,制造商和用戶都必須共享數(shù)據(jù),提供專業(yè)知識。為了促進(jìn)這種合作,需要處理一些問題,例如可信度問題。

利益相關(guān)者之間的信任至關(guān)重要,解決數(shù)據(jù)源可靠性問題的方案將可能由認(rèn)證技術(shù)提供。利用有公信力且數(shù)據(jù)密封的機(jī)構(gòu)所頒發(fā)的信用電子證書,是在各方之間建立信任的一個選項。

然而,這個解決方案的目標(biāo)僅僅是在合作伙伴之間建立信任,并沒有解決數(shù)據(jù)質(zhì)量問題。為此目的,可以收集可信的數(shù)據(jù)池或評估算法來避免錯誤的數(shù)據(jù)庫。然后,元算法可以幫助人工智能系統(tǒng)在一段時間內(nèi)保持可靠和透明,提供關(guān)于源數(shù)據(jù)的起源和分布信息。

統(tǒng)一協(xié)調(diào)的人工智能監(jiān)管機(jī)構(gòu)尚未誕生

許多人工智能領(lǐng)域仍然缺乏適當(dāng)?shù)谋O(jiān)管。為人工智能發(fā)展找到一種平衡的監(jiān)管方法,同時保證消費(fèi)者保護(hù)、社會保障以及權(quán)利和自由的保護(hù),是世界各地許多政府的一項重要優(yōu)先事項。雖然在無人駕駛汽車和無人機(jī)等領(lǐng)域已經(jīng)采取了一些早期立法措施,但世界上還沒有專門針對人工智能的監(jiān)管機(jī)構(gòu),而且也缺乏對人工智能的法律研究。

百度無人駕駛汽車

例如,在歐洲,機(jī)器人和人工智能方面由國家和各級不同監(jiān)管機(jī)構(gòu)負(fù)責(zé),沒有任何中心機(jī)構(gòu)為這些領(lǐng)域的發(fā)展提供技術(shù)、倫理和管理方面的專門知識和監(jiān)督。這種缺乏協(xié)調(diào)的情況,不利于對技術(shù)發(fā)展所帶來的機(jī)會和挑戰(zhàn)作出及時和充分的反應(yīng)。

如何令人工智能受到人類道德的約束和保護(hù)?

盡管關(guān)于倫理問題的嚴(yán)重影響將出現(xiàn)在未來更先進(jìn)的人工智能系統(tǒng)中,但主動盡早解決這些問題不僅是一種謹(jǐn)慎的做法,而且還可能避免未來昂貴的改造成本。

更直接的擔(dān)憂是人工智能系統(tǒng)(如自動駕駛汽車)在決策過程中需要作出道德選擇,例如,假設(shè)在無人駕駛汽車無法及時剎車且前方人行道上有三個行人時,系統(tǒng)應(yīng)該選擇撞向這三個行人,還是轉(zhuǎn)向道路另一邊的行人?

這個例子說明了人工智能安全不僅是一個技術(shù)問題,而且是一個政策和倫理問題,需要跨學(xué)科的方法來保護(hù)這些技術(shù)的用戶、中立的旁觀者和開發(fā)這些技術(shù)的公司(后者可能面臨重要的法律挑戰(zhàn))。雖然研究組織和公司已開始處理這些問題,但需要在國際層面上加強(qiáng)各方之間的合作。

自動駕駛的道德困境

圖片來源:MIT Technology Review

存在于人類日常生活中的人工智能應(yīng)用處于倫理挑戰(zhàn)的核心,如果人工智能系統(tǒng)的設(shè)計不符合倫理和社會約束,這些系統(tǒng)可能會按照與人類不同的邏輯運(yùn)行,并可能導(dǎo)致巨大后果。

此外,在賦予機(jī)器決策權(quán)之后,人們將面臨一個新的倫理問題:機(jī)器是否有資格做出這樣的決策?隨著智能系統(tǒng)獲取特定領(lǐng)域的知識,其決策能力將可能超過人類,這意味著人們會在越來越多的領(lǐng)域依賴于機(jī)器主導(dǎo)的決策。在未來的人工智能發(fā)展中,這類倫理挑戰(zhàn)將迫切需要特別關(guān)注。

聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標(biāo)題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號