如何重塑智能化世界的信任、隱私和道德邊界?
當(dāng)各個行業(yè)部署人工智能技術(shù)時,首先需要處理一些技術(shù)、倫理、可靠性和法規(guī)相關(guān)的挑戰(zhàn)。例如,在交通和汽車領(lǐng)域?qū)嵤?span id="w2ascsw" class='hrefStyle'>人工智能時,安全和保障是主要挑戰(zhàn)之一。本期文章將探討人工智能在道德倫理方面需克服的難題,目前,除了解決相關(guān)技術(shù)、算法問題,政府和監(jiān)管機(jī)構(gòu)也需預(yù)見關(guān)鍵的倫理和社會挑戰(zhàn),并開始制定新政策予以應(yīng)對。
本文編譯自國際電工委員會(IEC)于2019年3月發(fā)布的報告《人工智能將賦能哪些行業(yè)》,報告描述了人工智能當(dāng)前使用的主要系統(tǒng)、技術(shù)和算法,并指出了它們有助于解決哪些類型的問題以及面臨的主要挑戰(zhàn)。本文節(jié)選自第六章:人工智能的挑戰(zhàn)。
國際電工委員會(International Electrotechnical Commission)是世界上成立最早的國際性電工標(biāo)準(zhǔn)化機(jī)構(gòu),目前IEC的工作領(lǐng)域已由單純研究電氣設(shè)備等問題擴(kuò)展到通訊、視聽、機(jī)器人、信息技術(shù)、新型醫(yī)療器械和儀表等各個方面。
【算力觀點(diǎn)】
機(jī)器學(xué)習(xí)的自動化決策依賴于合作伙伴間的信賴和數(shù)據(jù)質(zhì)量的保障。糟糕的數(shù)據(jù)質(zhì)量、甚至惡意的操作,都可能導(dǎo)致毫無價值的結(jié)果,甚至對算法的用戶產(chǎn)生負(fù)面影響。
人工智能的一大倫理挑戰(zhàn)是,當(dāng)面臨道德困境時如何進(jìn)行決策。一個可以被廣泛接受的倫理框架需要人類進(jìn)一步研究,以便對人工智能系統(tǒng)在推理和決策時進(jìn)行指導(dǎo)。
人工智能的數(shù)據(jù)共享系統(tǒng)引發(fā)信任挑戰(zhàn)
人們普遍認(rèn)為,人工智能是一個涉及許多不同利益相關(guān)者的主題。例如,在制造業(yè)的預(yù)測維修領(lǐng)域,為了給人工智能算法提供足夠的支持,制造商和用戶都必須共享數(shù)據(jù),提供專業(yè)知識。為了促進(jìn)這種合作,需要處理一些問題,例如可信度問題。
利益相關(guān)者之間的信任至關(guān)重要,解決數(shù)據(jù)源可靠性問題的方案將可能由認(rèn)證技術(shù)提供。利用有公信力且數(shù)據(jù)密封的機(jī)構(gòu)所頒發(fā)的信用電子證書,是在各方之間建立信任的一個選項。
然而,這個解決方案的目標(biāo)僅僅是在合作伙伴之間建立信任,并沒有解決數(shù)據(jù)質(zhì)量問題。為此目的,可以收集可信的數(shù)據(jù)池或評估算法來避免錯誤的數(shù)據(jù)庫。然后,元算法可以幫助人工智能系統(tǒng)在一段時間內(nèi)保持可靠和透明,提供關(guān)于源數(shù)據(jù)的起源和分布信息。
統(tǒng)一協(xié)調(diào)的人工智能監(jiān)管機(jī)構(gòu)尚未誕生
許多人工智能領(lǐng)域仍然缺乏適當(dāng)?shù)谋O(jiān)管。為人工智能發(fā)展找到一種平衡的監(jiān)管方法,同時保證消費(fèi)者保護(hù)、社會保障以及權(quán)利和自由的保護(hù),是世界各地許多政府的一項重要優(yōu)先事項。雖然在無人駕駛汽車和無人機(jī)等領(lǐng)域已經(jīng)采取了一些早期立法措施,但世界上還沒有專門針對人工智能的監(jiān)管機(jī)構(gòu),而且也缺乏對人工智能的法律研究。
百度無人駕駛汽車
例如,在歐洲,機(jī)器人和人工智能方面由國家和各級不同監(jiān)管機(jī)構(gòu)負(fù)責(zé),沒有任何中心機(jī)構(gòu)為這些領(lǐng)域的發(fā)展提供技術(shù)、倫理和管理方面的專門知識和監(jiān)督。這種缺乏協(xié)調(diào)的情況,不利于對技術(shù)發(fā)展所帶來的機(jī)會和挑戰(zhàn)作出及時和充分的反應(yīng)。
如何令人工智能受到人類道德的約束和保護(hù)?
盡管關(guān)于倫理問題的嚴(yán)重影響將出現(xiàn)在未來更先進(jìn)的人工智能系統(tǒng)中,但主動盡早解決這些問題不僅是一種謹(jǐn)慎的做法,而且還可能避免未來昂貴的改造成本。
更直接的擔(dān)憂是人工智能系統(tǒng)(如自動駕駛汽車)在決策過程中需要作出道德選擇,例如,假設(shè)在無人駕駛汽車無法及時剎車且前方人行道上有三個行人時,系統(tǒng)應(yīng)該選擇撞向這三個行人,還是轉(zhuǎn)向道路另一邊的行人?
這個例子說明了人工智能安全不僅是一個技術(shù)問題,而且是一個政策和倫理問題,需要跨學(xué)科的方法來保護(hù)這些技術(shù)的用戶、中立的旁觀者和開發(fā)這些技術(shù)的公司(后者可能面臨重要的法律挑戰(zhàn))。雖然研究組織和公司已開始處理這些問題,但需要在國際層面上加強(qiáng)各方之間的合作。
自動駕駛的道德困境
圖片來源:MIT Technology Review
存在于人類日常生活中的人工智能應(yīng)用處于倫理挑戰(zhàn)的核心,如果人工智能系統(tǒng)的設(shè)計不符合倫理和社會約束,這些系統(tǒng)可能會按照與人類不同的邏輯運(yùn)行,并可能導(dǎo)致巨大后果。
此外,在賦予機(jī)器決策權(quán)之后,人們將面臨一個新的倫理問題:機(jī)器是否有資格做出這樣的決策?隨著智能系統(tǒng)獲取特定領(lǐng)域的知識,其決策能力將可能超過人類,這意味著人們會在越來越多的領(lǐng)域依賴于機(jī)器主導(dǎo)的決策。在未來的人工智能發(fā)展中,這類倫理挑戰(zhàn)將迫切需要特別關(guān)注。
請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 Intel宣布40年來最重大轉(zhuǎn)型:年底前裁員15000人、拋掉2/3房產(chǎn)
- 2 因美封殺TikTok,字節(jié)股價骨折!估值僅Meta1/5
- 3 宏山激光重磅發(fā)布行業(yè)解決方案,助力智能制造產(chǎn)業(yè)新飛躍
- 4 國產(chǎn)AI芯片公司破產(chǎn)!白菜價拍賣
- 5 具身智能火了,但規(guī)模落地還需時間
- 6 國產(chǎn)英偉達(dá)們,抓緊沖刺A股
- 7 三次錯失風(fēng)口!OpenAI前員工殺回AI編程賽道,老東家捧金相助
- 8 英特爾賦能智慧醫(yī)療,共創(chuàng)數(shù)字化未來
- 9 英偉達(dá)的麻煩在后頭?
- 10 將“網(wǎng)紅”變成“商品”,AI“爆改”實(shí)力拉滿
- 高級軟件工程師 廣東省/深圳市
- 自動化高級工程師 廣東省/深圳市
- 光器件研發(fā)工程師 福建省/福州市
- 銷售總監(jiān)(光器件) 北京市/海淀區(qū)
- 激光器高級銷售經(jīng)理 上海市/虹口區(qū)
- 光器件物理工程師 北京市/海淀區(qū)
- 激光研發(fā)工程師 北京市/昌平區(qū)
- 技術(shù)專家 廣東省/江門市
- 封裝工程師 北京市/海淀區(qū)
- 結(jié)構(gòu)工程師 廣東省/深圳市