訂閱
糾錯(cuò)
加入自媒體

人工智能發(fā)展迅猛,道德風(fēng)險(xiǎn)亦須留心

近年來(lái),隨著人工智能技術(shù)在各行各業(yè)中得到廣泛應(yīng)用,AI對(duì)人類社會(huì)的影響可謂是滲透到了方方面面。在這種背景下,國(guó)內(nèi)也誕生了眾多AI科技公司,比如專注于AI+視頻的極鏈科技、又比如說近日推出了城市級(jí)全棧式AI解決方案,還介紹了集全局管理能力為一體的城市物聯(lián)網(wǎng)操作系統(tǒng)的曠視科技等等?梢哉f,人工智能技術(shù)正在這顆星球上如火如荼的進(jìn)行展開。

 人工智能發(fā)展迅猛,道德風(fēng)險(xiǎn)亦須留心

但與此同時(shí),人工智能的推進(jìn)其實(shí)也產(chǎn)生了不少問題。例如最近較為火爆的換臉技術(shù)產(chǎn)生的數(shù)據(jù)安全問題、大數(shù)據(jù)產(chǎn)生的“殺熟”問題、自動(dòng)駕駛的安全責(zé)任問題、人臉識(shí)別產(chǎn)生的隱私問題等。路易斯維爾大學(xué)網(wǎng)絡(luò)安全實(shí)驗(yàn)室的羅曼教授發(fā)表的《人工智能和網(wǎng)絡(luò)安全:人工智能的失敗》便列舉過十項(xiàng)重大的人工智能失敗案例。比如說特斯拉自動(dòng)駕駛汽車造成人員傷亡、機(jī)器人傷人事件、保險(xiǎn)公司利用臉書數(shù)據(jù)預(yù)測(cè)事故發(fā)生率涉嫌存在偏見等等。這些失敗案例可以歸結(jié)為人工智能系統(tǒng)在學(xué)習(xí)階段的錯(cuò)誤,也可以歸結(jié)為人工智能技術(shù)的不確定性所帶來(lái)的道德風(fēng)險(xiǎn)。

人工智能產(chǎn)品除了符合自然規(guī)律這個(gè)物理性之外,還具有意向性,即人工智能產(chǎn)品也會(huì)體現(xiàn)人類的意志和愿望。隨著技術(shù)的發(fā)展,技術(shù)改變社會(huì)的作用增強(qiáng),技術(shù)的發(fā)展可能會(huì)遠(yuǎn)離人類的最初目的和控制。因此,正確而全面的認(rèn)識(shí)人工智能的潛在道德風(fēng)險(xiǎn),并對(duì)其進(jìn)行規(guī)避顯得十分必要。

一、人工智能發(fā)展引發(fā)智能機(jī)器的道德主體地位的思考

人工智能離不開算法,而算法是由人類輸入的數(shù)據(jù),出了問題究竟由誰(shuí)來(lái)負(fù)責(zé)呢?機(jī)器以及算法是否具備成為主題的資格和條件呢?人工智能是否具有道德主體地位呢?這些問題涉及對(duì)于道德主體地位的溯源,還涉及人類的道德推理能力是先天賦予還是后天學(xué)習(xí)的討論。根據(jù)人工智能的現(xiàn)有發(fā)展速度和規(guī)模,人工智能或許在未來(lái)能夠發(fā)展出具有自我意識(shí)的智能產(chǎn)品,這些人類制造出來(lái)的智能機(jī)器是否也該被賦予與人類同等的權(quán)利和地位呢?上述問題都涉及對(duì)人工智能產(chǎn)品的主體地位的思考,是我們所必須考慮的。

二、人工智能發(fā)展引發(fā)新理論問題

人工智能正在以更快的發(fā)展速度和水平融入人類社會(huì)的方方面面,甚至可以說半個(gè)多世紀(jì)的人工智能發(fā)展遠(yuǎn)遠(yuǎn)超過了過去幾百年的科技發(fā)展水平。而人工智能一旦獲得同人類相近的思維能力和推理能力,如何界定人工智能與人類的道德地位將面臨道德倫理挑戰(zhàn):人工智能的高效率和低失誤率在司法領(lǐng)域的使用,會(huì)給傳統(tǒng)司法審判帶來(lái)巨大的法律倫理挑戰(zhàn);人工智能手術(shù)機(jī)器人將給醫(yī)療衛(wèi)生領(lǐng)域帶來(lái)醫(yī)療倫理挑戰(zhàn)。面對(duì)如此多的倫理挑戰(zhàn),我們將如何發(fā)展或者改進(jìn)現(xiàn)有的倫理理論體系,使之更好地適應(yīng)人工智能的發(fā)展。既要人工智能更好地服務(wù)于人類,又要限制其負(fù)面效應(yīng),這是人工智能發(fā)展面臨的巨大挑戰(zhàn)。

三、人工智能引發(fā)新的社會(huì)安全和公平正義問題

人工智能的發(fā)展帶來(lái)信息安全風(fēng)險(xiǎn)。人工智能產(chǎn)品在很多領(lǐng)域已經(jīng)與人類形成了服務(wù)和被服務(wù)的關(guān)系,如手機(jī)語(yǔ)音助手、機(jī)動(dòng)車的軌道偏離糾正等。當(dāng)這些人工智能產(chǎn)品和人類進(jìn)行交互時(shí),如何保證使用者的信息安全,或者說使用者的信息一旦被上傳到遠(yuǎn)程終端之后,又將如何保證信息安全,這是一個(gè)問題。而且人工智能機(jī)器人工作效率高、出錯(cuò)率低、維護(hù)成本好、能保證工作的連續(xù)性,其在各領(lǐng)域的運(yùn)用可能會(huì)造成對(duì)人類就業(yè)的沖擊。許多人的工作安全和穩(wěn)定會(huì)直接收到人工智能發(fā)展的影響,特別是那些不需要專業(yè)技術(shù)與專業(yè)能力的工作。這將導(dǎo)致勞動(dòng)者失業(yè)率和未就業(yè)人口總量的提高,這些都不利于社會(huì)的穩(wěn)定和安全。

 人工智能發(fā)展迅猛,道德風(fēng)險(xiǎn)亦須留心

目前社會(huì)已經(jīng)逐步認(rèn)識(shí)到了問題的嚴(yán)重性,也嘗試提出了解決方案:

首先,人工智能的道德風(fēng)險(xiǎn)是預(yù)置的,是人類在涉及人工智能之初就預(yù)先設(shè)置好的。人工智能涉及具有意向性,嵌入了人類的目的,也即道德。在具體的人工智能產(chǎn)品設(shè)計(jì)上就應(yīng)該進(jìn)行道德風(fēng)險(xiǎn)評(píng)估,對(duì)人工智能可能引起的道德風(fēng)險(xiǎn)有個(gè)準(zhǔn)確的把握,這樣才能防范人工智能可能帶來(lái)的道德風(fēng)險(xiǎn)。

其次,人工智能需要以不傷害人類為前提。人工智能的設(shè)計(jì)不應(yīng)僅僅局限于某一種狀態(tài),從設(shè)計(jì)者的設(shè)計(jì)理念到人工智能產(chǎn)品都應(yīng)該規(guī)范與約束,才能保障人工智能發(fā)展不損害人類利益,不傷害人類。

 人工智能發(fā)展迅猛,道德風(fēng)險(xiǎn)亦須留心

最后,正義是一個(gè)社會(huì)健康發(fā)展的重要基石,是人類社會(huì)發(fā)展的價(jià)值追求。人工智能在設(shè)計(jì)、開發(fā)之初就應(yīng)該關(guān)注社會(huì)的公平和正義。人工智能的設(shè)計(jì)不應(yīng)擴(kuò)大主體間權(quán)利與地位的差距,導(dǎo)致實(shí)質(zhì)上的不公平。例如,無(wú)人機(jī)的技術(shù)需要大量的成本,并非所有人都能享受該項(xiàng)技術(shù)成果,這就會(huì)導(dǎo)致一些落后國(guó)家和地區(qū)的公平性喪失;使用無(wú)人機(jī)送快遞會(huì)造成現(xiàn)有快遞人員的失業(yè),導(dǎo)致技術(shù)結(jié)果的不公平。簡(jiǎn)而言之,人工智能的設(shè)計(jì)中要確保其設(shè)計(jì)目的是為了人類的整體利益而非個(gè)人。

綜上所述,人工智能技術(shù)使技術(shù)安全性及隱私保護(hù)等各方面的問題變得更加重要且緊迫,因此需要內(nèi)化技術(shù)設(shè)計(jì)、決策主體的責(zé)任意識(shí);并且完善技術(shù)設(shè)計(jì)制度,并促成各類技術(shù)主體之間的合作。只有這樣,才能有效地規(guī)避人工智能道德風(fēng)險(xiǎn),更好地促進(jìn)人工智能的健康發(fā)展。

聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)