訂閱
糾錯
加入自媒體

機器人的“心智”被開發(fā),AI的威脅越來越近了

2018-08-11 09:42
智能相對論
關注

機器人的“心智”被開發(fā),AI的威脅越來越近了

人工智能興起以來,就有不少學者提出了“人工智能威脅論”。 人們想象,人工智能完全實現(xiàn)時,AI將會成為一種源自人類創(chuàng)發(fā)、卻優(yōu)于人類的獨立自主的生命形態(tài),具有與自然人一樣的人性構建。

當然,還是有不少人提出了反對,人們對人工智能發(fā)展的憂慮很大程度上在于混淆了智能與心智這兩種現(xiàn)象。一般而言,心智是由三個功能相對獨立但又全面整合的系統(tǒng)——情感系統(tǒng)(感受和動機)、意志系統(tǒng)(意志和行動)和智能系統(tǒng)(感知和思維)構成的。顯然,智能只是心智的一個子系統(tǒng)。

AI雖有感知和思維,但沒有情感系統(tǒng)的引導,智能系統(tǒng)就不能發(fā)揮它應有的作用,“心智”一直被認為是人工智能無法掌握的能力。然而,在DeepMind今年發(fā)表的論文《Machine Theory of Mind》中,研究人員提出了一種新型神經(jīng)網(wǎng)絡ToMnet,具備理解自己以及周圍智能體心理狀態(tài)的能力。

人工智能被開發(fā)出了心智,我們樂見其成的同時,也感到了一絲擔憂,人工智能越來越擬人化,究竟是好是壞?面對此項研究,AI威脅論是否有了新的證據(jù)呢?

人工智能的“心智”,從理解信念開始

所謂信念,是指人的愿望、想法、知識、理念、意圖以及需要等思維。信念與人的愿望、情緒、行為等都有很大的關系。在日常生活中,人們都是通過推測別人的信念來估計他人的情緒、心態(tài)以及下一步行為的。

信念分為真實信念和錯誤信念,比如說你看到一個書包,你自然會去猜測里面裝有書籍,如果書包里確實裝的是書籍,即人的想法與現(xiàn)實情況相符合,這就是真實信念。而錯誤信念就是,你認為書包里有書,但書包里拿出的是一件衣服,即想法與現(xiàn)實不相吻合。

一般來說,人工智能能夠通過大數(shù)據(jù)、圖像識別等技術,基于概率推論來預測出人們或者是智能體的真實信念。但絕大部分的人工智能都難以通過簡單的錯誤信念測驗。即使AI 很可能以接近完美的準確率完成錯誤信念任務,但它們依舊不能理解這是為什么。

舉個例子,有一個最經(jīng)典的初級信念測試Sally-Anne測試——Sally有一個籃子和一顆球,Anne有一個盒子。Sally將球放進自己的籃子里,然后出去了。Anne將籃子里的球拿出來,放進她的盒子里。后來,Sally回來了,她想玩球。信念問題是,Sally會去哪里找球?

4、5歲的孩子便能夠答對這個問題,但人工智能就不具有這樣的認知。人類在大約 4 歲的時候就會開始理解錯誤信念,即開始知道現(xiàn)實生活中可能有一些情景與自己的想法是不一致的。

錯誤信念的理解,對于機器人的心智開發(fā)而言,起著至關重要的作用。因為對錯誤信念的理解是推測他人對事件的判斷、預測他人下一步行為、了解他人心態(tài)的的基礎。這是訓練AI掌握心智理論(人類和其他動物具備的心智理論)的關鍵階段。

在DeepMind的研究中,最終結果證明,ToMnet學會了對來自不同群體的智能體進行建模,包括隨機、規(guī)則系統(tǒng)和深度強化學習智能體等,該網(wǎng)絡通過了經(jīng)典的"Sally-Anne"測試,可以理解持有錯誤信念的智能體,也就是說,人工智能已經(jīng)可以達到四歲兒童的理解水平了。

人工智能的心智開發(fā),總算是有了堅實的基礎。

AI心智開發(fā)后,“AI威脅論”再次興起為哪般

毋庸置疑,人工智能對錯誤信念的理解有利于其心智的形成,具備理解能力的機器人也將改善人機之間的合作,但是,技術的發(fā)展也是雙刃劍,人工智能再次升級,也引發(fā)了人們的擔心。

AI“騙術“再升級,難博人類信任

人工智能對人類的“欺騙”由來很久,比如在去年,F(xiàn)acebook的聊天機器人就創(chuàng)造了一種新的表達方式進行對話,機器人自創(chuàng)“行話”,讓人類不解其意。

機器人的“心智”被開發(fā),AI的威脅越來越近了

工作人員將這次“意外”解釋成沒有設置英語語法的激勵機制,理由很充分,但人工智能背著人們交流,還是讓人類產(chǎn)生了擔憂。

在“欺騙人類”的道路上,人工智能可能會越走越遠。從語言合成到圖像生成再到模擬人類的對話,人工智能正在許多領域逼近甚至超越人類的表現(xiàn)水平。

有研究人員指出,如果一臺計算機能夠理解錯誤信念,那它就可能知道如何誘導人類相信它,進而實現(xiàn)機器對人的“欺騙”。

設想一下,聊天機器人學會談判之后——機器人依靠機器學習和先進的策略,試圖改善談判的結果。隨著時間的推移,這些機器人變得相當熟練,甚至開始假裝對某件事情感興趣,便于在談判的后期做出“犧牲”,作為一種假妥協(xié)。

2.“人工心智”的出現(xiàn)是原罪

以前,人工智能的威脅可能僅僅在于技術的工具性威脅和人們的適應性威脅,這也是各種取代論調喧囂塵上的原因。

AI作為人類使用的工具、技術,人們害怕的是因使用不當而導致的危害或者是智能化帶來的失業(yè)風險,例如,弱人工智能系統(tǒng)可能因人的惡意操控而造成導航錯誤、金融市場崩盤等等。在這些想象中,AI并不具有自主威脅人類的意圖。

但是,“人工心智”的出現(xiàn)讓人類對人工智能最深層的恐懼浮出水面,那就是人工智能具有主動的感受后,給人類帶來的生存性威脅。

霍金曾這樣描述過,“一旦人類開發(fā)了人工智能,它們將以一種持續(xù)增加的速率不斷進行自我更新,并最終脫離我們的掌控……人工智能未來還將發(fā)展出自己的意志,這種意志將與人類的意志產(chǎn)生沖突!

事實上,能帶來這種威脅的人工智能更確切地說不是人工智能而是人工心智——一個盡管是人工的、但卻是獨立自主的、能夠感受周圍智能體的主體。當AI有了心智,就會具有能對智能加以規(guī)范的自治的情感系統(tǒng),與人類的區(qū)別又一次縮小了。

結論:

就目前來看,人工智能為我們解決了許多難題,在未來也毫不意外地將會大幅度提高人類社會的生產(chǎn)力,對AI的發(fā)展是否會威脅到人類,我們持一個開放的立場。

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內容
文章糾錯
x
*文字標題:
*糾錯內容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號