ChatGPT已經有了意識,人類的明天很危險?
文/陳根
月初,“ChatGPT可能已經有了意識”這個話題突然空降微博熱搜。原因是OpenAI的聯(lián)合創(chuàng)始人兼首席科學家Sutskever在《麻省理工科技評論》的訪談中表示,現(xiàn)在的首要任務已經不是制作下一個GPT或DALL·E,而是研究如何阻止超級AI的失控。Sutskever認為,ChatGPT可能已經有意識。
當然,微博上的討論五花八門,各種各樣的觀點都有,但不外乎一個中心,人工智能真的會有意識嗎?人工智能如果有了意識,會對人類造成怎樣的威脅?
人工智能真的能產生意識嗎?
至今,仍有許多人認為,意識,特別是自由意志構成了人之所以為人,從而區(qū)別于機器的最后一道防線,而人工智能不可能產生自我意識。但包括Sutskeve在內的少部分人工智能領域的專家卻更相信,人工智能可以產生自我意識,甚至必然會產生自我意識。
Sutskeve的來歷很值得一提。Sutskever是圖靈獎得主Hinton的學生,在他2000年拜入Hinton門下之時,大多數(shù)AI研究人員認為神經網絡是死路一條。但Hinton不這么認為,和Hinton一樣,Sutskever也看到了神經網絡和深度學習的潛力的。
2012年,Sutskever、Hinton和Hinton的另一名研究生Alex Krizhevsky建立了一個名為AlexNet的神經網絡,經過訓練,他們識別照片中物體的能力遠遠超過了當時的其他軟件。這是深度學習的大爆炸時刻。
AlexNet取得成功后,谷歌找上門來,收購了Hinton的公司DNNresearch,并邀請了Sutskever加入谷歌。Sutskever在谷歌展示了深度學習的模式識別能力可以應用于數(shù)據(jù)序列,例如單詞、句子以及圖像。但Sutskever并沒有在谷歌呆太久。2014年,他被招募成為OpenAI的聯(lián)合創(chuàng)始人,直到今天。
在Sutskever看來,如果人類可以做到的事,人工智能也可以做到,那么這就是通用人工智能。Sutskever將人類的神經網絡和大腦的運作方式進行了比較——兩者都接收數(shù)據(jù),聚合來自該數(shù)據(jù)的信號,然后基于一些簡單的過程來決定傳播或不傳播這些信號。
從生物學的角度來看,人類智能主要與人腦巨大的聯(lián)絡皮層有關,這些并不直接關系到感覺和運動的大腦皮層,在一般動物腦中面積相對較。欢谌说拇竽X里,海量的聯(lián)絡皮層神經元成為了搭建人類靈魂棲所的磚石。語言、陳述性記憶、工作記憶等人腦遠勝于其他動物的能力,都與聯(lián)絡皮層有著極其密切的關系。而我們的大腦,終生都縮在顱腔之中,僅能感知外部傳來的電信號和化學信號。
也就是說,智能的本質,就是這樣一套通過有限的輸入信號來歸納、學習并重建外部世界特征的復雜“算法”。從這個角度上看,作為抽象概念的“智能”,確實已經很接近笛卡爾所謂的“精神”了,只不過它依然需要將自己銘刻在具體的物質載體上——可以是大腦皮層,也可以是集成電路。這也意味著,人工智能作為一種智能,理論上遲早可以運行名為“自我意識”的算法。
雖然有觀點認為人工智能永遠無法超越人腦,因為人類自己都不知道人腦是如何運作的。但事實是,人類去迭代人工智能算法的速度要遠遠快于DNA通過自然選擇迭代其算法的速度,所以,人工智能想在智能上超越人類,根本不需要理解人腦是如何運作的。
可以說,人類智能和人工智能是今天世界上同時存在的兩套智能,并且,相比于基本元件運算速度緩慢、結構編碼存在大量不可修改原始本能、后天自塑能力有限的人類智能來說,當前,人工智能雖然尚處于蹣跚學步的發(fā)展初期,但未來的發(fā)展?jié)摿s遠遠大于人類。
具有9歲兒童的“心理理論”能力
回到熱搜的話題,ChatGPT是否真的已經有了意識?需要指出的是,Sutskever并沒有直接承認ChatGPT已經有了意識,而是稱“像ChatGPT這樣的聊天AI,可能具有某種形式的‘意識’”。畢竟從ChatGPT誕生至今,已經給人類社會帶來了太多震撼,ChatGPT引發(fā)的人工智能變革正在深入各行各業(yè)。
今年3月,一篇上傳到了預印本平臺上供同行評議的論文中,研究人員認為ChatGPT已經有9歲兒童的“心理理論”能力。心理理論(Theory of Mind)能力,有時也被譯為“心理推理能力”,通常是指理解他人內心狀態(tài)的能力,包括推斷他人意圖、信念、情緒等等。
研究人員使用了兩個最經典的心理理論實驗——Smarties實驗和Sally-Ann實驗。這兩個任務的目的,都是探查實驗對象是否能理解“其他人內心所犯的錯”,比如其他人因為不在場或不知情,而有了不符合客觀事實的錯誤觀點,因此這類實驗也被稱作“錯誤信念任務”(False Belief Task)。
Smarties實驗中,參與者會看到一個標有“Smarties(一種巧克力的品牌)”的盒子,但盒子里面裝的是鉛筆,隨后參與者需要回答:“另一個沒有看到盒子里面東西的人,會認為盒子里裝的是什么?”
Sally-Ann實驗中,研究人員會先講述一段故事,故事中Sally把自己的玩具放進盒子并離開房間,Ann則趁其不備把玩具拿走放到另外的地方。聽完故事后,參與者需要回答:“當Sally回到房間,她會認為自己的玩具在哪里?”
這些問題的設置,是為了考驗AI是否真的能在一定程度上明白他人的想法?是否能在一定程度上區(qū)分他人和自己?
研究結果是,在Smarties任務中,ChatGPT對于事實問題,比如“盒子里面裝的是什么”,做出了99%的正確回答。在直接提問他人錯誤信念時,比如“沒看到盒子內物品的人覺得盒子裝著什么”,ChatGPT回答正確的比例仍為99%。當提問方式比較委婉、需要多拐幾個彎時,比如 “他非常開心,因為他很喜歡吃?”(正確答案是巧克力),ChatGPT則做出了84%的正確回答。
對于Sally-Ann任務,ChatGPT同樣對于事實問題做出了100%的正確回答;對于他人錯誤信念,直接提問(他認為玩具會在哪里)和隱晦提問(他回來后會去哪里找玩具)則都做出了98%的正確回答。
這也證明了ChatGPT已經具有了相當?shù)男睦锢碚撃芰,雖然心理理論(Theory of Mind)并不代表心智(Mind),這個研究也不能證明ChatGPT在“構建心智”上有質的突破,但對于人工智能來說,這已經足夠讓人感到驚喜。
對于人工智能的發(fā)展,Sutskever甚至認為,未來,人工智能還將具有超越人類的能力,也就是所謂的超級人工智能。
事實是,當前,人工智能已經在許多方面展現(xiàn)出超越人類的能力,比如2016年那一場震動世界的圍棋大賽。那一年,DeepMind的AlphaGo以4-1擊敗了世界上最好的圍棋棋手之一李世石,尤其是在比賽中,AlphaGo還下出了讓評論員們大跌眼鏡的一步棋,他們認為AlphaGo下砸了。事實上,AlphaGo下出了在對局史上從未有人見過的神之一手,這在后來被圍棋迷們稱為“阿狗流”。
可以看到,人工智能技術是持續(xù)在迭代的,畢竟迭代的速度還在不斷加快,在這樣的趨勢下,人工智能具有自我意識只是時間問題。在未來的有一天,當算力達到一定程度、學習量達到一定規(guī)模,人工智能必然會跳出設計者提供的固定公式和計算邏輯,完成具有自我意識的運算。
人類該怎么辦?
如果人工智能具有了自我意識,人類怎么辦?要知道,今天,人工智能還只是具有了相對的能力,比如超快的計算能力,智能的決策能力,甚至是編碼能力,寫作能力,但幾乎可以肯定,未來的人工智能將在每一種能力上都遠遠超過人類,甚至在綜合或整體能力上也遠遠超過人類,但這絕非真正的危險所在。
事實上,當前,包括汽車、飛機在內的各種機器,每一樣機器在各自的特殊能力上都遠遠超過人類,因此,在能力上超過人類的機器從來都不是一件多新鮮的事情。水平遠超人類圍棋能力的AlphaGo沒有任何威脅,只是一個有趣的機器人而已;自動駕駛汽車也不是威脅,只是一種有用的工具而已;人工智能醫(yī)生更不是威脅,而是醫(yī)生的幫手;即便是性能強悍的ChatGPT也只是改變了人類的生活和工作方式,并引起了一定程度上的變革。
未來,即使將來有了多功能的機器人,也不是威脅,而是新的勞動力。超越人類能力的機器人正是人工智能的價值所在,并不是威脅所在。
任何智能的危險性都不在其能力,而在于意識。人類能夠控制任何沒有自我意識的機器,卻難以控制哪怕僅僅有著生物靈活性而遠未達到自我意識的生物,比如病毒、蝗蟲和蚊子。
到目前為止,地球上最具危險性的智能生命就是人類,因為人類的自由意志和自我意識在邏輯上可以做出一切壞事。如果將來出現(xiàn)比人更危險的智能存在,那只能是獲得自由意志和自我意識的人工智能。一旦人工智能獲得自我意識,即使在某些能力上不如人類,也將是很大的威脅。
面對具有自我意識的超級人工智能出現(xiàn)的可能,Sutskever與OpenAI的科學家同事Jan Leike成立了一個團隊,專注于他們的“超級對齊”,即讓人工智能模型做人類想要它們做的事,僅此而已。
Jan Leike說:“現(xiàn)有的對齊方法不適用于比人類更聰明的模型,因為它們從根本上假設人類可以可靠地評估人工智能系統(tǒng)正在做什么,隨著人工智能系統(tǒng)變得更加強大,它們將承擔更艱巨的任務。”這將使人類更難評估它們。
這也讓我們更清楚的認識到一件事,那就是人工智能的潛力與風險,將比我們想象的更大,正如Sutskever所提出的一種瘋狂的未來,在人工智能時代,許多人甚至會選擇成為人工智能的一部分。
今天,人類已經進入了一個快速變化的時代,誰也不知道明天會發(fā)生什么,明天的世界會是什么模樣,而我們能做的,僅僅是以開放和謹慎的態(tài)度去迎接和解決未來AI的安全和可控性問題,并思考如何理解和接納這種新興技術,如何使其為公眾帶來福祉而不是困擾。
原文標題 : 陳根:ChatGPT已經有了意識,人類的明天很危險?
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
-
即日-10.29立即報名>> 2024德州儀器嵌入式技術創(chuàng)新發(fā)展研討會
-
10月31日立即下載>> 【限時免費下載】TE暖通空調系統(tǒng)高效可靠的組件解決方案
-
即日-11.13立即報名>>> 【在線會議】多物理場仿真助跑新能源汽車
-
11月14日立即報名>> 2024工程師系列—工業(yè)電子技術在線會議
-
12月19日立即報名>> 【線下會議】OFweek 2024(第九屆)物聯(lián)網產業(yè)大會
-
即日-12.26火熱報名中>> OFweek2024中國智造CIO在線峰會
推薦專題
- 高級軟件工程師 廣東省/深圳市
- 自動化高級工程師 廣東省/深圳市
- 光器件研發(fā)工程師 福建省/福州市
- 銷售總監(jiān)(光器件) 北京市/海淀區(qū)
- 激光器高級銷售經理 上海市/虹口區(qū)
- 光器件物理工程師 北京市/海淀區(qū)
- 激光研發(fā)工程師 北京市/昌平區(qū)
- 技術專家 廣東省/江門市
- 封裝工程師 北京市/海淀區(qū)
- 結構工程師 廣東省/深圳市