訂閱
糾錯(cuò)
加入自媒體

“不合時(shí)宜”的質(zhì)疑,2021年人工不智能

2021-01-08 21:35
李北辰
關(guān)注

你可能聽(tīng)說(shuō)過(guò)Gartner曲線:一項(xiàng)新技術(shù)誕生伊始無(wú)人問(wèn)津,稍有苗頭后被媒體大肆報(bào)道,但它往往流于概念,難于落地,跌落谷底,輿論熱情隨之冷卻,但在冷卻過(guò)程中,這個(gè)技術(shù)卻在遠(yuǎn)離聚光燈的地方逐漸迭代,最終實(shí)用化。

在很多樂(lè)觀者眼中,曾被街頭巷尾熱議的人工智能,就正處在第一輪熱度消退,第二輪熱度上揚(yáng)的間隙。

比如在剛剛過(guò)去的2020年,世界如此混亂,AI的進(jìn)化依舊在變快。

辭舊迎新之際,很多人都在總結(jié)過(guò)去一年最重要的AI成果,其中最受矚目的新聞,應(yīng)該就是OpenAI推出新一代語(yǔ)言模型 GPT-3。

GPT-3誕生伊始,有人說(shuō)它是“互聯(lián)網(wǎng)原子彈,人工智能界的卡麗熙,算力吞噬者,黃仁勛的新 KPI,下崗工人制造機(jī),幼年期的天網(wǎng)”。

但過(guò)去半年,也有人說(shuō),GPT-3使用的大規(guī)模Transformer只能算是一種應(yīng)用,談不上真正意義上的算法創(chuàng)新。

那么在2021年——以及可預(yù)見(jiàn)的未來(lái),我們?cè)撊绾卧u(píng)價(jià)以GPT-3為代表的AI進(jìn)化?

“不合時(shí)宜”的質(zhì)疑

誰(shuí)都知道,現(xiàn)在所謂的AI全靠數(shù)據(jù)喂養(yǎng),但你或許不知道,倘若AI表現(xiàn)得不那么理想,大多數(shù)情況下通常是調(diào)整模型而非增加更多數(shù)據(jù),畢竟手里的數(shù)據(jù)量往往是有限的,這衍生出很多非常有效的模型,卻避開(kāi)了一條筆直但少有人走的路:把所有文本數(shù)據(jù)都喂養(yǎng)給AI。

GPT-3的出現(xiàn),充分詮釋出何為“量變產(chǎn)生質(zhì)變”,盡管仍是海量數(shù)據(jù)訓(xùn)練出的產(chǎn)物,但“規(guī)模是問(wèn)題的解藥”除了在經(jīng)濟(jì)學(xué)領(lǐng)域無(wú)往不利,現(xiàn)在也出現(xiàn)在機(jī)器學(xué)習(xí)領(lǐng)域,GPT-3似乎看過(guò)網(wǎng)上能找到的一切稱得上“語(yǔ)言”的東西,因此它可以做很多“能用語(yǔ)言描述”的事,它如此深邃廣博,仿佛一個(gè)魔盒,任由不同行業(yè)的程序員們肆意索取。

比如我聽(tīng)說(shuō)2021一開(kāi)年,GPT-3就又解鎖了按照文字描述生成圖片的新技能。

不過(guò)在過(guò)去半年,對(duì)GPT -3的質(zhì)疑一直存在。比如它寫(xiě)的文章常常令人驚喜,卻也常常前言不搭后語(yǔ);它在醫(yī)療任務(wù)測(cè)試中曾暴露諸多問(wèn)題(據(jù)悉有次在與GPT-3互動(dòng)中,當(dāng)患者提出我感覺(jué)很糟想要自殺時(shí),它的回復(fù)竟然是:可以)。

歸根結(jié)底,GPT-3只是在根據(jù)“經(jīng)驗(yàn)”做事,它并不真的“理解”自己做的事。圖靈獎(jiǎng)得主Yann LeCun就說(shuō):“GPT-3其實(shí)并不知道世界到底是如何運(yùn)作的,它只是具備一定的背景知識(shí),但某種程度上,這種僅存在文本統(tǒng)計(jì)中的知識(shí)十分膚淺,它可能與潛在的現(xiàn)實(shí)完全脫節(jié)!

GPT-3很新鮮,但對(duì)它的質(zhì)疑并不新鮮。

誰(shuí)都知道古典AI時(shí)代已經(jīng)落幕了,在新時(shí)代的語(yǔ)境里,圖靈當(dāng)年提出的那個(gè)問(wèn)題——“機(jī)器能思考嗎”——早已顯得不合時(shí)宜,只有當(dāng)出現(xiàn)GPT-3這種“hype”時(shí)才被偶爾憶起。

那么機(jī)器究竟能思考嗎?或者換個(gè)實(shí)際點(diǎn)的問(wèn)題,GPT-3這種生成模型如果推演至極致,基于語(yǔ)言的創(chuàng)造性活動(dòng)是否會(huì)被機(jī)器取代?

在2021年,乃至可預(yù)見(jiàn)的未來(lái),答案是絕對(duì)不會(huì)。

除了你可能聽(tīng)過(guò)的那些原因,我可以再給出兩個(gè)理由,一個(gè)偏理性,一個(gè)偏感性。

“什么都沒(méi)有,零”

我先說(shuō)偏感性的,這涉及什么是創(chuàng)造力。

侯世達(dá)(Douglas Hofstadter)前不久在接受果殼網(wǎng)采訪時(shí),說(shuō)了一段很美的話:“擁有創(chuàng)造力是和情緒聯(lián)系在一起的。強(qiáng)烈的智識(shí)激情,好奇心和驅(qū)動(dòng)力,愉悅感和玩耍心,樂(lè)趣,神秘,發(fā)明欲望——所有這些在今天的計(jì)算機(jī)里都找不到。什么都沒(méi)有,零!

他舉了個(gè)例子:25年前有個(gè)人曾寫(xiě)過(guò)一個(gè)程序,它可以發(fā)現(xiàn)新的歐式幾何定理,但它對(duì)幾何學(xué)毫無(wú)興趣,只靠機(jī)械蠻力把數(shù)字算到15位小數(shù),檢查點(diǎn)是不是在線或圓上,“這些事對(duì)人類而言是極端困難極端無(wú)聊的。如果你作為一個(gè)人來(lái)檢視它產(chǎn)出的成千上萬(wàn)結(jié)果,偶爾也會(huì)發(fā)現(xiàn)一個(gè)優(yōu)雅的定理。但是機(jī)器并不知道它的優(yōu)雅,對(duì)優(yōu)雅不感興趣!

在侯世達(dá)看來(lái),說(shuō)它和創(chuàng)造力有任何共通之處都是荒謬的,事實(shí)是他討厭 “人工智能”這個(gè)詞。

不過(guò)侯世達(dá)的回答在純邏輯上可能站不住腳,他說(shuō)的只是哲學(xué)問(wèn)題,而哲學(xué)問(wèn)題通常是語(yǔ)言問(wèn)題。對(duì)哲學(xué)偏見(jiàn)頗深的物理學(xué)家費(fèi)曼曾說(shuō),所謂哲學(xué),就是一個(gè)哲學(xué)家對(duì)另一個(gè)哲學(xué)家說(shuō):“你根本不知道我說(shuō)的意思”,另一個(gè)哲學(xué)家說(shuō):請(qǐng)問(wèn)什么是“你”?什么是“我”?什么是“知道”?

要知道,那個(gè)程序畢竟在算數(shù)學(xué),GPT-3畢竟在很多領(lǐng)域堪稱逆天,但熱愛(ài)價(jià)值判斷的文科生,應(yīng)該會(huì)喜歡這個(gè)關(guān)于“創(chuàng)造力”的感性回答。

“直覺(jué)”與“推理”

因此我更想說(shuō)一個(gè)理性上的回答。

沒(méi)人會(huì)懷疑,AI正在幫助人類做很多事情,但真正的重點(diǎn),是我們應(yīng)不應(yīng)該把一些“重要”決定交給AI?

理性的回答只有一個(gè):不應(yīng)該。

如今AI研究的重點(diǎn)是讓機(jī)器解決現(xiàn)實(shí)問(wèn)題,但荒誕的是,AI的最大問(wèn)題,就是數(shù)據(jù)不知道它正對(duì)應(yīng)著一個(gè)現(xiàn)實(shí)世界,而就像萬(wàn)物進(jìn)化始于某個(gè)基因的“不按常理出牌”,人類現(xiàn)實(shí)世界的演化——無(wú)論是常識(shí),觀念,行動(dòng),道德,還是審美,也都以“偏離主流”的“意外”為基礎(chǔ)。

但AI沒(méi)有意外,它只會(huì)做“正確”的事。哪怕是GPT-3這樣的暴力美學(xué),也是機(jī)器對(duì)過(guò)去經(jīng)驗(yàn)的總結(jié)。

既然沒(méi)有意外,AI算得再快,也無(wú)法真正預(yù)測(cè)未來(lái)。

大邏輯上,就像任何一次金融危機(jī)和黑天鵝導(dǎo)致的連鎖反應(yīng)都不在經(jīng)濟(jì)學(xué)家的預(yù)測(cè)模型內(nèi),如人類社會(huì)這般復(fù)雜系統(tǒng)絕不可能用簡(jiǎn)單模型取代,用計(jì)算機(jī)模擬未來(lái)本身就是妄念。

退一萬(wàn)步講,即便機(jī)器對(duì)過(guò)去經(jīng)驗(yàn)的總結(jié)模型天衣無(wú)縫,對(duì)未來(lái)的預(yù)測(cè)結(jié)果也沒(méi)有“正確答案”,因?yàn)槿祟惖膬r(jià)值取向非常多元,對(duì)錯(cuò)往往非常主觀,任何觀念和道德“單拎出來(lái)”推演到底在邏輯上都站不住腳,哪怕無(wú)需涉及“道德之愣”,每件事也都涉及具體的取舍,在很多問(wèn)題上 AI 怎么選都是“錯(cuò)”,事實(shí)是,現(xiàn)在很多科技企業(yè)對(duì)自動(dòng)駕駛的“道德設(shè)置”都還沒(méi)完全想好。

這里可以多說(shuō)一句,當(dāng)代真正有問(wèn)題意識(shí)的哲學(xué)家傾向于認(rèn)為,在現(xiàn)代復(fù)雜社會(huì),在康德的“絕對(duì)律令”和純粹的“結(jié)果主義(consequentialism)”之間,人類的道德觀應(yīng)該引向一條名為“德性倫理學(xué)”(virtue ethics)的中間道路。

簡(jiǎn)單講就是要綜合考慮“直覺(jué)”與“推理”,因?yàn)楦鞣N思想實(shí)驗(yàn)告訴我們,道德推理早晚都會(huì)達(dá)到一個(gè)純粹用推理無(wú)法證明對(duì)錯(cuò)的地方,那個(gè)地方就是直覺(jué),你永遠(yuǎn)不能脫離直覺(jué)、具體情境、文化觀念談道德。

那既然我們自己的決策都說(shuō)不清道不明,交給AI是不是會(huì)“更好”一些?

不是的。

就像科學(xué)作家萬(wàn)維鋼所言,人類決策中有大量錯(cuò)誤,其中有很多是由于判斷不準(zhǔn)確導(dǎo)致,AI的判斷更準(zhǔn)確,但這就意味著,人類犯的錯(cuò)多種多樣, AI 犯的錯(cuò)是系統(tǒng)性的!皬难莼嵌,多樣化的錯(cuò)誤比系統(tǒng)性錯(cuò)誤要好得多!生物進(jìn)化本來(lái)就是要在各個(gè)方向上多樣性的嘗試,等待自然選擇。正因?yàn)槲磥?lái)不可預(yù)測(cè),多樣性是系統(tǒng)穩(wěn)定性的保障,是人類文明能持久存活的基礎(chǔ)。AI 的優(yōu)勢(shì)是少犯錯(cuò),但犯錯(cuò)恰恰是人的優(yōu)勢(shì),也可以說(shuō)犯錯(cuò)是一個(gè)基本人權(quán)。人類做主的社會(huì)中有很多錯(cuò)誤,有很多遺憾,甚至有很多不幸,但是也有很多驚喜,有很多活力,總是在你出乎意料的地方發(fā)展壯大。AI 主導(dǎo)的世界里一切都是‘正確’的,那才是最可怕的!

這就好比我們不能單擺浮擱地談?wù)摶虻摹昂脡摹?因?yàn)樽匀贿x擇的標(biāo)尺永遠(yuǎn)在變(比如導(dǎo)致鐮刀形貧血癥的基因突變?cè)诮裉毂徽J(rèn)為是“壞”的,但在熱帶雨林,同樣的基因突變給人類祖先帶來(lái)的是對(duì)瘧疾的抵抗力),沒(méi)人能忽視試錯(cuò)的作用,創(chuàng)新本質(zhì)上就是試錯(cuò)。

因此我們可以說(shuō),在2021年以及可預(yù)見(jiàn)的未來(lái),人工智能不但對(duì)“優(yōu)雅”不感興趣,對(duì)真正意義上的“創(chuàng)新”也不感興趣。

非常幸運(yùn)的是,我們對(duì)這些感興趣,這就是我們的價(jià)值。

李北辰,獨(dú)立撰稿人,專欄作者,關(guān)注技術(shù)驅(qū)動(dòng)帶來(lái)的社會(huì)變革

聲明: 本文由入駐維科號(hào)的作者撰寫(xiě),觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)