訂閱
糾錯
加入自媒體

谷歌AI竟然教唆網(wǎng)友自殺?被質(zhì)疑,被批評的谷歌AI究竟路在何方?

2024-05-28 09:34
新火種
關(guān)注

作者:小巖

編輯:彩云

最近,谷歌的日子不太好過。

以O(shè)penAI,Meta,微軟為代表的AI巨頭公司們正忙著大殺四方,不斷更新和迭代自己的AI模型;而谷歌這邊,不僅沒辦法推出足以戰(zhàn)勝競爭對手的新一代產(chǎn)品,就連現(xiàn)有的AI模型也飽受質(zhì)疑和諷刺,如今,更是有“谷歌AI教唆網(wǎng)友自殺”的負面消息傳出。

AI Overview頻頻展現(xiàn)bad case,最夸張的竟然還教唆網(wǎng)友自殺?

近日,有網(wǎng)友心情感到沮喪,他向谷歌AI Overview求助,卻被告知“建議從金門大橋跳下去”。不知道AI Overview是不是想“一勞永逸”的解決情緒低落的問題,但很顯然,這個“地獄笑話”開得非常的不合時宜。

事實上,谷歌AI Overview的翻車遠不止這一次。有網(wǎng)友向它提問,“如何不讓芝士從披薩上面滑落”,它給的答案是,“給披薩加點料——膠水。給醬汁中加入八分之一的無毒膠水,可以使其更粘稠,有助于芝士粘附”?墒聦嵣,這個參考答案最早可以追溯到11年前的Reddit帖子,是網(wǎng)友玩的一個梗?梢夾I Overview學(xué)藝不精,知識都學(xué)雜了。

除此以外,AI Overview還建議網(wǎng)友,吃有毒的蘑菇,殺人,跳橋等,給出了各種震碎三觀的回答。

在援引文獻方面,AI Overview有時候的做法也很令人匪夷所思。

有網(wǎng)友對其發(fā)問,“每天應(yīng)該多吃多少石頭”,AI Overview不僅不加以制止,還會引用UC伯克利地質(zhì)教授給出的建議“每天至少吃一塊小石頭”。    

對于不明真相的用戶來說,這種看上去有權(quán)威人士說明,有相關(guān)資料和細節(jié)說明的答案,是妥妥的優(yōu)質(zhì)文本,或許還真有可能去嘗試每天吃石子。但事實是,ResFrac發(fā)布這篇文章的原因只是想轉(zhuǎn)發(fā)洋蔥報(the Onion)上的諷刺內(nèi)容。這也在無意中暴露了谷歌 AI Overview識別諷刺內(nèi)容能力較弱的短板。事實上,AI Overview經(jīng)常會把互聯(lián)網(wǎng)上的諷刺內(nèi)容當(dāng)事實,諸如拿著剪刀跑步會增加運動量,提升心率等。

從Bard到AI Overview,對谷歌的質(zhì)疑,批評,群嘲從未停止...

其實谷歌所經(jīng)歷過的質(zhì)疑遠不僅僅是在AI Overview上,它于去年推出的AI模型Bard同樣飽受爭議。

去年12月,就在AI聊天機器人ChatGPT3.5對外發(fā)布幾周后,谷歌就意識到了危機的存在,CEO Sundar Pichai立刻對內(nèi)發(fā)出了“紅色警報”。他2015年正式執(zhí)掌谷歌,1年后就提出“AI第一”,讓谷歌成為在AI領(lǐng)域投入最堅決的科技巨頭。但ChatGPT的破圈,仿佛是一個莫大的諷刺,讓外界覺得他這些年似乎什么都沒做。

為了平息外界的質(zhì)疑,并且在進度上全面趕超OpenAI,Pichai和谷歌做出了一個十分兵荒馬亂的決定:讓Bard盡快上馬。    

所謂Bard,就是由谷歌推出的一款致力于對標(biāo)ChatGPT的AI對話產(chǎn)品。

在發(fā)布會上,谷歌播放了一段展示視頻——問:“詹姆斯·韋伯太空望遠鏡有什么新發(fā)現(xiàn),值得我告訴我9歲的孩子?”Bard給出了三段回答,其中一段是:“望遠鏡拍攝了第一張?zhí)栂低庑行堑恼掌?rdquo;

但很快有人發(fā)現(xiàn),第一張?zhí)栂低獾男行钦掌臄z于2004年,在NASA官網(wǎng)可查。

在發(fā)布會上掉鏈子,讓谷歌成為了一個莫大的笑話。接著,更多的Bard試用者開始吐槽。推特上有一條高贊用戶評論:“看到谷歌的產(chǎn)品后,我不擔(dān)心AI的威脅了。”

除此之外,二級市場也很快給出了反饋。Bard發(fā)布當(dāng)天的一次回答錯誤,就讓谷歌母公司Alphabet市值減少了1000億美元。在這種情況下,谷歌行業(yè)的競爭對手微軟還在“捅刀”,它極力將自己塑造為搜索行業(yè)顛覆者。微軟CEO Satya Nadella在一場電話會議上表示,“融入了ChatGPT后,Bing在搜索市場的份額正在增長”,妥妥的打了谷歌的臉。    

早早進入AI賽道深耕,為何交出的答卷如此不理想?

谷歌算是把握住先機,較早進入到AI領(lǐng)域的科技巨頭了。但尷尬的是,近10年過去了,谷歌始終都沒有拿出過真正顛覆性的AI產(chǎn)品。究其原因,很可能有兩大致命因素:保守和遲鈍。

谷歌的前產(chǎn)品經(jīng)理就曾透露過,“谷歌顧慮很多,非常害怕公司聲譽受損……他們傾向于保守主義”。

谷歌的保守在于它永遠披著一層倫理捍衛(wèi)者的外衣,習(xí)慣性的在做政治正確的事情,它不斷向外界傳遞“AI很危險”的論調(diào)。2018年,谷歌發(fā)布《人工智能原則》,強調(diào)AI研發(fā)必須有益于社會,反對歧視等。甚至在谷歌內(nèi)部,也始終把AI倫理歸為敏感問題。

根據(jù)知情人士透露,早在2017年,谷歌就研發(fā)了一款對話式AIGC產(chǎn)品——LaMDA。當(dāng)時谷歌內(nèi)部評估了LaMDA的風(fēng)險,認為它不時犯錯,會誤導(dǎo)用戶,讓用戶對谷歌產(chǎn)生不信任感。而谷歌的主業(yè)之一搜索引擎的宗旨就是致力于幫助用戶找到正確答案,AIGC被認為有可能動搖公司的根基。對于大公司而言,存在這樣的顧慮也是正常的。因為大公司會害怕產(chǎn)品不完善,會犯錯。

而ChatGPT的橫空出世,直接拉高了門檻,給予了用戶一個較高的標(biāo)準。當(dāng)然,這并不意味著ChatGPT就是完美的,它也會給出很多錯誤,甚至是離譜的答案。但作為一家非上市的初創(chuàng)企業(yè),OpenAI顯然不會像谷歌一樣的瞻前顧后。他們大膽的將一個全新的產(chǎn)品推給了公眾,由此把握住了先機。    

而相比于保守,谷歌在技術(shù)上的遲鈍就不可理解了。據(jù)了解,谷歌和OpenAI都使用了模仿人類神經(jīng)網(wǎng)絡(luò)的機器學(xué)習(xí)技術(shù),但路線上略有區(qū)別。谷歌采用監(jiān)督式學(xué)習(xí)模型,OpenAI采用預(yù)訓(xùn)練模型;谷歌更強調(diào)干預(yù),而OpenAI先讓ChatGPT自主學(xué)習(xí),隨后再引入人工標(biāo)注語料進行訓(xùn)練和引導(dǎo)。這更像一場在黑暗中進行的軍備競賽。直到2018年,馬斯克還認為谷歌領(lǐng)先于OpenAI。但一切都在潛移默化中發(fā)生了變化。除此之外,谷歌還陸續(xù)失去了這場軍備競賽中最重要的資產(chǎn):人才。隨著科技巨頭間AI軍備競賽的大幕徐徐拉開,已至少有13位人工智能領(lǐng)域明星級人才離開了谷歌,其中包括預(yù)訓(xùn)練語言模型的負責(zé)人Jacob Devlin,而他最后選擇加入了OpenAI。

不過,10年的時間既漫長,又短暫。畢竟,對于AI賽道的競爭是一場毋庸置疑的持久戰(zhàn)。谷歌是會就此隕落,還是會在未來的某個契機上實現(xiàn)彎道超車?我們拭目以待。

       原文標(biāo)題 : 新火種AI|谷歌AI竟然教唆網(wǎng)友自殺?被質(zhì)疑,被批評的谷歌AI究竟路在何方?

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標(biāo)題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號