訂閱
糾錯
加入自媒體

谷歌慘遭泄密!內部文件曝出AI最大贏家

“谷歌不會是AI競爭中的贏家,OpenAI也不是!”

當?shù)貢r間周四,一份披露了這樣信息的谷歌內部文件在全網瘋傳,引起熱烈的討論。

俗話說,福無雙至,禍不單行。要問硅谷巨頭們這段時間誰最頭疼,那絕對非谷歌莫屬。

先不說自家的AI大模型巴德(Bard)姍姍來遲,差點沒趕上這波AI大潮。近日,“AI教父”杰弗里·辛頓(Geoffrey Hinton)宣布自己從谷歌離職,他對自己所從事的事業(yè)感到“深深地后悔”。并四處奔走相告“AI太可怕!人工智能很有可能演變成一場災難”。這讓谷歌一邊失去了“圖靈獎”大佬的技術和名望支撐,另一邊又陷入“AI威脅論”中不能自拔。

就在這份文件曝出的當天,谷歌、微軟、OpenAI和Anthropic的CEO與美國副總統(tǒng)卡瑪拉·哈里斯(Kamala Harris)和高級政府官員會面,討論關鍵的AI問題。也就是說這邊正開著會,谷歌那邊的內部文件就遭到了泄露,這怎么能不讓谷歌一個頭兩個大。

據悉,這份文件來自于谷歌的一名工程師。他在文件中直言不諱地說,“我們沒有護城河,OpenAI 也沒有”。他認為在這場空前激烈的AI競爭中,谷歌正在失去先前作為AI領軍人物的地位。但這并不意味著“風頭正勁”的OpenAI會是最后贏家,因為他們都還沒意識到一股強大的第三方力量正在崛起——AI開源社區(qū)。

根本沒有所謂的“護城河”

谷歌發(fā)愁不難理解。一個是愁這樣的言論會不會影響公司形象,影響股價;另外一個是意識到此言非虛。AI開源社區(qū)比他們預想的發(fā)展速度要快很多。

自誕生之日開始,OpenAI就宣布GPT不會開源,你如果想用上這項技術,就來跟我合作?烧l也沒想到,“二五仔”Meta狠狠的助攻了一把。

Meta開發(fā)的LLaMA(大羊駝)大模型,還沒捂熱乎就因為泄露而走上了開源的道路。這下可不要緊,直接引爆了開源社區(qū),讓那些被高昂訓練成本筑成的“護城河”拒之門外的各路開發(fā)者,紛紛大展拳腳。Meta真不愧是AI界的神獸……

其中斯坦福最先發(fā)布了一個由LLaMA 7B微調的模型Alpaca,訓練3小時,性能就比肩GPT-3.5。之后經過指令跟隨微調的開源大語言模型如雨后春筍一般大量涌現(xiàn),如在樹莓派 4B 上運行 LLaMA 模型、在筆記本上對 LLaMA 指令微調、在 MacBook 上跑 LLaMA 等。大模型的開發(fā)門檻已經從一個主要研究機構下降到一個人、一個晚上和一臺強大的筆記本電腦。

雖然LLaMA本身存在一定缺陷,但是開源之后快速的迭代速度能逐漸補完模型。

最近,由UC伯克利主導的LMSYS Org發(fā)布了大語言模型排行榜,來比較熱門的大語言模型實力究竟如何。

其中UC伯克利自己推出的Vicuna-13B擁有130 億參數(shù),以 1169 分穩(wěn)居第一。同樣 130 億參數(shù),與Vicuna師出同門的Koala(考拉)位列第二,LAION 的 Open Assistant 排在第三。清華推出的 ChatGLM只有60 億參數(shù),但依然沖進了前五,只比 130 億參數(shù)的 Alpaca 落后了 23 分。而Meta 原版的 LLaMa 只排到了第八(倒數(shù)第二)。

這個排行榜非常有力地佐證了文件中提到的,開源開發(fā)者可以用100美元和130億參數(shù),去做谷歌和OpenAI用1000萬美元和540億參數(shù)都做不到的事情。甚至于做到這些不需要幾個月時間,幾周就夠了。

“大模型正在拖累谷歌,從長遠來看,最好的模型是那些可以快速迭代的模型。”谷歌工程師如是說道。

開源社區(qū)可怕的發(fā)展和迭代速度,讓這些巨頭引以為傲的“堅不可摧的護城河”顯得那么可笑……

領先優(yōu)勢不再,谷歌為哪般?

谷歌布局AI不可謂不早,成果更是卓著。2014年谷歌收購人工智能公司DeepMind,2016年谷歌宣布從“Mobile First” 轉向“ AI First”戰(zhàn)略,AI逐步成為谷歌戰(zhàn)略版圖中最重要的一塊。同年DeepMind發(fā)布了轟動一時的AlphaGo,一度成為未來AI的代名詞。

但這位“先驅者”卻在新一波AI浪潮里被搶占先機,這難免讓人有些沉不住氣。

谷歌內部的權力斗爭、監(jiān)管機構的監(jiān)督、來自員工的施壓都讓現(xiàn)任CEO皮查伊難敵其擾。而錯失AI先機,跟谷歌被內憂外患包圍,和高層的謹小慎微不無關系。這次的泄密事件,不亞于響徹他們頭頂?shù)囊宦曊ɡ住?/p>

雖然谷歌發(fā)言人稱泄露的文件并不是公司的官方戰(zhàn)略文件,但是其中討論的問題卻是谷歌不得不面臨的挑戰(zhàn)。

面對來勢洶洶的開源大模型,本就不怎么有優(yōu)勢的谷歌該做些什么?

謀求瘦身。谷歌正在規(guī)劃其自身AI項目的體積和機構,據稱谷歌已經削減了其內部孵化器 Area 120 中絕大部分,只留下了三個。

擴大測試基數(shù)。昨天晚些時候,微軟宣布徹底開放Bingchat給公眾使用,取消候補名單機制。并承諾后續(xù)蔣開放多模態(tài)能力和插件調用功能。緊接著,谷歌也坐不住了。今天就宣布將 Trusted Tester  測試計劃的用戶規(guī)模擴大10倍,讓更多的用戶參與測試。

而在即將舉行的2023 I/O大會上,谷歌計劃將生成式 AI 聊天機器人 Bard 以小部件的形式,引入到 Pixel 系列手機中,這樣用戶就不需要通過 Chrome 等瀏覽器就能訪問 Bard。這個 Bard 小部件是 Pixel 8 系列和即將推出的 Pixel Tablet 平板的獨占功能。

這種種動作都似乎表明了谷歌在尋求更有效的方法,在競爭中保持戰(zhàn)斗力。和開源社區(qū)直面競爭絕對是虧本買賣,現(xiàn)在能做的就是向他們學習。善加利用低秩矩陣微調方法(LoRA),密切關注開源社區(qū)的動向,避免在后面的開發(fā)過程中重蹈覆轍……

“當免費的、不受限制的替代品有著同等質量時,人們不會為受限制的產品付費!边@是這場AI競賽里,每個人都該牢記的隱形規(guī)則。

聲明: 本網站所刊載信息,不代表OFweek觀點?帽菊靖寮,務經書面授權。未經授權禁止轉載、摘編、復制、翻譯及建立鏡像,違者將依法追究法律責任。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網
獲取更多精彩內容
文章糾錯
x
*文字標題:
*糾錯內容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網安備 44030502002758號