訂閱
糾錯
加入自媒體

國內(nèi)大模型在局部能力上已超ChatGPT國內(nèi)大模型在局部能力上已超ChatGPT

 中文大模型正在后來居上,也必須后來居上。

@數(shù)科星球原創(chuàng)

作者丨苑晶編輯丨大兔

從GPT3.5徹底出圈后,大模型的影響力開始蜚聲國際。一段時間內(nèi),國內(nèi)科技公司可謂被ChatGPT按在地上打,毫無還手之力。

彼時,很多企業(yè)還不知大模型為何物,GPT3.5就已夠生成諸如營銷文案、小說、詩歌等高質(zhì)量的中文文本。一時間,買課小販、租號中間商和套殼開發(fā)者大行其道。

現(xiàn)如今,在國內(nèi)廠商嚴(yán)肅對待OpenAI后,情況發(fā)生了變化。

在公開資料中,就有360、復(fù)旦大學(xué)、科大訊飛等企業(yè)表達(dá)了在中文能力上超越ChatGPT的消息,F(xiàn)在,時間進(jìn)入2023年8月份,號稱超越國外競品的公司變得越來越多。

01

中文模型進(jìn)擊:ChatGPT“不香”了

客觀地說,在GPT-3推出后,OpenAI曾經(jīng)在中文文本輸出中占得先機(jī)。其一經(jīng)推出,便可覆蓋諸如營銷文案、小說和詩歌等領(lǐng)域的文生文需求。幾個月前,這種先手優(yōu)勢養(yǎng)活了國內(nèi)一眾賣課達(dá)人、租號團(tuán)隊以及套殼聊天機(jī)器人產(chǎn)品。

不過,很快,這些功能便被國內(nèi)眾多廠商超越,變成了大模型的“標(biāo)配”功能。

根據(jù)第三方監(jiān)測機(jī)構(gòu)SimilarWeb的數(shù)據(jù)顯示,ChatGPT從4月開始就呈現(xiàn)出了明顯放緩的趨勢。以至于在2023年的第二季度,人們的朋友圈內(nèi)幾乎沒有了OpenAI的蹤影。在科技圈,這被歸結(jié)為競爭對手大批量涌入、垂直模型興起和新技術(shù)迭代所導(dǎo)致。

8月初,中文大模型的“千模大戰(zhàn)”已進(jìn)入白熱化階段。以數(shù)科星球(ID:digital-planet)團(tuán)隊所掌握的信息來看,越來越多的企業(yè)開始關(guān)注下沉市場、并致力于推進(jìn)具體行業(yè)和大模型產(chǎn)品的結(jié)合。

這種趨勢的結(jié)果是,可能會有更多的企業(yè)和機(jī)構(gòu)選擇使用本土產(chǎn)品,同時也對國外模型的市場份額造成一定影響。在數(shù)科星球(ID:digital-planet)團(tuán)隊體驗二十余款中文大模型后,所得到的觀感和上述言論趨同:即中文大模型正在變得越來越好用,并變得越來越聰明。

更為關(guān)鍵的是,政策層面對國內(nèi)產(chǎn)品的扶植力度正在加強(qiáng),而出于安全和自主可控等因素,ChatGPT的“沒落”(至少在國內(nèi))似乎已成板上釘釘。

但國內(nèi)廠商的野心還遠(yuǎn)不止“內(nèi)卷”國內(nèi)市場——一些公司已然將目光瞄準(zhǔn)了海外。

科大訊飛董事長劉慶峰此前表示,其星火大模型中文已超越ChatGPT,在英文中也已接近,雖還有細(xì)微差別,但目前在進(jìn)一步優(yōu)化中。

02

中文大模型變聰明的背后

為了探求國內(nèi)中文大模型的發(fā)展情況,在過去的幾個月中,數(shù)科星球(ID:digital-planet)團(tuán)隊與幾十家公司進(jìn)行了百余次溝通。結(jié)果是,科技圈的大佬和創(chuàng)業(yè)新星們對待OpenAI的態(tài)度嚴(yán)肅且認(rèn)真。

除了在產(chǎn)品上進(jìn)行了洗心革面式的改進(jìn),還對模型的評價體系進(jìn)行了優(yōu)化。

為了彌補(bǔ)中文大模型在評測領(lǐng)域的缺失,日前由清華大學(xué)、上海交通大學(xué)和愛丁堡大學(xué)合作構(gòu)建的面向中文語言模型的綜合性考試評測集于不久前推出,該評測名為C-Eval,受到了行業(yè)內(nèi)的廣泛關(guān)注。

在一些專業(yè)人士看來,此評測的初衷是用“錙銖必較”的方式找出中文大模型的比較優(yōu)勢。和以往由第三方咨詢公司所主導(dǎo)的、帶有傾向性甚至定制化的行業(yè)評比所不同的是,無論在過程和結(jié)果上,C-Eval更加透明和公開。

據(jù)了解,全套測驗包含13948道多項選擇題,涵蓋52個不同學(xué)科和四個難度級別。其中前四名包括為清華智譜的ChatGLM2、OpenAI的GPT-4、商湯的SenseChat,APUS的AiLMe-100Bv1。

對比由微軟亞洲研究院(Microsoft Research Asia)開發(fā)的基準(zhǔn)測試AGIEval,C-Eval覆蓋的領(lǐng)域更廣。APUS技術(shù)專家張旭稱:“AGIEval只覆蓋了中國高考題、公務(wù)員考試題等幾個類別,而C-Eval覆蓋了注冊電氣工程師、注冊計量師……等領(lǐng)域”,覆蓋范圍的拓寬意味著,除高考、公務(wù)員考試等場景外,在其他特定職業(yè)領(lǐng)域也可以測定大模型的能力。

從另一個角度說,C-Eval是一個對大模型從人文到社科到理工多個大類的綜合知識能力進(jìn)行測評的競賽。通常,高階難度測試是考驗大模型性能的關(guān)鍵動作,面對復(fù)雜且有挑戰(zhàn)性的任務(wù),大多大模型性能會大幅下降。在C-Eval公布的評比結(jié)果中,APUS的AiLMe-100Bv1除了在平均分上進(jìn)入四強(qiáng),還在難題處理方面超越GPT-4*,排名第一。

據(jù)悉,C-Eval Hard(難題)類別是首個提供中文復(fù)雜推理能力的測試,“即便是GPT-4來做這個題也會很吃力,”張旭提及,“這是‘閉卷考試’,而以往如AGIEval和MMLU是‘開卷考試’,也就是說,AGIEval和MMLU是各公司自己測試、自己打分、自己公布成績,而C-Eval Hard的評比顯然更加客觀、可信。”

的確,C-Eval測評難度比其他測評更高且更嚴(yán)格。在打分流程上,C-Eval更像是學(xué)校中為學(xué)生準(zhǔn)備的大考模式,各個公司參加統(tǒng)一考試并由系統(tǒng)自動打分、C-Eval團(tuán)隊人工審核成績并公布,所以,就結(jié)果上看,其測評所公布的成績真實性更高。

03

國內(nèi)大模型的未來

放眼行業(yè),大模型對于國內(nèi)人工智能產(chǎn)業(yè)的意義非凡。

在NLP行業(yè)出現(xiàn)范式變革后,Transformer為主導(dǎo)的新一代通用大模型產(chǎn)品大行其道,讓人們看到了AGI的曙光。甚至可以說,中國版的ChatGPT3.5/4.0的問世是我國正式邁向人工智能時代的重要標(biāo)志。

在過去,一、二級資本市場對國內(nèi)大模型產(chǎn)業(yè)意見頗多。討論最多的是,國內(nèi)公司沒有在前沿技術(shù)投入太多,反而將精力側(cè)重于“蹭”數(shù)字人、AIGC等概念之上。

客觀地說,上述評價不無道理,其中不乏因大環(huán)境不好,企業(yè)對前沿投入審慎和相關(guān)技術(shù)積累薄弱等問題所導(dǎo)致。

但近期,隨著數(shù)科星球(ID:digital-planet)對大模型行業(yè)認(rèn)識的深入,以上問題正在得到改變:首先,以智源研究院、百度文心一言、商湯和APUS等企業(yè)的持續(xù)投入,我國已有多家企業(yè)具備大模型制作和運(yùn)營能力(此前大多為小模型);其次,隨著上半年密集的模型發(fā)布大會逐漸落幕,新模型開始迭代積累,并向著ChatGPT能力靠攏。

在我們所知的大模型產(chǎn)業(yè)上下游企業(yè)中,針對數(shù)據(jù)處理、清洗、標(biāo)注、模型訓(xùn)練、推理加速等方面的技術(shù)也正在加速追趕之中;最后,政策層面已注意到發(fā)展大模型和ChatGPT的必要性,開始著手調(diào)集更多資源應(yīng)對,相關(guān)生態(tài)和創(chuàng)新土壤也正在完備的過程中。

可以肯定的是,本次人工智能革命的核心就是通用大模型。目前,我國眾多企業(yè)正在加速追趕。

現(xiàn)在,超越ChatGPT已成為國內(nèi)AI從業(yè)者們心中的圖騰。想必若假以時日,這個目標(biāo)將有機(jī)會實現(xiàn)。而到那時,一個屬于人工智能時代的大幕才徹底拉開。

       原文標(biāo)題 : 國內(nèi)大模型在局部能力上已超ChatGPT國內(nèi)大模型在局部能力上已超ChatGPT

聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標(biāo)題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號