訂閱
糾錯
加入自媒體

AI 3D創(chuàng)作來了?“搶飯碗”成真

2023-05-04 17:22
VR陀螺
關(guān)注

文/VR陀螺?元橋

VR一直都以輕量化內(nèi)容為主,缺重度內(nèi)容已久。

重度內(nèi)容相較于輕量化內(nèi)容更能滿足用戶的沉浸式體驗,以游戲為例,好的體驗感需要大量高精度3D素材,豐富的游戲角色和精美的畫面場景,在此基礎(chǔ)上增加空間感知與交互、玩法等。

傳統(tǒng)的建模方式不僅成本較高而且具備較高的門檻,同時人工建模領(lǐng)域優(yōu)秀的建模師稀缺,這也使成本再次上升。因此,業(yè)內(nèi)都在尋求高效且低成本的3D內(nèi)容生成方式。

近期,生成式AI爆火,從AIGC到3D模型,各大公司都開始自研或發(fā)布AI 3D創(chuàng)作解決方案。例如騰訊AI Lab提出自研3D虛擬場景自動生成解決方案,幫助游戲開發(fā)者以更低成本創(chuàng)造風格多樣、 貼近現(xiàn)實的虛擬城市,提升3D虛擬場景的生產(chǎn)效率。

生成式AI僅僅依靠一張圖片或者輸入關(guān)鍵文字就能轉(zhuǎn)化成3D模型,這種驚人的創(chuàng)作很快就讓人對這個領(lǐng)域產(chǎn)生了一連串的暢想:AI 3D創(chuàng)作真的要來了嗎?內(nèi)容創(chuàng)作者的飯碗還穩(wěn)嗎?以下將從VR內(nèi)容制作的兩個重要環(huán)節(jié):建模與渲染進行分析。

AI 3D建模正加速到來

3D素材是包括游戲、影視、社交等所有3D應(yīng)用的基石,如果可以通過輸入文本快速生成三維模型,3D建模師就可以結(jié)合這項技術(shù)提高工作的效率,達到降本增效的效果,而海量的3D素材無疑會進一步推動VR的發(fā)展。

前面也提到由于人工建模需要花費大量的時間和成本,因此很難滿足AR/VR對3D素材的需求。若想推動元宇宙產(chǎn)業(yè)快速發(fā)展,海量的3D素材少不了,這也是為什么各大企業(yè)都在紛紛研發(fā)結(jié)合AI創(chuàng)建3D建模的技術(shù)。

2022年谷歌曾發(fā)表過一篇論文《DreamFusion:Text-To-3D Using 2D Diffusion》,詳細概述了“DreamFusion”。簡單來看,“DreamFusion”是先使用一個預訓練2D擴散模型(如Imagen)基于文本提示生成多個視角的3D視圖,再依據(jù)NeRF(神經(jīng)輻射場)重建。

NeRF與Imagen互相影響,沒有一個訓練得比較好的NeRF,Imagen很難生成連貫的多視角圖;反之,就得不到好的NeRF。于是作者提出NeRF和Imagen來回迭代的方法。這種來回迭代有個缺陷是耗時,如來回迭代15000次,生成一個模型就需要在4塊TPUv4上訓練1.5小時。

圖:3DNeRF和2D生成模型來回迭代優(yōu)化(來源:dreamfusion3d)

目前很多三維方法都是基于NeRF所生成的,這種方式生成的三維物體在效率、渲染、質(zhì)量上都有顯著的提升,但現(xiàn)階段還不能做結(jié)構(gòu)數(shù)據(jù),也就是Mesh,無法用來開發(fā)VR重度內(nèi)容。關(guān)于NeRF(神經(jīng)輻射場)詳細介紹,可以參閱VR陀螺近期文章《高效低成本構(gòu)建元宇宙場景:NeRF神經(jīng)輻射場》

?圖源:網(wǎng)絡(luò)

2022年,英偉達也發(fā)表了一篇關(guān)于《Magic3D:High-Resolution Text-to-3D Content Creation》的論文。文中闡述了生成式AI如何無需特殊培訓也可創(chuàng)建3D模型的過程。

隨著近期AIGC的爆火,Magic3D在業(yè)內(nèi)得到了極大的關(guān)注。也正因為看到Magic3D建模的效果,業(yè)內(nèi)人士普遍認為AI 3D創(chuàng)作真的要來了。

Magic3D將重建過程分成了兩部分,一是先使用低分辨率創(chuàng)建粗略的模型,到第二階段從粗神經(jīng)表示初始化的紋理網(wǎng)格模型,使用與高分辨率潛在擴散模型交互的高效可微的光柵化渲染器進行優(yōu)化。類似于DreamFusion使用文本到生成2D圖像,然后基于NeRF創(chuàng)建3D模型一般。

圖:Magic3D的兩階段優(yōu)化過程示意圖(來源:網(wǎng)絡(luò))

Magic3D還可以根據(jù)給定主題實例輸入圖像,使用DreamBooth微調(diào)擴散模型,并使用給定的提示優(yōu)化3D模型。

?

圖:在給定主題下根據(jù)提示進行模型優(yōu)化(來源:網(wǎng)絡(luò))

同時,只需要40分鐘左右,Magic3D就可以創(chuàng)建一個帶有彩色紋理的3D網(wǎng)格模型,相比DreamFusion快了2倍。

目前DreamFusion和Magic3D尚未開源,同時也未達到商業(yè)化的成熟度。AI創(chuàng)作對數(shù)據(jù)、算法有著極高的要求,而3D數(shù)據(jù)又具有天然的稀缺性,難收集等特點,即便有了龐大的數(shù)據(jù),AI如何從龐大的數(shù)據(jù)中學習創(chuàng)作也是一個問題;而從2D直接擴展到3D,也需要極大的計算量,如何加快優(yōu)化速度,如何撰寫正確的腳本都是需要解決的算法問題。

此外,AI 3D創(chuàng)作在落地場景、可行性的商業(yè)化路徑、技術(shù)風險等方面都尚無法達到工業(yè)化的生產(chǎn)標準,甚至還有很長一段路要走,據(jù)業(yè)內(nèi)預估可能五年或長達十年之久。但可以看到的是ChatGPT已經(jīng)可以根據(jù)一段文字描述進行編碼生成腳本,而GPT-5大模型也在籌備中了,就像互相迭代一樣,通過不斷地反饋更改,AI會變得越來越智能,所生成的編碼會逐步優(yōu)化升級,達到初步使用的需求。

一旦生成式AI的3D創(chuàng)作技術(shù)成熟,就可以加速VR游戲、視頻以及應(yīng)用程序的開發(fā)。屆時,或?qū)鉀QVR海量內(nèi)容需求的一大痛點。

AI實時渲染:技術(shù)仍有限

除了建模,VR內(nèi)容制作另一個重要環(huán)節(jié)便是渲染了。渲染對用戶體驗有直接的影響,一般在AR/VR場景中,為了能夠?qū)崿F(xiàn)靈活的交互方式和豐富的感官體驗,需要在內(nèi)容生產(chǎn)中提升配套的實時渲染能力。

相對于傳統(tǒng)的非實時渲染,實時渲染所見即所得,能夠更加直觀地看到輸出效果,方便制作人員進行調(diào)整。目前,人工智能已經(jīng)開始在實時運算渲染領(lǐng)域初顯本領(lǐng)了。

近期,海外一款名為ArkoAI的人工智能渲染器在設(shè)計創(chuàng)作領(lǐng)域得到了極大關(guān)注,以插件形式安裝在SketchUp、Rhino、Revit中。

使用者只需要輸入關(guān)鍵詞,僅幾秒就可以渲染出較好的效果圖;同時還可以將模型置于不同的場景中,即便是簡單的幾何形體也能渲染出效果圖。

ArkoAI的初衷是簡化設(shè)計師繁瑣的工作流程,但目前還只是一個簡單的AI生成器,生成的圖片大部分是關(guān)于建筑和室內(nèi)領(lǐng)域;同時,渲染水平也停留在比較初級的階段,對建筑風格和結(jié)構(gòu)的理解非常有限。前面也提到AI的核心是算法和數(shù)據(jù),在渲染層面亦是如此。

目前AI渲染還達不到真正的使用需求,同時在多次輸入相同關(guān)鍵詞的情況下,渲染的圖會逐漸變得模糊甚至走形,AI的“智能”程度仍然有限。

雖然還不能切入VR內(nèi)容的創(chuàng)作層面,但是這個風向標卻越來越清晰了。

在GTC 2023大會上,英偉達也針對AI視頻、圖像生成、大型語言模型、圖形渲染等推出了NVIDIA L40,旨在利用AI加速渲染,基于數(shù)據(jù)和神經(jīng)網(wǎng)絡(luò)訓練方法形成的自動化的材質(zhì)生產(chǎn)鏈路,具有高度還原離線材質(zhì)、速度快、且能夠快速迭代的優(yōu)勢。

此外,如前面提到的英偉達Magic3D也可以從文字描述中渲染出彩色紋理的3D網(wǎng)格模型,例如最近比較火的“一只坐在睡蓮上的藍色毒鏢蛙”。

圖:Magic3D 渲染的箭毒蛙 3D 模型(來源:網(wǎng)絡(luò))

Meta、微軟、谷歌等企業(yè)也都在投資實時3D渲染,在未來數(shù)年里,無論是AI渲染還是AI建模的技術(shù)都會比現(xiàn)在進化的更好,無疑會給3D創(chuàng)作帶來巨大的進步,也將會使創(chuàng)作環(huán)節(jié)變得更快、制作成本更低。

AI的觸角在3D創(chuàng)作設(shè)計領(lǐng)域延伸的越來越深,甚至日本已經(jīng)有企業(yè)開始采用AI作畫實現(xiàn)商業(yè)化運行了。從AI到AI 3D建模再到實時渲染,我們正在經(jīng)歷“技術(shù)改變創(chuàng)作領(lǐng)域甚至一切設(shè)計工作”這一場景。隨著研發(fā)深入,未來創(chuàng)作者直接輸入會變得更少,3D素材呈現(xiàn)巨量增長的態(tài)勢。

AI搶工作成定局?

在人工智能普遍成為各行各業(yè)的底層技術(shù)背景下,大家都在思考AI還能做什么?我們的工作是不是正在面臨被淘汰的局面?不僅在科技領(lǐng)域,傳統(tǒng)行業(yè)如律師、編輯等都發(fā)出了相似的感嘆。甚至也有機構(gòu)作出細化分析,哪些職位未來不會被取代。一夜之間,所有人對AI的恐慌好像都上了一個層次。

其實AI創(chuàng)作會不會真的搶人類的“飯碗”得就具體崗位而論,就像工業(yè)4.0大潮中替代一線工人的機器人一樣,甚至有些工廠已經(jīng)實現(xiàn)了全自動化運行,大量不需要創(chuàng)意、簡單且重復性的勞動已經(jīng)被替代。

本輪AI的大潮與工業(yè)4.0的本質(zhì)區(qū)別在于“智能化”,AI已經(jīng)展現(xiàn)出“創(chuàng)作”的能力,即使目前的創(chuàng)意還能看到諸多樣本的痕跡,建模和渲染的AIGC能力也還處于早期,但AI在部分領(lǐng)域能提升生產(chǎn)力已經(jīng)成為不爭的事實。

與其擔心自己的工作是否會被AI替代,不如思考如何結(jié)合AI將現(xiàn)有的工作更完美地完成,如何讓AI變得更好,因為被錯誤的大數(shù)據(jù)喂養(yǎng),扭曲AI的認知,那時AI做的事情可能會超越人類的底線。

《失控》的作者凱文·凱利認為“未來將有數(shù)以萬計創(chuàng)業(yè)公司,他們會從事人工智能用于某一個領(lǐng)域的工作。使用者越來越多的話,機器會越來越聰明,這是一種滾雪球的方式!

也就是說技術(shù)進步是必然的,同時由于基礎(chǔ)數(shù)據(jù)不斷擴大,機器的思維方式會變得越來越靈活。但技術(shù)給社會帶來的變革,并不是以搶工作為最終目標,而是成為一種提升效率的生產(chǎn)方式。

凱文·凱利也曾在一次演講中表示,每一項新技術(shù)的誕生都會引發(fā)一場恐慌周期,一般會經(jīng)歷7個階段:

別讓我看到這些垃圾,根本沒用。好吧,這東西確實發(fā)生了,但是很危險,因為效果并不好。等等,它太好用了,我們必須得做點什么擾亂它!這東西太強大了,對于那些無法觸達它的人來說是不公平的,F(xiàn)在它無處不在,無法逃離,這不公平。我打算戒掉它,戒一個月。讓我們關(guān)注真正重要的問題ーー下一個會出現(xiàn)的技術(shù)是什么?

其實大多數(shù)人對新技術(shù)持負面態(tài)度多源于對技術(shù)的不了解,當人們不了解一樣產(chǎn)品的時候,往往會持有不看好的態(tài)度。但細究下來會發(fā)現(xiàn)技術(shù)做的事情只是在讓原有東西變得更加智能,例如AI輔助飛機駕駛,飛行員只要做好基礎(chǔ)的操作,剩下的都是AI在駕駛飛機,可以有效緩解飛行員一路的疲勞與提高飛行安全程度。

因此,AI 3D的創(chuàng)作也并不會真正取代建模師以及渲染師的工作,反而可以多維度地給建模師提供多重視角,也讓建模師可以從繁瑣的工作中簡化出來,做更有意義的事情。但我們總會抱著戲謔的態(tài)度看待AI,以古怪刁鉆的問題去調(diào)戲AI,從而給人工智能定義上“人工智障”的名號。

順理成章的把AI看作人類的對立面,也理所應(yīng)當?shù)牟粫䴓酚诮邮苄录夹g(shù)的到來。馬斯克曾說過一句話,無論你接受與不接受,無論人類如何呼吁停止采用新技術(shù),總會有企業(yè)在馬不停蹄地研究,在你不知道的地方,不知道的領(lǐng)域,它會在某一天就來了。

與此同時,毋庸置疑的是人工智能在某一方面已經(jīng)開始比人類聰明了,甚至可以跨專業(yè)地協(xié)同工作。但由于機器與人類的思考方式不同,機器變得越聰明時反而會推動人類工作的進步。此外,技術(shù)的進步也會創(chuàng)造出新的工作,改變就業(yè)的生態(tài)格局,人+AI將是未來任何工作領(lǐng)域的一個普遍現(xiàn)象。

參考文獻

       原文標題 : AI 3D創(chuàng)作來了?“搶飯碗”成真

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號