展望國(guó)內(nèi)C端市場(chǎng),方漢預(yù)計(jì),國(guó)內(nèi)C端一定是免費(fèi)為王。另外,他看好私有化部署方向。

6月6日,由、北京人工智能產(chǎn)業(yè)聯(lián)盟元宇宙專業(yè)委員會(huì)、中國(guó)文化產(chǎn)業(yè)協(xié)會(huì)文化元宇宙專業(yè)委員會(huì)主辦的“21世紀(jì)卓越董事會(huì)人工智能閉門會(huì)議”在北京召開,會(huì)議主題為“AI領(lǐng)域上市公司創(chuàng)新涌現(xiàn)、技術(shù)難題與發(fā)展路徑”。業(yè)內(nèi)專家、學(xué)者以及多位上市公司高管參會(huì),共同探討AI發(fā)展新路徑。

昆侖萬(wàn)維(300418)(300418.SZ)CEO方漢出席本次閉門會(huì)并發(fā)表主旨講話。他表示,昆侖萬(wàn)維是國(guó)內(nèi)最早布局AIGC領(lǐng)域的公司之一, 從2020年就開始布局AI音樂(lè)領(lǐng)域,2022年1月啟動(dòng)SkyMusic音樂(lè)實(shí)驗(yàn)室,2022年4月達(dá)到人工智能領(lǐng)域最優(yōu)效果。同年,昆侖萬(wàn)維從音樂(lè)AI往多模態(tài)AI拓展,并和奇點(diǎn)智源就百億級(jí)大語(yǔ)言模型、圖像AIGC、編程AIGC等技術(shù)領(lǐng)域達(dá)成全面技術(shù)戰(zhàn)略合作。2022年12月正式發(fā)布“昆侖天工”,其AI生成能力已覆蓋圖像、音樂(lè)、文本、編程等內(nèi)容模態(tài)。2023年4月17日,昆侖萬(wàn)維正式發(fā)布「天工」大語(yǔ)言模型。


(資料圖片僅供參考)

大模型智力提升受語(yǔ)料制約

眾所周知,GPT-4是多模態(tài)的大模型,但是在方漢看來(lái),多模態(tài)只能增加大模型的輸入和輸出能力,并不能顯著提高大模型的智力。

他認(rèn)為,要想實(shí)現(xiàn)上述目標(biāo),唯一的途徑是不斷尋找質(zhì)量更高的文本語(yǔ)料,但是高質(zhì)量的文本語(yǔ)料已經(jīng)幾乎被挖掘殆盡。

他進(jìn)一步指出,多模態(tài)之所以不會(huì)顯著提高大模型的智力,是因?yàn)槿祟愃械闹腔郏蒲?,大多?shù)是以文本為基礎(chǔ)的,只有高質(zhì)量的文本數(shù)據(jù)才是大模型不斷提高智力的途徑,不管是工業(yè)勞動(dòng),還是科研學(xué)術(shù),最后都是落實(shí)到文本形式記錄我們的智慧活動(dòng)。當(dāng)然,人類有很多生產(chǎn)行為沒(méi)有被記錄下來(lái),他認(rèn)為,這部分智力不會(huì)被大模型所學(xué)習(xí)到。

因此,方漢預(yù)測(cè),大模型的智力提升將會(huì)出現(xiàn)一個(gè)瓶頸,也就是在逼近一個(gè)數(shù)量之后,幾乎不會(huì)有太多的提高。因?yàn)楝F(xiàn)在所有大模型的智力提升仍然嚴(yán)重依賴于數(shù)據(jù),所以它就一定不會(huì)自迭代加速向前發(fā)展。從工程師的角度來(lái)看,方漢認(rèn)為現(xiàn)在人們對(duì)人工智能的擔(dān)憂還是杞人憂天。

“另外,我們?cè)趯?shí)踐過(guò)程中發(fā)現(xiàn),用大模型來(lái)寫代碼,寫一兩個(gè)函數(shù)是非常強(qiáng)的,但是你讓它寫整個(gè)工程,需要人類大量的輔助,也就是說(shuō)它目前還沒(méi)有學(xué)習(xí)到對(duì)于整個(gè)工程的理解,這樣導(dǎo)致了人類使用大模型仍然是為了對(duì)自己能力的加持,大模型取代整個(gè)程序語(yǔ)言還需要一段時(shí)間。”他表示。

談及大模型對(duì)于行業(yè)的影響,方漢認(rèn)為有兩個(gè)標(biāo)準(zhǔn),一是應(yīng)用能否在線上完成閉環(huán),如果業(yè)務(wù)在線上完成閉環(huán),那么會(huì)受到大模型特別大的沖擊;二是判斷產(chǎn)品的容錯(cuò)度,如果容錯(cuò)率特別高的話,該行業(yè)也特別容易受到?jīng)_擊。

端到端內(nèi)容生成價(jià)值可期

商業(yè)化方面,方漢在會(huì)上表示,昆侖萬(wàn)維在戰(zhàn)略層面采取To B跟To C并重的戰(zhàn)略。

B端方面,方漢總結(jié)道,如何把行業(yè)數(shù)據(jù)生成大模型可用的數(shù)據(jù)是最難的事情。他表示,國(guó)內(nèi)非常多的企業(yè)都缺比較好的數(shù)據(jù),國(guó)內(nèi)現(xiàn)在要To B的應(yīng)用,要幫助所有行業(yè)把現(xiàn)有的知識(shí)推導(dǎo)過(guò)程給補(bǔ)上,不能光有題目跟答案,而要把推導(dǎo)過(guò)程給列出來(lái),這樣才能讓各個(gè)行業(yè)去利用。

展望國(guó)內(nèi)C端市場(chǎng),方漢預(yù)計(jì),國(guó)內(nèi)C端一定是免費(fèi)為王。另外,他看好私有化部署方向,整個(gè)大模型訓(xùn)練固然對(duì)算力有極高的要求,但是目前軟件優(yōu)化的速度遠(yuǎn)遠(yuǎn)超過(guò)硬件迭代的速度。

海外方面,他認(rèn)為中國(guó)企業(yè)最適合的是C端市場(chǎng),在海外的C端市場(chǎng)可以做端到端的內(nèi)容生成工具?!斑@個(gè)聽起來(lái)比較簡(jiǎn)單,但實(shí)際上目前所有的AIGC工具都不是端到端的內(nèi)容生產(chǎn)工具,而是素材生產(chǎn)工具?!狈綕h稱。

方漢表示,從端到端直接生成最終的內(nèi)容,最終形態(tài)是小說(shuō)、動(dòng)畫、漫畫、短視頻、長(zhǎng)視頻、電影,目前小說(shuō)、漫畫、音樂(lè)的生成技術(shù)都比較成熟了,在這里去做端到端的內(nèi)容生成工具,從而形成新的UGC社區(qū),這個(gè)是有價(jià)值的。

不過(guò),在方漢看來(lái),端到端內(nèi)容生成工具仍有一個(gè)技術(shù)難點(diǎn)沒(méi)有解決,一旦解決了一致性的內(nèi)容生成之后,整個(gè)影視行業(yè)、短視頻行業(yè)都會(huì)被顛覆,而且一致性視頻生成有望在1-3年之內(nèi)取得突破。最遲3年以后,人類將可以用AI來(lái)生成一致性非常強(qiáng)的長(zhǎng)視頻。

標(biāo)簽: