51576 大模型這一年,豆包跑出來(lái)了
服務(wù)熱線:400-858-9000 咨詢/投訴熱線:18658148790
國(guó)內(nèi)專業(yè)的一站式創(chuàng)業(yè)服務(wù)平臺(tái)
大模型這一年,豆包跑出來(lái)了
鋅刻度 ·

陳鄧新

昨天
大模型時(shí)代的“抖音”
本文來(lái)自于微信公眾號(hào)“鋅刻度”(ID:znkedu),作者: 陳鄧新,投融界經(jīng)授權(quán)發(fā)布。

大模型之爭(zhēng),進(jìn)入關(guān)鍵時(shí)刻。

2024年,字節(jié)跳動(dòng)旗下的豆包大模型實(shí)現(xiàn)了逆襲,憑借“更強(qiáng)模型、更低成本、更易落地”的打法迅速出圈。

以至于,資本熱捧“豆包概念”,賺足了2.2億股民的眼球。

特別是火山引擎Force冬季大會(huì)之后,豆包大模型全面升級(jí),從感知信息走向感知世界,“豆包概念”一躍成為A股最靚的仔,引得字節(jié)跳動(dòng)官方出面發(fā)布過(guò)度炒作的風(fēng)險(xiǎn)提示。

不難看出,豆包大模型正在成為大模型時(shí)代的“抖音”。

更強(qiáng)模型,嶄露頭角并非偶然

豆包大模型,上演了一場(chǎng)后發(fā)先至的好戲。

2020年5月15日,豆包大模型才正式下場(chǎng),雖然姍姍來(lái)遲,卻迅速打開了局面,成為大模型賽道最大的“黑馬”。

關(guān)于此,從豆包的使用數(shù)據(jù),就可見一斑。

官方資料顯示,豆包大模型5月的日均tokens使用量為1200億,到了12月日均tokens使用量超過(guò)4萬(wàn)億,增長(zhǎng)超過(guò)33倍。

大模型這一年,豆包跑出來(lái)了

而在2024年11月的AI產(chǎn)品全球月活躍排行榜上,豆包APP的MAU高達(dá)5998萬(wàn),僅次于OpenAI的ChatGPT,位居全球第二。

之所以如此,與模型能力強(qiáng)悍息息相關(guān)。

在權(quán)威機(jī)構(gòu)智源研究院的最新評(píng)測(cè)中,豆包大模型在重點(diǎn)考察語(yǔ)言模型中文能力的主觀評(píng)測(cè)中排名第一,在多模態(tài)的視覺理解、視頻生成、圖像生成三個(gè)賽道均排名全球第二。

以豆包用戶青睞的AI語(yǔ)音為例,豆包大模型在ASR和超自然的TTS音色上下了狠功夫,通過(guò)超擬人達(dá)到類似和真人對(duì)話的效果,從而有了差異化競(jìng)爭(zhēng)力。

豆包戰(zhàn)略研究負(fù)責(zé)人周昊表示:“英語(yǔ)口語(yǔ)練習(xí)是大家很喜歡的教育場(chǎng)景。用戶反饋說(shuō),豆包的發(fā)音、詞匯量、句型都遠(yuǎn)遠(yuǎn)超過(guò)他自己。通過(guò)豆包實(shí)時(shí)語(yǔ)音通話功能,和豆包一來(lái)一回練英語(yǔ),毫不尷尬,也省了請(qǐng)老師輔導(dǎo)的開銷?!?/span>

由此可見,豆包大模型嶄露頭角,并非偶然。

這次全面煥新,豆包通用模型pro新版本全面對(duì)齊GPT-4o,使用價(jià)格僅為后者的1/8;綜合任務(wù)處理能力較5月提升32%,在推理上提升13%,在指令遵循上提升9%,在代碼上提升58%,在數(shù)學(xué)上提升43%,在專業(yè)知識(shí)領(lǐng)域能力提升54%。

此外,豆包音樂模型4.0版從生成60秒的片段迭代為生成3分鐘作品,具備制作一首完整音樂的能力;豆包文生圖模型2.1版,首次實(shí)現(xiàn)精準(zhǔn)生成漢字和一句話P圖的能力。

簡(jiǎn)而言之,豆包大模型的大模型能力更強(qiáng)了,可以滿足更多的復(fù)雜任務(wù)需求以及創(chuàng)新應(yīng)用場(chǎng)景。

一名互聯(lián)網(wǎng)觀察人士告訴鋅刻度:“大模型是一個(gè)重資產(chǎn)賽道,考驗(yàn)企業(yè)在資金、生態(tài)、技術(shù)、人才等方面的底蘊(yùn),Scaling Law之下強(qiáng)者恒強(qiáng)?!?/span>

通俗易懂地說(shuō),只要模型能力不斷迭代、不斷變強(qiáng),豆包大模型就可以實(shí)現(xiàn)“一步領(lǐng)先,步步領(lǐng)先”。

于是乎,資本市場(chǎng)沸騰了。

機(jī)構(gòu)踏破了“豆包概念”關(guān)聯(lián)的上市公司門檻,單單中科藍(lán)訊一家上市公司,2024年11月以來(lái)就累計(jì)接待了96家機(jī)構(gòu)調(diào)研。

北京艾文智略投資管理有限公司首席投資官曹轍表示:“豆包的成功是字節(jié)跳動(dòng)技術(shù)實(shí)力和市場(chǎng)定位的體現(xiàn),隨著AI大模型在各領(lǐng)域的應(yīng)用逐漸深入,市場(chǎng)對(duì)AI應(yīng)用端的關(guān)注度也將不斷提升?!?/span>

更低成本,技術(shù)創(chuàng)新是關(guān)鍵

更強(qiáng)模型之外,更低成本是豆包大模型彎道超車的另外一個(gè)關(guān)鍵因素。

秉持“好的模型就是要讓每一家企業(yè)都用得起”的理念,豆包大模型上線之初,就將通用模型的行業(yè)定價(jià)降低了99%,拉開了大模型集體降價(jià)的序幕。

如此一來(lái),豆包大模型走上了“高質(zhì)低價(jià)”之路,成功占領(lǐng)用戶的心智。

嘗到甜頭之后,豆包大模型在新上架的視覺理解模型上,再次祭出降價(jià)打法:每千tokens的價(jià)格為0.003元,比行業(yè)平均定價(jià)低了85%,相當(dāng)于一塊錢可以處理284張720P的圖片;同時(shí),火山引擎額外提供更高的初始流量,RPM達(dá)到了15000次,TPM達(dá)到120萬(wàn)。

大模型這一年,豆包跑出來(lái)了

這意味著,繼通用模型之后,豆包大模型推動(dòng)視覺理解也進(jìn)入了“厘時(shí)代”。

需要注意的是,價(jià)格戰(zhàn)并非豆包大模型的本意,只是技術(shù)創(chuàng)新帶來(lái)的結(jié)果,是一個(gè)正反饋的良性循環(huán)。

抖音集團(tuán)副總裁李亮表示:“豆包大模型通過(guò)技術(shù)創(chuàng)新來(lái)降低成本,在算法、軟件工程和硬件方案上做了非常多優(yōu)化,3厘/千tokens的定價(jià)也有可觀的毛利,而且這是一步到位的透明價(jià)格,并不是‘刊例價(jià)+折扣’的玩法?!?/span>

事實(shí)上,技術(shù)降本一直是豆包大模型的底色。

譬如,新一代的火山引擎GPU實(shí)例,通過(guò)vRDMA 網(wǎng)絡(luò),支持大規(guī)模并行計(jì)算和P/D分離推理架構(gòu),顯著提升訓(xùn)練和推理效率,降低成本。

再譬如,新推出的EIC彈性極速緩存,能夠?qū)崿F(xiàn)GPU直連,使大模型推理時(shí)延降低至1/50;成本降低20%。

這么一來(lái),豆包大模型才有了推動(dòng)價(jià)格普惠的底氣。

火山引擎總裁譚待表示:“企業(yè)之所以用豆包更多,還是因?yàn)槭褂皿w驗(yàn)較好,而不是沒有嘗試過(guò)其他的產(chǎn)品。這個(gè)市場(chǎng)就是要充分競(jìng)爭(zhēng),最關(guān)鍵的是能不能把自己的東西做好,能不能把成本做低,能不能把方案的落地應(yīng)用性做好?!?/span>

換而言之,豆包大模型推崇的是良性競(jìng)爭(zhēng)。

“對(duì)于企業(yè)級(jí)市場(chǎng)來(lái)說(shuō),商業(yè)模式是建立在可持續(xù)發(fā)展的基礎(chǔ)上,任何商品必須是盈利的,不能靠補(bǔ)貼來(lái)降價(jià)。如果降價(jià)是虧損的,規(guī)模越大虧得越多,這就不是合理的商業(yè)模式?!弊T待如是說(shuō)。

良性競(jìng)爭(zhēng)之下,視覺理解進(jìn)入大浪淘沙階段,由于門檻降低令更多開發(fā)者涌入,刺激更多的應(yīng)用創(chuàng)新,從而催生繁榮的AICG生態(tài)。

出國(guó)旅游,可以快速看懂外文的菜單、標(biāo)簽、指示牌、滾動(dòng)顯示,可以識(shí)別著名地標(biāo)建筑的背景知識(shí)等;家庭輔導(dǎo),可以快速批改作文寫得好不好,可以數(shù)學(xué)題做得判斷對(duì)錯(cuò)等;網(wǎng)購(gòu)求知,可以拍照找同款快速進(jìn)入相關(guān)的推薦界面……

以上可見,視覺理解可以全面賦能應(yīng)用場(chǎng)景,進(jìn)一步加速大模型落地。

更易落地,打通“最后一公里”

更低成本之外,更易落地是豆包大模型另外一個(gè)核心競(jìng)爭(zhēng)力。

公開資料顯示,豆包大模型已經(jīng)與八成主流汽車品牌合作,汽車行業(yè)日均tokens消耗增長(zhǎng)了50倍,穩(wěn)坐汽車行業(yè)大模型服務(wù)商第一梯隊(duì);接入到多家手機(jī)、PC等智能終端,覆蓋終端設(shè)備約3億臺(tái),來(lái)自智能終端的豆包大模型調(diào)用量在半年時(shí)間內(nèi)增長(zhǎng)100倍。

大模型這一年,豆包跑出來(lái)了

此外,一個(gè)好漢三個(gè)幫,豆包大模型落地離不開HiAgent、扣子、火山方舟三大平臺(tái)的支持,借此第三方企業(yè)才可以快速提升AI能力與AI應(yīng)用開發(fā)效率。

以HiAgent為例,定位為低代碼平臺(tái),大幅降低了基于大模型開發(fā)AI應(yīng)用的門檻,擴(kuò)大了受眾范圍,加速AI普惠。

火山引擎副總裁張?chǎng)伪硎荆骸叭绻讯拱竽P捅茸?Android,那么HiAgent就是企業(yè)調(diào)度系統(tǒng)能力開發(fā)應(yīng)用的SDK(軟件開發(fā)工具包)?!?/span>

通俗易懂地說(shuō),開發(fā)者可以像拼樂高一樣搭建AI應(yīng)用。

此背景下,HiAgent上線7個(gè)月,成為火山引擎增長(zhǎng)最快的企業(yè)服務(wù)產(chǎn)品之一,客戶涉及華泰*券、寧德時(shí)代、浙江大學(xué)等不同領(lǐng)域的佼佼者。

更為重要的是,迭代至1.5版之后,HiAgent提供100種行業(yè)的開發(fā)“樣板間”,企業(yè)一鍵復(fù)刻,可以使用模板輕而易舉地開發(fā)AI應(yīng)用。

由此一來(lái),解決了低代碼平臺(tái)“專業(yè)客戶看不上,小白客戶不會(huì)用”的傳統(tǒng)痛點(diǎn)。

一名業(yè)內(nèi)人士告訴鋅刻度:“業(yè)務(wù)端與開發(fā)端往往需要深度溝通與反復(fù)交流,不然容易出現(xiàn)功能不完整、需求不匹配等情況,低代碼平臺(tái)可以讓業(yè)務(wù)端直接上手開發(fā),省去煩瑣的中間過(guò)程,開發(fā)端也可以將工作重心轉(zhuǎn)向非標(biāo)應(yīng)用”。

另外,扣子平臺(tái)擁有100萬(wàn)個(gè)活躍開發(fā)者,發(fā)布超過(guò)200萬(wàn)個(gè)智能體;火山方舟的全域AI搜索,將企業(yè)的信息、業(yè)務(wù)和用戶需求緊密結(jié)合,幫助企業(yè)實(shí)現(xiàn)“發(fā)現(xiàn)更多,推薦更準(zhǔn),搜索無(wú)限可能”。

值得一提的是,豆包大模型也在對(duì)內(nèi)賦能。

這其中,AIGC應(yīng)用即夢(mèng)表現(xiàn)得可圈可點(diǎn),借助其制作的科幻短劇《覺醒》,成為首部單日點(diǎn)贊破40萬(wàn)的AI短劇。

工信部信息通信經(jīng)濟(jì)專家委員會(huì)委員盤和林在接受媒體采訪時(shí)表示:“即夢(mèng)AI目前在國(guó)內(nèi)(視頻)生成領(lǐng)域,還是比較領(lǐng)先的。”

這意味著,即夢(mèng)大大降低了短劇的創(chuàng)作門檻以及影視創(chuàng)作的試錯(cuò)成本。

總而言之,豆包大模型采用高舉高打的策略,圍繞“數(shù)據(jù)、場(chǎng)景、生態(tài)”全面迭代,一躍成為大模型時(shí)代的領(lǐng)先者。

因此,豆包大模型有了更大的盼頭。

大模型 豆包
評(píng)論
還可輸入300個(gè)字
專欄介紹
鋅刻度
478篇文章
專注科技財(cái)經(jīng)、互聯(lián)網(wǎng)新經(jīng)濟(jì)原創(chuàng)深度報(bào)道
+關(guān)注
400-858-9000
免費(fèi)服務(wù)熱線
kefu@trjcn.com
郵箱
09:00--20:00
服務(wù)時(shí)間
18658148790
投訴電話
投融界App下載
官方微信公眾號(hào)
官方微信小程序
Copyright ? 2024 浙江投融界科技有限公司(m.xsl6g97.cn) 版權(quán)所有 | ICP經(jīng)營(yíng)許可證:浙B2-20190547 | 浙ICP備10204252號(hào)-1 | 浙公網(wǎng)安備33010602000759號(hào)
地址:浙江省杭州市西湖區(qū)留下街道西溪路740號(hào)7號(hào)樓301室
浙江投融界科技有限公司trjcn.com版權(quán)所有 | 用戶協(xié)議 | 隱私條款 | 用戶權(quán)限
應(yīng)用版本:V2.7.8 | 更新日期:2022-01-21
 安全聯(lián)盟
在線客服
手機(jī)APP
微信訂閱