使用成本降至三分之一!字節(jié)大模型,重磅更新!
來源:證券時報網(wǎng)作者:周春媚2025-06-11 14:00

豆包大模型重磅升級,并推出創(chuàng)新性的“區(qū)間定價”模式,打響了一場平衡成本與性能的“價值戰(zhàn)”。

6月11日,字節(jié)跳動旗下火山引擎舉辦Force原動力大會。會上,豆包大模型家族全面升級,火山引擎發(fā)布了豆包大模型1.6、豆包視頻生成模型Seedance 1.0 Pro、實時語音與播客等新模型,并升級了Agent(智能體)開發(fā)平臺等AI云原生服務。除了主論壇外,本次大會還將舉辦多場從技術革新到行業(yè)場景落地的分論壇,涉及芯片、汽車、智能終端、軟件應用等領域的眾多企業(yè)合作伙伴。

綜合來看,本次大會的核心關鍵詞有三個,分別是性能升級、成本下降、應用普惠。性能升級上,權(quán)威測評成績顯示,豆包1.6—thinking的表現(xiàn)已躋身全球前列;成本下降上,豆包1.6首創(chuàng)按“輸入長度”區(qū)間定價,使綜合使用成本降至豆包1.5深度思考模型的三分之一;AI普惠上,在性能與成本的雙重加持下,有望加速智能體的大規(guī)模應用落地。

豆包大模型1.6發(fā)布,性能躋身全球前列

會上,最受關注的當屬豆包大模型1.6系列的重磅發(fā)布。

其中,豆包1.6是全功能綜合模型,支持256K長上下文,能夠自適應思考(即自動判斷是否開啟深度推理);豆包1.6—thinking則強化深度推理,編碼、數(shù)學、邏輯能力顯著提升,支持復雜智能體構(gòu)建;豆包1.6—flash則是極速版本,具有低延遲特點,適用于智能客服、語音助手等實時交互場景。

據(jù)會上披露的多項權(quán)威測評成績,在復雜推理、競賽級數(shù)學、多輪對話和指令遵循等測試集上,豆包1.6—thinking的表現(xiàn)已躋身全球前列。

此外,豆包1.6還在多模態(tài)能力上取得了新突破,支持實時視頻通話分析、商品圖片同款識別等。據(jù)火山引擎總裁譚待介紹,豆包1.6系列模型支持多模態(tài)理解和圖形界面操作,能夠理解和處理真實世界問題。此前,豆包1.5的多模態(tài)能力在60個公開評測基準中取得38項最佳成績,已廣泛應用在電商識圖、自動駕駛數(shù)據(jù)標注、門店巡檢等場景。圖形界面操作能力則讓豆包1.6進一步具備“行動力”。

除了豆包大模型1.6系列,視頻生成模型Seedance 1.0 pro也在本次大會上亮相。在國際知名評測榜單Artificial Analysis上,Seedance在文生視頻、圖生視頻兩項任務上均排名首位,超越了谷歌的Veo3、快手的可靈2.0等優(yōu)秀模型。

使用成本下降至1/3,首推“區(qū)間定價”

一直以來,豆包大模型都在積極推動降低成本,屢屢刷新行業(yè)價格底線。本次大會,豆包大模型1.6的價格體系也成了關注焦點。

會上,譚待表示,通過技術和商業(yè)的雙重創(chuàng)新,豆包1.6首創(chuàng)按“輸入長度”區(qū)間定價,深度思考、多模態(tài)能力與基礎語言模型統(tǒng)一價格。這一定價體系打破了行業(yè)的定價規(guī)則,讓企業(yè)以更低成本獲取更強AI能力。

具體來看,根據(jù)以往的模型定價機制,大模型按tokens(文本基本處理單元)收費,輸入輸出的tokens數(shù)量直接決定成本。例如輸入1000字的中文文本約生成1500個tokens,而輸出1000字則需約1500個tokens,上下文長度是成本的核心變量。

而根據(jù)豆包大模型1.6的定價策略,其主要有兩大核心特點:

一是統(tǒng)一價格,消除功能溢價。這意味著,無論是否開啟深度思考或多模態(tài)功能,豆包大模型1.6的token價格完全一致,打破行業(yè)慣性,讓企業(yè)無需為非必要功能支付額外成本。

二是分區(qū)調(diào)度,可精準匹配需求。豆包大模型1.6將定價區(qū)間按照輸入長度分為0—32K區(qū)間、32K—128K區(qū)間和128K—256K,價格隨著輸入長度的增加而增加。其中,在企業(yè)使用量最大的0—32K輸入?yún)^(qū)間,豆包1.6的輸入價格為0.8元/百萬tokens、輸出8元/百萬tokens,綜合成本只有豆包1.5深度思考模型或DeepSeek R1的三分之一。

豆包1.6與豆包1.5thinking綜合使用成本對比

此外,Seedance 1.0 pro模型每千tokens僅0.015元,每生成一條5秒的1080P視頻只需3.67元,為行業(yè)最低。

譚待表示,之所以按“輸入長度”區(qū)間定價,是因為火山引擎觀察到,模型成本存在“成本遞增效應”,即隨著上下文長度增加,模型處理每個token的計算復雜度呈指數(shù)級上升。例如有些模型在處理超過128K tokens時收費翻倍,因其注意力機制需與前文所有tokens進行關聯(lián)計算?!爱斍?,超過80%的企業(yè)調(diào)用請求集中在32K tokens以內(nèi)。若能針對這一主流區(qū)間優(yōu)化調(diào)度,可顯著降低整體成本?!弊T待說。

因此,豆包大模型1.6通過區(qū)間定價模式,能夠在性能與成本之間取得平衡,從而精準匹配企業(yè)需求分布。

加速Agent的大規(guī)模落地

“豆包1.6的定價策略不僅是一次簡單的降價,更是AI普惠的戰(zhàn)略升級?!弊止?jié)跳動火山引擎表示。

業(yè)內(nèi)人士普遍認為,2022年年底,Chat GPT的橫空出世引爆了AI大模型,經(jīng)過兩年多技術迭代,如今AI智能體已成為行業(yè)焦點和落地方向。2025年是智能體爆發(fā)元年,智能體在金融、汽車、教育、港口、礦山、運營、客服等多個領域密集涌現(xiàn)。

然而,在AI智能體快速發(fā)展的當下,規(guī)模化落地面臨多重挑戰(zhàn)。根據(jù)行業(yè)觀察,企業(yè)級Agent的實際應用成本壓力尤為突出,單個Agent每日token消耗成本可達20美元。IDC數(shù)據(jù)顯示,2024年中國AI智能體市場規(guī)模僅50億元,遠低于預期,反映出企業(yè)對高成本的觀望心態(tài)。

因此,豆包大模型1.6的定價策略錨定成本高這一痛點,以上下文長度為核心的分區(qū)間定價模式,使企業(yè)使用成本降至行業(yè)平均的1/3左右,有望加速Agent的大規(guī)模落地應用。

事實上,豆包大模型近年來在市場上不斷“攻城略地”,使用量也呈現(xiàn)出爆發(fā)性增長的態(tài)勢,據(jù)火山引擎披露,豆包大模型日均tokens調(diào)用量從去年12月的4萬億飆升至2025年5月的16.4萬億。年增長率超300%。

同時,火山引擎也憑借快速增長的勢頭,“攪動”著云市場原有的市場格局。IDC發(fā)布的《中國公有云大模型服務市場格局分析,2025年一季度》報告顯示,2024年中國公有云大模型調(diào)用總量達到114.2萬億tokens,其中火山引擎占據(jù)46.4%的市場份額,位列第一,調(diào)用量幾乎等于阿里云與百度云之和。

業(yè)內(nèi)人士分析稱,正如豆包1.0以極致性價比開啟了大模型的規(guī)模調(diào)用時代,豆包1.6在性能與成本上的優(yōu)化,或?qū)⒓铀貯gent的大規(guī)模落地,降低企業(yè)AI應用門檻,進而鞏固火山引擎在AI云原生基礎設施領域的領導地位。

校對:王朝全

責任編輯: 冉超
聲明:證券時報力求信息真實、準確,文章提及內(nèi)容僅供參考,不構(gòu)成實質(zhì)性投資建議,據(jù)此操作風險自擔
下載“證券時報”官方APP,或關注官方微信公眾號,即可隨時了解股市動態(tài),洞察政策信息,把握財富機會。
網(wǎng)友評論
登錄后可以發(fā)言
發(fā)送
網(wǎng)友評論僅供其表達個人看法,并不表明證券時報立場
暫無評論
為你推薦
時報熱榜
換一換
    熱點視頻
    換一換