豆包大模型重磅升級,并推出創(chuàng)新性的“區(qū)間定價”模式,打響了一場平衡成本與性能的“價值戰(zhàn)”。
6月11日,字節(jié)跳動旗下火山引擎舉辦Force原動力大會。會上,豆包大模型家族全面升級,火山引擎發(fā)布了豆包大模型1.6、豆包視頻生成模型Seedance 1.0 Pro、實時語音與播客等新模型,并升級了Agent(智能體)開發(fā)平臺等AI云原生服務。除了主論壇外,本次大會還將舉辦多場從技術革新到行業(yè)場景落地的分論壇,涉及芯片、汽車、智能終端、軟件應用等領域的眾多企業(yè)合作伙伴。
綜合來看,本次大會的核心關鍵詞有三個,分別是性能升級、成本下降、應用普惠。性能升級上,權(quán)威測評成績顯示,豆包1.6—thinking的表現(xiàn)已躋身全球前列;成本下降上,豆包1.6首創(chuàng)按“輸入長度”區(qū)間定價,使綜合使用成本降至豆包1.5深度思考模型的三分之一;AI普惠上,在性能與成本的雙重加持下,有望加速智能體的大規(guī)模應用落地。
豆包大模型1.6發(fā)布,性能躋身全球前列
會上,最受關注的當屬豆包大模型1.6系列的重磅發(fā)布。
其中,豆包1.6是全功能綜合模型,支持256K長上下文,能夠自適應思考(即自動判斷是否開啟深度推理);豆包1.6—thinking則強化深度推理,編碼、數(shù)學、邏輯能力顯著提升,支持復雜智能體構(gòu)建;豆包1.6—flash則是極速版本,具有低延遲特點,適用于智能客服、語音助手等實時交互場景。
據(jù)會上披露的多項權(quán)威測評成績,在復雜推理、競賽級數(shù)學、多輪對話和指令遵循等測試集上,豆包1.6—thinking的表現(xiàn)已躋身全球前列。
此外,豆包1.6還在多模態(tài)能力上取得了新突破,支持實時視頻通話分析、商品圖片同款識別等。據(jù)火山引擎總裁譚待介紹,豆包1.6系列模型支持多模態(tài)理解和圖形界面操作,能夠理解和處理真實世界問題。此前,豆包1.5的多模態(tài)能力在60個公開評測基準中取得38項最佳成績,已廣泛應用在電商識圖、自動駕駛數(shù)據(jù)標注、門店巡檢等場景。圖形界面操作能力則讓豆包1.6進一步具備“行動力”。
除了豆包大模型1.6系列,視頻生成模型Seedance 1.0 pro也在本次大會上亮相。在國際知名評測榜單Artificial Analysis上,Seedance在文生視頻、圖生視頻兩項任務上均排名首位,超越了谷歌的Veo3、快手的可靈2.0等優(yōu)秀模型。
使用成本下降至1/3,首推“區(qū)間定價”
一直以來,豆包大模型都在積極推動降低成本,屢屢刷新行業(yè)價格底線。本次大會,豆包大模型1.6的價格體系也成了關注焦點。
會上,譚待表示,通過技術和商業(yè)的雙重創(chuàng)新,豆包1.6首創(chuàng)按“輸入長度”區(qū)間定價,深度思考、多模態(tài)能力與基礎語言模型統(tǒng)一價格。這一定價體系打破了行業(yè)的定價規(guī)則,讓企業(yè)以更低成本獲取更強AI能力。
具體來看,根據(jù)以往的模型定價機制,大模型按tokens(文本基本處理單元)收費,輸入輸出的tokens數(shù)量直接決定成本。例如輸入1000字的中文文本約生成1500個tokens,而輸出1000字則需約1500個tokens,上下文長度是成本的核心變量。
而根據(jù)豆包大模型1.6的定價策略,其主要有兩大核心特點:
一是統(tǒng)一價格,消除功能溢價。這意味著,無論是否開啟深度思考或多模態(tài)功能,豆包大模型1.6的token價格完全一致,打破行業(yè)慣性,讓企業(yè)無需為非必要功能支付額外成本。
二是分區(qū)調(diào)度,可精準匹配需求。豆包大模型1.6將定價區(qū)間按照輸入長度分為0—32K區(qū)間、32K—128K區(qū)間和128K—256K,價格隨著輸入長度的增加而增加。其中,在企業(yè)使用量最大的0—32K輸入?yún)^(qū)間,豆包1.6的輸入價格為0.8元/百萬tokens、輸出8元/百萬tokens,綜合成本只有豆包1.5深度思考模型或DeepSeek R1的三分之一。
豆包1.6與豆包1.5thinking綜合使用成本對比
此外,Seedance 1.0 pro模型每千tokens僅0.015元,每生成一條5秒的1080P視頻只需3.67元,為行業(yè)最低。
譚待表示,之所以按“輸入長度”區(qū)間定價,是因為火山引擎觀察到,模型成本存在“成本遞增效應”,即隨著上下文長度增加,模型處理每個token的計算復雜度呈指數(shù)級上升。例如有些模型在處理超過128K tokens時收費翻倍,因其注意力機制需與前文所有tokens進行關聯(lián)計算?!爱斍?,超過80%的企業(yè)調(diào)用請求集中在32K tokens以內(nèi)。若能針對這一主流區(qū)間優(yōu)化調(diào)度,可顯著降低整體成本?!弊T待說。
因此,豆包大模型1.6通過區(qū)間定價模式,能夠在性能與成本之間取得平衡,從而精準匹配企業(yè)需求分布。
加速Agent的大規(guī)模落地
“豆包1.6的定價策略不僅是一次簡單的降價,更是AI普惠的戰(zhàn)略升級?!弊止?jié)跳動火山引擎表示。
業(yè)內(nèi)人士普遍認為,2022年年底,Chat GPT的橫空出世引爆了AI大模型,經(jīng)過兩年多技術迭代,如今AI智能體已成為行業(yè)焦點和落地方向。2025年是智能體爆發(fā)元年,智能體在金融、汽車、教育、港口、礦山、運營、客服等多個領域密集涌現(xiàn)。
然而,在AI智能體快速發(fā)展的當下,規(guī)模化落地面臨多重挑戰(zhàn)。根據(jù)行業(yè)觀察,企業(yè)級Agent的實際應用成本壓力尤為突出,單個Agent每日token消耗成本可達20美元。IDC數(shù)據(jù)顯示,2024年中國AI智能體市場規(guī)模僅50億元,遠低于預期,反映出企業(yè)對高成本的觀望心態(tài)。
因此,豆包大模型1.6的定價策略錨定成本高這一痛點,以上下文長度為核心的分區(qū)間定價模式,使企業(yè)使用成本降至行業(yè)平均的1/3左右,有望加速Agent的大規(guī)模落地應用。
事實上,豆包大模型近年來在市場上不斷“攻城略地”,使用量也呈現(xiàn)出爆發(fā)性增長的態(tài)勢,據(jù)火山引擎披露,豆包大模型日均tokens調(diào)用量從去年12月的4萬億飆升至2025年5月的16.4萬億。年增長率超300%。
同時,火山引擎也憑借快速增長的勢頭,“攪動”著云市場原有的市場格局。IDC發(fā)布的《中國公有云大模型服務市場格局分析,2025年一季度》報告顯示,2024年中國公有云大模型調(diào)用總量達到114.2萬億tokens,其中火山引擎占據(jù)46.4%的市場份額,位列第一,調(diào)用量幾乎等于阿里云與百度云之和。
業(yè)內(nèi)人士分析稱,正如豆包1.0以極致性價比開啟了大模型的規(guī)模調(diào)用時代,豆包1.6在性能與成本上的優(yōu)化,或?qū)⒓铀貯gent的大規(guī)模落地,降低企業(yè)AI應用門檻,進而鞏固火山引擎在AI云原生基礎設施領域的領導地位。
校對:王朝全