“卷王”豆包上桌,压力给到了谁?

钛度号
大模型厂商价格战停不下来,反映的恰恰是对未来的焦虑。在这场大模型的军备竞赛中,豆包想要上演“大力出奇迹”的戏码。

文 | 科技新知,作者 | 思原,编辑 | 蕨影 

大模型赛道打了一年的价格战,还在继续…… 

就在新年前一天,阿里云宣布2024年度第三轮大模型降价,通义千问视觉理解模型全线降价超80%。 

同样,前不久火山引擎的Force大会上,除了大力宣传豆包外,最值得关注的还是价格的再次下降。目前豆包视觉理解模型输入价格为0.003元/千tokens,1块钱可处理284张720P的图片。 

此前去年5月份,豆包通用模型pro-32k版,推理输入价格为0.0008元/千tokens,价格不到1厘。此举迫使阿里云对其三款通义千问核心模型进行新一轮降价,降幅高达90%。而百度智能云则更为激进,宣布文心大模型旗下的两款主打产品——ENIRE Speed与ENIRE Lite,将全面免费开放。 

按照火山引擎总裁谭待的说法,“市场需要充分竞争,降低成本是技术优化的结果,做得最好才能活下来”。显然,在这场大模型的军备竞赛中,豆包想要上演“大力出奇迹”的戏码。 

但在字节大肆内卷之下,也有质疑不断:豆包的价格真的足够便宜吗?为什么大模型要卷价格?未来价格还会成为企业拿单重点吗? 

降价夸张?满是套路

想要理解大模型商家的套路,就需要了解大模型的商业模式。据“远川科技评论 ”梳理,目前来看各家提供的服务主要可分为三种: 

一是包含模型推理的基础服务,指的是根据输入的信息内容,给出回答的过程。简单来说就是“实际使用”模型的过程。这部分各家都有不同的模型标准。 

二是模型精调,厂商可以根据客户需求按token使用量(训练文本*训练迭代次数)计费,训练完成后出账,按量后付费。 

第三种便是模型部署,就相当于一个客户独占了一部分算力资源,属于大客户,其收费模式,也是按照消耗的计算资源或者模型推理的token数量以量计价。 

这3种收费模式,代表的也是大模型开发由浅入深的过程。而各大科技公司疯狂砍价的,其实是第一种基础服务,即标准版模型的推理费用。而这部分定价又分成了“输入”和“输出”两部分。简单来说,输入就是用户提问的内容,而输出则是大模型的回答。 

在调用大模型时往往会根据输入和输出的token数量,进行双向计费。这种细微差异,很容易成为大模型公司的套路。 

例如,豆包的通用模型Doubao Pro-32k,输入价格为“0.8元/百万tokens”,按照官方说法是比行业便宜了99.3%,一些主流模型也都开始了降价,比如阿里云三款通义千问主力模型Qwen-Turbo价格较之前直降85%,低至百万tokens 0.3元,Qwen-Plus和Qwen-Max的输入价格分别再降价80%和50%,分别为0.8元/百万tokens和20元/百万tokens。 

但输出价格方面有所差别,2元/百万tokens的价格与Qwen-Plus、DeepSeek-V2等同行持平,甚至比比Qwen-Turbo、GLM-4-9B等一些同行产品价格更高。 

再看最新的豆包视觉理解模型Doubao-vision-pro-32k,输入化为每百万tokens的售价为3元,大概是0.4美元,输出直接来到了9元,大概为1.23美元。按照豆包说法,这个售价比行业平均价格便宜85%。 

但对比几个直接竞争者:阿里的多模态模型Qwen-VL系列在最近降价后与其价格一致;多模态的Gemini 1.5 Flash模型每百万输入tokens报价为0.075 美元、每百万输出tokens成本为0.3美元,对于较小的上下文(小于128k)还另有折扣价;GPT-4o mini则是输入0.15美元,输出0.6美元。 

不过不止豆包,国内其他厂商基本也都有类似的降价“套路”。例如百度宣布免费的ERNIE-Speed-8K,如果实际部署,收费就变成了5元/百万tokens。还有阿里的Qwen-Max,实际与字节跳动的豆包通用模型Pro-32k一样,只是降低了输入的价格。 

值得一提的是,标准模型推理的降价确实可以让中小开发者降低成本,但只要稍微更进一步的使用,就涉及到了模型微调和模型部署,然而这两项服务一直都不是价格战的主角,并且也没有太大降价幅度。 

简单来说,各家降价最狠的其实都是轻量级的预置模型;相比之下,性能更强悍的“超大杯”模型,实际降价幅度没有那么夸张。例如精调的Doubao-pro系列的价格都在50元/百万tokens,比阿里、腾讯这些厂商的旗舰主力模型价格更高。 

各大厂商风风火火的掀起的价格战,就像是打网游,用各种形式吸引玩家,再在游戏中加上各种玩法,总之就是想要变强就要氪金。当然,即便如此,各个大厂也算是真金白银的付出很多,那么为什么这些厂商在一直围绕价格大费周章呢? 

想做好,热度不能停

纵观大模型行业,字节跳动一定算不上起跑最快的那一批选手,甚至今年年初,字节跳动CEO梁汝波在内部讲话中提到“迟钝”二字,直指字节对大模型的敏感度不如创业公司。 

“直到2023年才开始讨论GPT,而业内做得比较好的大模型创业公司都是在2018年至2021年创立的。”他说。 

后来者往往是最需要内卷的那个,字节跳动也是如此。从今年年中开始,便开始制造一轮又一轮热度。 

除了上文所说的,豆包在B端的让利降价意图明显外,C端市场豆包也是全力出击。 

面向C端,无论是线上平台,还是线下公开场所,都能看到豆包的身影。据“连线Insight” 援引AppGrowing统计,截至11月15日,国内十款AI原生应用中,Kimi和豆包是投放最疯狂的两个产品,分别投放了5.4亿元和4亿元。 

拉长时间线看,豆包的投流显然更猛烈。据AppGrowing统计,2024年4月—5月,豆包投放金额预计为1500万元-1750万元。6月上旬,豆包再次启动新一轮大规模的广告投放活动,投放金额高达1.24亿元。 

除了投流外,豆包还有抖音这一流量池,字节几乎屏蔽了除了豆包以外所有AI应用在抖音上的投放。目的也很明确,就是要彻底解决大模型应用的“用户焦虑”。 

然而,现实往往事与愿违。据“智能涌现”报道,字节内部反思——豆包目前的用户活跃度并不算高。豆包每周仅活跃2至3天,且每天用户发送消息轮次仅为5到6次,单次2分钟左右,用户人均使用时长仅为10分钟左右。上述这些数据在过去一年中的增长幅度并不显著。 

简单来说,不计成本的投流,虽然让豆包成了国内用户数量断层式第一的AI软件,但仍然算不上是一款killer app。 

字节管理层对此的判断是,像豆包这样的AI对话类产品可能只是AI产品的“中间态”。字节内部判断,付费订阅模式在中国不太可能走通。而时长和轮次太低,又导致潜在的广告空间较小,这都构成了这类产品的隐形天花板。 

所以长期来看,更低门槛、更“多模态”的产品形式更具落地可能,剪映和即梦可能是合适的入口,这也是此次大会豆包将部分重点放在视频模型的本质原因。 

但站在用户角度,根据“财经杂志”报道,大部分用户买单的原因是产品和服务能带来价值,价值不光是解决具体问题,如提升工作效率、提供情感陪伴等,市场上还有一类价值是“符合政策方向”。更重要的要具备找到具体客户并交付的能力,这考验的是AI公司在技术和产品之外的能力,甚至在很多时候,这项能力比技术实力更能帮助AI公司成长。 

中国的AI市场和美国不同,很难通过平台销售软件的模式打开市场,大部分时候需要抓住一个个的项目和工程来实现商业化。而这些项目和工程的来源,往往与自身热度有关。 

“一家成熟的企业在布局大模型时,很难会去考虑一个不成熟的产品或者企业。在不考虑成本的情况下,大品牌往往是首选,这不仅是技术上的信任,更多是服务、整体质量的信任”,一位科技企业管理人员向「科技新知」表示,“毕竟小厂的风险还是有的,就像买车,开着开着车厂倒闭了,那就损失大了”。 

初创公司大肆制造热点新闻,大概率是为了融资,是为了活下去,而豆包这种本就有背景的,则是想要靠着热度去找到并且固定更多客户,但圈内一个默认的事实就是,无论是谁、无论技术多厉害,都要善于保持热度,毕竟酒好也怕巷子深。 

淘汰赛,或告别价格战

其实不止豆包,目前市面上所有二线及以下的大模型厂商,都处在花钱买流量的阶段,为的是留住用户。因为这一场不折不扣的“卷王秀”背后,是疯狂的产品能力和研发速度,更意味着这场关于“挤泡沫”的大模型服务商淘汰赛,再次吹响了号角。 

2024年已经经历了一轮淘汰赛洗礼,让大模型去九存一,产业格局更加合理,只留下了约10%的大模型进入决赛圈。 

然而,这并不是结束,而是开始。只是在「科技新知」看来,新一轮淘汰赛的重点,价格不再是主导因素而是技术。 

目前科技公司们也开始陆续意识到,仅发布一个免费的应用,并不能为公司带来直接收益,C端用户量很难增长,获客成本已经明显提升。更重要的是去直接触及那些愿意付费的B 端客户,例如金融、政务、汽车等行业。 

但是通常有大量公司集中进入某个行业时,会出现持久的价格战,因为各家都需要打造一个标杆客户,来为之后的市场拓展铺路。简单粗暴的价格战会让一些公司主动或被动退出,待市场稳定后,再将价格恢复常态。 

但矛盾之处在于,“有钱”的领域大家都想进入。而长久的价格战下,技术成本变成了制胜关键,简单来说,同样的解决方案和报价下,谁的技术成本更低,谁就能亏得更少,活得更久。 

而技术成本取决于企业的硬件成本和算法逻辑,这点目前国内主流的大模型厂商基本处在同一水准,并且迭代和互相追赶的速度也不相上下,但这不代表可以高枕无忧。 

今年9月,OpenAI的“王炸”o1模型的问世也让各家看到了差距,与现有的大模型相比,o1最大的特点就是“推理式AI”,它在回答复杂问题时会花费更多时间来逐步推演问题。这种延时思考并不是缺点,反而让o1更接近人类真实的逻辑推理方式。 

从“生成式AI”到“推理式AI”,o1的推出预示着AI进入了一个全新的阶段。而更令人震惊的是,在o1发布的3个月后,下一代o系列产品o3便横空出世,并且o3有完整版和mini版,新功能是可将模型推理时间设置为低、中、高,模型思考时间越高,效果越好。mini版更精简,针对特定任务进行了微调,将在1月底推出,之后不久推出o3完整版。 

这也意味着快速迭代下,目前主流的生成式AI,即将成为历史产品。 

“价格是影响大模型企业的因素,但更重要的还是技术能力,”一位大模型应用开发者向「科技新知」表示,“目前国内如阿里、昆仑万维等企业也都推出类o1模型,虽然有差距,但也代表了他们也都认同这一趋势。” 

一位业内专家也表示,国内企业走的思路是集成思维链、用搜索方式提升深度推理能力、加入反思策略和算法提升逻辑推理性能,但目前还未完全超过OpenAI。 

值得一提的是,国内最近比较火的DeepSeek-V3,采用的蒸馏技术给行业提供了新思路,但同时也陷入“优化GPT”的争论。 

而针对AI训练可能使用合成数据(大模型生成数据)这一话题,伦敦大学学院(UCL)名誉教授和计算机科学家彼得·本特利表达了担忧,称“如果继续在其他AI的输出上训练AI,结果可能是模型崩溃。确保高质量AI的唯一方法是,为其提供人类的高质量内容。” 

“缺乏参照的现成开源架构,不清楚o1模型做后训练时强化学习的方式以及使用的数据集,树搜索、COT未开源,训练数据污染、国产模型推理性能提升困难,这些都是目前国内企业的难点,”该专家补充道,“不过若有支持o1架构的开源模型出现会加速这一过程,过程中会有两三家先跑,其他家后跟进。” 

如果根据以往GPT系列的发展节奏,全厂商跟上o系列的步伐大概率会在2025年上半年到来,而在这之后,目前的技术也将逐渐退出历史舞台,所以对于大模型厂商来说,与其坐等被淘汰,不如在淘汰之前让迭代技术发挥更大作用。 

总的来看,未来价格虽仍会是影响企业拿单的因素之一,但随着技术的快速迭代和行业的发展,技术能力将越发关键,只有不断提升技术、降低成本、优化服务,大模型厂商才能在即将到来的淘汰赛中存活下来。 

参考资料: 

[1]《豆包再降价,字节“饱和式”进攻仍在继续》, 连线Insight 

[2]《大模型价格战,还能再狠一点》,远川科技评论 

[3]《中国大模型洗牌年将开启,暗藏两大逻辑》,财经 

[4]《字节内部判断AI对话类产品天花板可能不高,提升剪映即梦优先级》,智能涌现 

本文系作者 科技新知 授权钛媒体发表,并经钛媒体编辑,转载请注明出处、作者和本文链接
本内容来源于钛媒体钛度号,文章内容仅供参考、交流、学习,不构成投资建议。
想和千万钛媒体用户分享你的新奇观点和发现,点击这里投稿 。创业或融资寻求报道,点击这里

敬原创,有钛度,得赞赏

赞赏支持
发表评论
0 / 300

根据《网络安全法》实名制要求,请绑定手机号后发表评论

登录后输入评论内容

快报

更多

17:43

慈星股份:终止筹划购买武汉敏声控股权并配套募资事项,股票明起复牌

17:42

汇丰控股:以约1.76亿港元回购近220万股

17:41

贝索斯地球基金据悉停止支持科学碳目标倡议组织

17:39

南向资金今日净卖出53亿港元,盈富基金遭净卖出居前

17:35

2025年春节假期海南离岛免税购物金额近21亿元

17:32

盛天网络:已与Deepseek模型合作,进入测试阶段

17:29

日产汽车董事会会议结束,董事会决定放弃与本田汽车合并的谈判

17:28

东风汽车金融公司增资至50亿元

17:26

现货黄金站上2870美元/盎司,日内涨近1%

17:22

华为小艺助手接入DeepSeek,升级鸿蒙HarmonyOS NEXT即可体验

17:19

成都市政协党组副书记、副主席田蓉接受审查调查

17:18

美国1月房租环比下降0.2%,空置率上升并超过疫情最高水平

17:18

长安汽车2025年1月销量275,700辆

17:17

诺和诺德升级减肥药物CagriSema的研究

17:17

美国企业对特定用于液晶显示器的特定玻璃基板、含有该基板的产品及其制造方法提起337调查申请

17:17

OpenAI首席执行官访印,同印度政府讨论AI战略

17:16

土耳其对华胶合板反倾销案作出反规避终裁

17:16

牧原股份:截至1月底,已累计耗资12.5亿元回购3124.7万股公司股份

17:14

阳光照明:仍持有幻方500指数增强欣享18号私募证券投资基金份额1.4亿份

17:12

国务院批复同意《海南自由贸易港自驾游进境游艇管理若干规定》

扫描下载App