国产大模型的价格已经卷出网约车大战和百亿补贴的味儿了
以下文章来自硅星人Pro,作者:周一笑Yoky
登录就送 500w tokens!1 块钱 100w tokens!一降再降!!仅需 0.0008 元/千tokens!
没错,互联网价格战熟悉的“味”,已经悄无声息的打到了大模型的战场。
技术狂飙了一年,大模型公司们早就按捺不住要搅弄商业风云的心,5 月份,多家大模型产品宣布了密集的降价策略。
严格来说,是堪称为大模型界“拼多多”的 DeepSeek,率先点燃了价格战的引线。
5 月 6 日,DeepSeek 官网推出了“高性价比”的大模型,将旗下的大模型 DeepSeek-V2 的价格降到了每百万 token 输入 1 元、输出 2 元(32K 上下文),能力对标 GPT-4、llama 3-70B,价格仅为 GPT-4 的近 1%。开发者登录 DeepSeek 开放平台送 500万 tokens。

智谱第一个不服。5 月 11 日,智谱 AI 调整了旗下入门级大模型 GLM-3-Turbo(上下文长度 128k)的价格,从 0.005 元 / 千 tokens 降低到 0.001 元 / 千tokens。此外,开放平台新注册用户获赠从 500 万 tokens 提升至 2500 万 tokens(包含 2000 万 GLM3-Turbo 和 500 万 GLM 4)。而 GLM-3 Turbo Batch 批处理 API 还将进一步便宜 50%——0.0005/千 tokens,也就是 1 元 200万 tokens。

5 月 15 日,火山引擎原力大会上,豆包高调的将本来在水面下的价格战,赤裸的搬到了台面上。
会上火山引擎总裁谭待宣布豆包主力模型在企业市场的定价只有 0.0008 元/千 tokens,0.8 厘就能处理 1,500 多个汉字,比行业便宜 99.3%。
现场观众的激动程度堪比听到大主播在直播间大吼:“家人们,我们把大模型的价格打下来了!”
在 DeepSeek 发起,几个核心厂商跟进的局面下,也彻底拉开了大模型商业竞争进入了“卷价格”的新赛段。
比价,用百度阿里当“活靶子”
有意思的是,大家比价归比价,都拿百度文心和阿里通义当靶子。
无论是 DeepSeek、智谱还是豆包,都以文心和通义为标尺进行比价。当然,这也侧面反映了,这两个模型确实在中国大模型中,占据了很重要的位置,甚至是参照物。

虽然不谈性能只谈价格的方式无异于“耍流氓”,但对于价格敏感型的客户而言,价格基本上就是唯一的决定性因素。
智谱在公布新大模型时,做了直观的比价图,GLM-3-Turbo 的价格是阿里 qwen-turbo 的八分之一,是百度 ERNIR 3.5 的十二分之一。当然对比 ChatGPT 的时候,就不能抛开性能,只比价格了。

同样,豆包在发布豆包通用模型 pro 的价格时,也拉来了百度和阿里的对标模型作为价格对比。基本上,行业价格等于 ERNIE 和 Qwen 的平均价格。

还有卷的更狠的,直接拉国内外的主流模型们进行集体比价。

而针对被当活靶子以及是否参与价格战的问题,百度在豆包宣布全面降价的下午便回复道:“文心大模型日均处理 Tokens 文本已达 2490 亿,并强调使用大模型不应只看价格,更要看综合效果。”
为了能够让客户更了解低价的现实意义,各家大模型厂商都在努力“接地气”。
1 块钱在现实世界可能连个包子都买不到,但是在智谱,你能写 1 万条小红书( 以350 字计算);在豆包,你能读三本《三国演义》;在 DeepSeek,一位普通开发者充 50 块钱能用好几年。

不仅卖,他们还免费送。
开发者登录 DeepSeek 开放平台就送 500 万 tokens,而智谱似乎就是要跟 DeepSeek 硬刚,随即宣布新注册开放平台用户赠送额度提升 500%。开放平台新注册用户获赠从 500 万 tokens 提升至 2500 万 tokens(包含 2000 万入门级额度和 500 万企业级额度)。
有开发者表示:“如果只是自己开发测试根本用不完,热闹都是他们的,我们就负责占便宜。”
面壁智能直接喊出了“不降价,0 元不限量”的活动。不过这是因为模型本身免费开源,且部署在端侧,利用终端设备算力,无需调用云端API。有开发者向硅星人表达了自身感受:“以前薅服务器和存储空间,现在薅 tokens,不出意外的话,后续几家主流的模型厂商都会跟进,我们未来3年可能都不用买 tokens 了。”
谁是最便宜的大模型?
那么问题来,到底谁是最便宜的大模型?
硅星人根据各家厂商的官方信息,汇总整理了部分大模型API的价格,直观的对比了价格,话不多说,直接上图(这可能是市面上最全的比价图了):

从图表中整理的情况来看,如果按照绝对值计算,豆包 pro32k 是目前市场价格最低大模型,但 DeepSeek-V2 的上下文文本长度为 128k,对比下来,可以说是性价比最高的大模型了。
价格战对于每一代的互联网人而言,都并不陌生,降价策略通常被视为吸引更多用户、增强用户黏性和市场份额的一种有效手段,但同时,也常常逃不开“拿钱换增长”的恶性循环。
谭待讲道:“用亏损换收入是不可持续的,所以我们从来不走这条路”。
DeepSeek v2 版本发布时,其员工也表示:基本纯靠模型结构创新(MLA+DeepSeekMoE)+ 超强 Infra,且“目前就是大规模服务的价格,不亏本,利润率超 50%”。
价格低还有利润?是怎么做到的?
影响大模型推理价格的降低的因素有很多,比如技术进步和优化就是一个直接的原因,不少开发者惊叹于幻方是怎么兼顾模型效果和成本的。
首先源于 DeepSeek 本身的硬实力,就是我们俗称的“有卡”。根据幻方官方信息,其幻方 AI 智能超算集群配备了 1 万张英伟达高性能的 A100 计算卡,硬件和计算资源可能也是 DeepSeek 能够保持低价的原因。它也是国内为数不多非大厂拥有万卡的公司。
其次是来自于架构和算法上的创新。这一点和豆包能低价是相同的。
谭待介绍道:“火山引擎在技术上有非常多优化手段,可以降低大模型成本,此外在工程上可以通过分布式推理的形式将底层算力使用得更好;另外,在混合调度方面,可以把不同负载作为混合调度,这样的成本也大幅下降。”
我们都知道,当一个行业进入了价格战阶段,就意味着产品走向了同质化。在大模型发展的早期技术的差异性还未清晰,但低价确实能够带来更广泛的渗透,于国内大模型而言,这是福还是祸?
客观上来看,大模型API价格战和推理价格的下降,有可能推动AI应用的广泛普及和创新,因为更低的成本使得更多的企业和开发者能够负担得起这项技术,也有更多的尝试空间。不过,降价能否帮助大模型厂商带来更多新增用户和付费用户,仍值得商榷。
虽然价格的降低可以短期内吸引更多用户尝试和采用AI大模型,但长期而言,技术能力的提升和创新是确保大模型应用普及和持续发展的根本。从互联网技术的发展历程中,我们可以明确看到技术创新和提升为行业带来的深远影响,这对大模型的发展同样适用。
正如移动互联网的普及并不只是因为手机价格的降低,一个重要原因是苹果推出了 iPhone,将多点触控等技术引入手机,带来了新的人机交互方式,让 iPhone 软件生态的建立成为了可能。
价格战打到最后,受益的大概率只是少数头部企业。如果不能有效控制成本的企业若盲目加入价格竞争,无疑会丧失自身优势,陷入他人设定的竞争节奏,最后又是一轮行业洗牌。
不只要“卷”价格,更要“卷”技术,“卷”产品,全方位的“卷”,才能找到新出路。
文章信息来自于硅星人Pro,不代表白鲸出海官方立场,内容仅供网友参考学习。对于因本网站内容所引起的纠纷、损失等,白鲸出海均不承担侵权行为的连带责任。如若转载请联系原出处。
友情提醒:白鲸出海目前仅有微信群与QQ群,并无在Telegram等其他社交软件创建群,请白鲸的广大用户、合作伙伴警惕他人冒充我们,向您索要费用、骗取钱财!


闽公网安备35010402350923号