开“卷”!阿里降价 百度免费
llyyy2008
发表于 2024-5-21 19:13:56
3023
0
0
继阿里宣布通义千问GPT-4级主力模型降价97%后,百度智能云官微宣布,文心大模型两大主力模型全面免费,立即生效!
据悉,百度宣布免费的两款大模型分别为今年3月推出的两款轻量级大模型ERNIE Speed、ERNIE Lite,支持8K、128k上下文长度。
21日上午,阿里云刚刚宣布通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%,降价后约为GPT-4价格的1/400。据悉,本次通义千问降价共覆盖9款商业化及开源系列模型,涵盖Qwen-Long、Qwen-Max、Qwen1.5-72B等。
“输入”与“输出”
降价幅度有细微差别
仔细对比降价公告不难发现,此次阿里通义大模型的降价幅度在“输入”和“输出”上有细微差别。
对此,阿里相关负责人向记者解释称,因为很多用户会结合长文本对模型提问,所以模型输入调用量往往大于输出调用量。根据统计,真实的模型输入调用量一般是输出的8倍左右。“我们把客户使用量最大的输入tokens的价格大幅降下去,对企业来说更划算,可以更好地做到普惠。同时,把输入价格打到极致,也是希望让大家能真正把长文本用起来。”
以通义千问主力模型Qwen-Long为例,其上下文长度最高达千万,API输入价格从0.02元/千tokens降至0.0005元/千tokens,降幅达到97%,降价幅度高于输出价格的90%(指降幅)。而刚刚发布的旗舰款大模型Qwen-Max,性能追平GPT-4-Turbo,其API输入价格降至0.04元/千tokens,降幅达67%,但输出价格暂时并未调整。
而此次百度文心大模型两大主力模型宣布“输入”“输出”价格全部免费,也有其背景原因所在。
据悉,此次免费开放的两款大模型ERNIE Speed、ERNIE Lite是百度今年3月最新发布的轻量级大模型,支持8K和128k上下文长度,其推出的目的就在于提高企业应用大模型的“效价比”。
相比超大规模参数的大模型,轻量级大模型的参数量更小,更便于客户针对特定使用场景进行模型精调,更容易达成使用效果预期,同时实现“减量不减效”,节约不必要投资。
具体来看,ERNIE Speed在推理场景下拥有最高128k的上下文长度,在处理知识问答等任务时,能够更好的处理上下文的依赖关系,生成更加连贯和准确的预测或回答。同时,针对特定场景可以将ERNIE Speed作为基座模型进行精调,模型效果可以追平甚至超过旗舰级大参数规模大模型,效价比大幅提升。
相比ERNIE Speed,ERNIE Lite的参数量则更小,也更加适合搭载在低算力的AI加速卡上处理推理任务,在兼顾模型效果与推理性能的同时,大幅降低客户落地应用成本。
此外,ERNIE Lite在情感分析、多任务学习、自然推理等场景下的应用效果提升了20%。推理调用成本大幅下降了53%。
降价与免费背后
大模型深入构建企业级应用生态
此前的5月15日,字节跳动宣布其自主研发的豆包主力模型在企业市场的定价,比行业便宜99.3%,一元钱就能买到豆包125万Tokens,大约是200万个汉字,相当于三本《三国演义》,被认为是掀起了国内大模型市场的“价格战”。
随着大模型性能逐渐提升,AI应用创新正进入密集探索期,更多的企业和机构也早已摆脱了盲目的技术崇拜路线,往往要综合考量大模型的使用效果、性能以及成本,即“效价比”,这对于大模型在企业和生态端的落地也起到了直接作用。
而此次通义、文心和豆包的降价,无不针对企业级应用市场。
互联网评论人士王如晨表示,今年国产大模型竞争确实有些气氛了,也包括与海外OpenAI的竞争,但价格战不是最主要的。
王如晨认为,国产大模型今年开始强化应用,尤其推进生态建设,像阿里强调开源路径、所谓最开放的云,它的云内涵已经扩充,AI也成为云服务的重要组成。但现阶段,行业客户生存有压力,AI落地成效还在逐步验证。如果上来就是叠加服务,价格没有优惠,客户响应动力不足。所以无论是在公共云还是大模型层面,阿里相继提出降价,让客户能直接感受到成本的节约。
当然,大模型的降价也离不开云平台、大模型厂商在算力、推理等成本方面的下降曲线支撑,这也为阿里、百度等龙头公司的大模型降价创造了条件。
正如阿里云智能集团资深副总裁、公共云事业部总裁刘伟光所说:“今天我们看到非常多的场景对推理提出了更高要求,当模型尺寸和上下文长度不断增大,应用场景逐渐多样,推理资源的规模正变得越来越大、场景复杂度越来越高。这时候,模型的推理效果、性能和成本就成了一个‘不可能三角’,很难都达到最优。”
在刘伟光看来,推理的优化,对很多企业来说,不是也不可能成为核心的研究方向。而对于阿里云来说极为重要,甚至可以说是“饭碗”。大规模推理集群优化就是阿里云练就的核心能力,是打破不可能三角的杀手锏,是其能为大家提供效果好、性能优、成本低的推理服务的保障。“阿里云这次大幅降低大模型推理价格,就是希望加速AI应用的爆发。我们预计未来大模型API的调用量会有成千上万倍的增长。”
王如晨坦言,大模型降价的背后是推动云业务的增长。云计算如果没有更大规模,SaaS生态又很小,云平台利润指标不会好到哪里。从表面来看,降价的是大模型,最后竞争还是要体现在幕后的云计算平台,从而推动增长。这也是刘伟光更加强调“公共云+API将成为企业使用大模型的主流方式”的底层原因所在。
上海人工智能产业研究院院长朱兆颖则表示,对于大模型厂商而言,降价是吸引用户的重要手段,但长期来看,只有通过技术创新和产品优化,才能真正保持竞争优势。不只要“卷”价格,更要“卷”技术,“卷”产品,全方位的“卷”,才能找到新出路。
CandyLake.com 系信息发布平台,仅提供信息存储空间服务。
声明:该文观点仅代表作者本人,本文不代表CandyLake.com立场,且不构成建议,请谨慎对待。
声明:该文观点仅代表作者本人,本文不代表CandyLake.com立场,且不构成建议,请谨慎对待。
-
生成式人工知能(AI)が巻き起こす技術の波の中で、電力会社は意外にも資本市場の寵児になった。 今年のスタンダード500割株の上昇幅ランキングでは、Vistraなどの従来の電力会社が注目を集め、株価が2倍になってリ ...
- xifangczy
- 3 天前
- 支持
- 反对
- 回复
- 收藏
-
隔夜株式市場 世界の主要指数は金曜日に多くが下落し、最新のインフレデータが減速の兆しを示したおかげで、米株3大指数は大幅に回復し、いずれも1%超上昇した。 金曜日に発表されたデータによると、米国の11月のPC ...
- SNT
- 前天 12:48
- 支持
- 反对
- 回复
- 收藏
-
長年にわたって、昔の消金大手の捷信消金の再編がようやく地に着いた。 天津銀行の発表によると、同行は京東傘下の2社、対外貿易信託などと捷信消金再編に参加する。再編が完了すると、京東の持ち株比率は65%に達し ...
- SNT
- 前天 12:09
- 支持
- 反对
- 回复
- 收藏
-
グーグルは現地時間12月19日、新しい「推理」モデルとしてGemini 2.0 Flash Thinkingを発売すると発表した。紹介によると、このモデルはまだ実験段階であり、訓練を経た後、モデルが反応を起こした時に経験した「思 ...
- 地下水
- 3 天前
- 支持
- 反对
- 回复
- 收藏