首页 美股新闻 正文

开“卷”!阿里降价 百度免费

llyyy2008
3018 0 0
  5月21日,国产大模型相约开“卷”。
  继阿里宣布通义千问GPT-4级主力模型降价97%后,百度智能云官微宣布,文心大模型两大主力模型全面免费,立即生效!
  据悉,百度宣布免费的两款大模型分别为今年3月推出的两款轻量级大模型ERNIE Speed、ERNIE Lite,支持8K、128k上下文长度。
  21日上午,阿里云刚刚宣布通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%,降价后约为GPT-4价格的1/400。据悉,本次通义千问降价共覆盖9款商业化及开源系列模型,涵盖Qwen-Long、Qwen-Max、Qwen1.5-72B等。
  “输入”与“输出”
  降价幅度有细微差别
  仔细对比降价公告不难发现,此次阿里通义大模型的降价幅度在“输入”和“输出”上有细微差别。
  对此,阿里相关负责人向记者解释称,因为很多用户会结合长文本对模型提问,所以模型输入调用量往往大于输出调用量。根据统计,真实的模型输入调用量一般是输出的8倍左右。“我们把客户使用量最大的输入tokens的价格大幅降下去,对企业来说更划算,可以更好地做到普惠。同时,把输入价格打到极致,也是希望让大家能真正把长文本用起来。”
  以通义千问主力模型Qwen-Long为例,其上下文长度最高达千万,API输入价格从0.02元/千tokens降至0.0005元/千tokens,降幅达到97%,降价幅度高于输出价格的90%(指降幅)。而刚刚发布的旗舰款大模型Qwen-Max,性能追平GPT-4-Turbo,其API输入价格降至0.04元/千tokens,降幅达67%,但输出价格暂时并未调整。
  而此次百度文心大模型两大主力模型宣布“输入”“输出”价格全部免费,也有其背景原因所在。
  据悉,此次免费开放的两款大模型ERNIE Speed、ERNIE Lite是百度今年3月最新发布的轻量级大模型,支持8K和128k上下文长度,其推出的目的就在于提高企业应用大模型的“效价比”。
  相比超大规模参数的大模型,轻量级大模型的参数量更小,更便于客户针对特定使用场景进行模型精调,更容易达成使用效果预期,同时实现“减量不减效”,节约不必要投资。
  具体来看,ERNIE Speed在推理场景下拥有最高128k的上下文长度,在处理知识问答等任务时,能够更好的处理上下文的依赖关系,生成更加连贯和准确的预测或回答。同时,针对特定场景可以将ERNIE Speed作为基座模型进行精调,模型效果可以追平甚至超过旗舰级大参数规模大模型,效价比大幅提升。
  相比ERNIE Speed,ERNIE Lite的参数量则更小,也更加适合搭载在低算力的AI加速卡上处理推理任务,在兼顾模型效果与推理性能的同时,大幅降低客户落地应用成本。
  此外,ERNIE Lite在情感分析、多任务学习、自然推理等场景下的应用效果提升了20%。推理调用成本大幅下降了53%。
  降价与免费背后
  大模型深入构建企业级应用生态
  此前的5月15日,字节跳动宣布其自主研发的豆包主力模型在企业市场的定价,比行业便宜99.3%,一元钱就能买到豆包125万Tokens,大约是200万个汉字,相当于三本《三国演义》,被认为是掀起了国内大模型市场的“价格战”。
  随着大模型性能逐渐提升,AI应用创新正进入密集探索期,更多的企业和机构也早已摆脱了盲目的技术崇拜路线,往往要综合考量大模型的使用效果、性能以及成本,即“效价比”,这对于大模型在企业和生态端的落地也起到了直接作用。
  而此次通义、文心和豆包的降价,无不针对企业级应用市场。
  互联网评论人士王如晨表示,今年国产大模型竞争确实有些气氛了,也包括与海外OpenAI的竞争,但价格战不是最主要的。
  王如晨认为,国产大模型今年开始强化应用,尤其推进生态建设,像阿里强调开源路径、所谓最开放的云,它的云内涵已经扩充,AI也成为云服务的重要组成。但现阶段,行业客户生存有压力,AI落地成效还在逐步验证。如果上来就是叠加服务,价格没有优惠,客户响应动力不足。所以无论是在公共云还是大模型层面,阿里相继提出降价,让客户能直接感受到成本的节约。
  当然,大模型的降价也离不开云平台、大模型厂商在算力、推理等成本方面的下降曲线支撑,这也为阿里、百度等龙头公司的大模型降价创造了条件。
  正如阿里云智能集团资深副总裁、公共云事业部总裁刘伟光所说:“今天我们看到非常多的场景对推理提出了更高要求,当模型尺寸和上下文长度不断增大,应用场景逐渐多样,推理资源的规模正变得越来越大、场景复杂度越来越高。这时候,模型的推理效果、性能和成本就成了一个‘不可能三角’,很难都达到最优。”
  在刘伟光看来,推理的优化,对很多企业来说,不是也不可能成为核心的研究方向。而对于阿里云来说极为重要,甚至可以说是“饭碗”。大规模推理集群优化就是阿里云练就的核心能力,是打破不可能三角的杀手锏,是其能为大家提供效果好、性能优、成本低的推理服务的保障。“阿里云这次大幅降低大模型推理价格,就是希望加速AI应用的爆发。我们预计未来大模型API的调用量会有成千上万倍的增长。”
  王如晨坦言,大模型降价的背后是推动云业务的增长。云计算如果没有更大规模,SaaS生态又很小,云平台利润指标不会好到哪里。从表面来看,降价的是大模型,最后竞争还是要体现在幕后的云计算平台,从而推动增长。这也是刘伟光更加强调“公共云+API将成为企业使用大模型的主流方式”的底层原因所在。
  上海人工智能产业研究院院长朱兆颖则表示,对于大模型厂商而言,降价是吸引用户的重要手段,但长期来看,只有通过技术创新和产品优化,才能真正保持竞争优势。不只要“卷”价格,更要“卷”技术,“卷”产品,全方位的“卷”,才能找到新出路。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

llyyy2008 新手上路
  • 粉丝

    0

  • 关注

    0

  • 主题

    0