首页 美股新闻 正文

阿里出手!“击穿全球底价”

Aim_yuan
177 0 0
  记者5月21日从阿里云获悉,通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%。这意味着,1元可以买200万tokens,相当于5本《新华字典》的文字量。这款模型最高支持1千万tokens长文本输入,降价后约为GPT-4价格的1/400。
  在21日举行的武汉AI智领者峰会现场,阿里云智能集团资深副总裁、公共云事业部总裁刘伟光表示:“作为中国第一大云计算公司,阿里云这次大幅降低大模型推理价格,就是希望加速AI应用的爆发。我们预计未来大模型API的调用量会有成千上万倍的增长。”
  刘伟光用“击穿全球底价,加速AI爆发”来形容此次阿里通义千问的新变化。
  降价共覆盖9款商业化及开源系列模型
  据悉,本次通义千问降价共覆盖9款商业化及开源系列模型,涵盖Qwen-Long、Qwen-Max、Qwen1.5-72B等。其中,通义千问主力模型Qwen-Long,上下文长度最高达千万,API输入价格从0.02元/千tokens降至0.0005元/千tokens,降幅达到97%;刚刚发布的旗舰款大模型Qwen-Max,在权威基准OpenCompass上性能追平GPT-4-Turbo,其API输入价格降至0.04元/千tokens,降幅67%。
  其中,主力模型Qwen-Long性能对标GPT-4级,可处理超长上下文场景,支持中文、英文等不同语言输入,支持最长1000万tokens(约1500万字或1.5万页文档)的超长上下文对话。配合阿里云百炼平台同步上线的文档服务,可支持word、pdf、markdown、epub、mobi等多种文档格式的解析和对话。
  公共云+API将成为企业使用大模型的主流方式
  随着大模型性能逐渐提升,AI应用创新正进入密集探索期,但推理成本过高依然是制约大模型规模化应用的关键因素。
  不同于私有化部署,基于云上调用则为大模型的“降本增效”提供了更大的空间。一般情况下,私有化部署开源模型需要自建集群,要考虑到硬件采购、软件部署、网络费用、电费,及硬件折旧、人力等多重成本因素,如果出现计算资源闲置或超载等情况,还需要付出额外成本;而在云上调用大模型API真正实现了随用随取,按需使用。
  刘伟光用“击穿全球底价,加速AI爆发”来形容此次阿里通义千问的新变化。
  他表示,不管是开源模型还是商业化模型,公共云+API将成为企业使用大模型的主流方式,主要有三个原因:
  首先,公共云的技术红利和规模效应,带来巨大的成本和性能优势。阿里云可以从模型自身和AI基础设施两个层面不断优化,追求极致的推理成本和性能。阿里云基于自研的异构芯片互联、高性能网络HPN7.0、高性能存储CPFS、人工智能平台PAI等核心技术和产品,构建了极致弹性的AI算力调度系统,结合百炼分布式推理加速引擎,大幅压缩了模型推理成本,并加快模型推理速度。
  也就是说,即便是同样的开源模型,在公共云上的调用价格也远远低于私有化部署。以使用Qwen-72B开源模型、每月1亿tokens用量为例,在阿里云百炼上直接调用API每月仅需600元,私有化部署的成本平均每月超1万元。
  二是云上更方便进行多模型调用,并提供企业级的数据安全保障。阿里云可以为每个企业提供专属VPC环境,做到计算隔离、存储隔离、网络隔离、数据加密,充分保障数据安全。目前,阿里云已主导或深度参与十多项大模型安全相关国际国内技术标准的制定。
  三是云厂商天然的开放性,能为开发者提供最丰富的模型和工具链。阿里云百炼平台上汇聚通义、百川、ChatGLM、Llama系列等上百款国内外优质模型,内置大模型定制与应用开发工具链,开发者可以便捷地测试比较不同模型,开发专属大模型,并轻松搭建RAG等应用。从选模型、调模型、搭应用到对外服务,一站式搞定。
  根据最新数据,通义大模型通过阿里云服务企业已超过9万家、通过钉钉服务企业超过220万家,已在PC、手机、汽车、航空、天文、矿业、教育、医疗、餐饮、游戏、文旅等领域落地应用。
  5月9日,小米旗下的人工智能助手“小爱同学”已与阿里云通义大模型达成合作,强化其在图片生成、图片理解等方面的多模态AI生成能力,并在小米汽车、手机等多类设备落地。此外,微博、众安保险、完美世界游戏等企业也宣布接入通义大模型,将大模型应用于社交媒体、保险、游戏等领域。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Aim_yuan 注册会员
  • 粉丝

    0

  • 关注

    0

  • 主题

    24