5月21日,阿里云宣布,通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%。
这意味着,1块钱可以买200万tokens,相当于5本《新华字典》的文字量。据了解,这款模型最高支持1千万tokens长文本输入,降价后约为GPT-4价格的1/400。
通义千问大降价
随着大模型性能逐渐提升,AI应用创新正进入密集探索期,但推理成本过高依然是制约大模型规模化应用的关键因素。
Qwen-Long是通义千问的长文本增强版模型,性能对标GPT-4,上下文长度最高达1千万。除了输入价格降至0.0005元/千tokens,Qwen-Long输出价格也直降90%至0.002元/千tokens。相比之下,国内外厂商GPT-4、Gemini1.5 Pro、Claude 3 Sonnet及Ernie-4.0每千tokens输入价格分别为0.22元、0.025元、0.022元及0.12元,均远高于Qwen-long。
通义千问本次降价共覆盖9款商业化及开源系列模型。不久前发布的通义千问旗舰款大模型Qwen-Max,API输入价格降至0.04元/千tokens,降幅达67%。Qwen-Max是目前业界表现最好的中文大模型,在权威基准OpenCompass上性能追平GPT-4-Turbo,并在大模型竞技场Chatbot Arena中跻身全球前15。
API调用量将大规模增长
阿里云智能集团资深副总裁、公共云事业部总裁刘伟光今日表示,阿里云这次大幅降低大模型推理价格,就是希望加速AI应用的爆发,“我们预计未来大模型API的调用量会有成千上万倍的增长。”
刘伟光认为,不管是开源模型还是商业化模型,公共云+API将成为企业使用大模型的主流方式,主要有三点原因:一是公共云的技术红利和规模效应,带来巨大的成本和性能优势。二是云上更方便进行多模型调用,并提供企业级的数据安全保障。三是云厂商天然的开放性,能为开发者提供最丰富的模型和工具链。
就在5月9日,阿里云正式发布通义千问2.5,中文场景模型性能全面赶超GPT-4-Turbo。相比上一版本,2.5版模型的理解能力、逻辑推理、指令遵循、代码能力分别提升9%、16%、19%、10%。根据权威基准Open Compass的测评结果,通义千问2.5得分追平GPT-4-Turbo,是该基准首次录得国产大模型取得如此出色的成绩。
云产品已全线降价
就在1个月之前,阿里云官宣海外市场全线降价,覆盖全球13个地域节点部署的核心云产品、500多个产品规格,平均降幅23%,最高降幅59%。降价涉及计算、存储、网络、数据库、大数据五大类主营产品。
其中,云服务器ECS最高降价30%,块存储EBS最高降幅59%,大数据产品最高降幅达 50%;对象存储OSS新增500GB新老同享折扣,套餐价格从63美元降至16.99美元;云数据传输CDT公网流量免费额度从20GB/月提升至200GB/月,云数据库RDS最高降幅达50%。
2月,阿里云曾宣布全线产品降价超20%的消息,这也被称作是阿里云史上最大力度降价。券商中国曾报道《绝杀!重磅官宣:全线降价超20%!影响多大?》:2月29日,阿里云全线下调云产品官网售价,平均降价幅度超过20%,最高降幅达55%。该轮降价后,阿里云核心产品价格都击穿了全网最低价。
本文首发于微信公众号:券商中国。文章内容属作者个人观点,不代表和讯网立场。投资者据此操作,风险请自担。
最新评论