1月27日凌晨,阿里云通义开源支持100万Tokens上下文的Qwen2.5-1M模型,推出7B及14B两个尺寸,均在处理长文本任务中稳定超越GPT-4o-mini;同时开源推理框架,在处理百万级别长文本输入时可实现近7倍的提速。
百万Tokens长文本,可换算成10本长篇小说、150小时演讲稿或3万行代码。两个月前,Qwen2.5-Turbo升级了百万Tokens的上下文输入能力。如今,开源社区可基于全新的Qwen2.5-1M系列模型,进行长篇小说或多篇学术论文的解析,或是探索仓库级代码的分析和升级。
每日经济新闻
(责任编辑:张晓波 )
【免责声明】本文仅代表作者本人观点,与和讯网无关。和讯网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。邮箱:news_center@staff.hexun.com
最新评论