新浪科技讯 6月14日下午消息,第六届“北京智源大会”在中关村(000931)展示中心开幕。智源研究院院长王仲远介绍了智源研究院在语言、多模态、具身、生物计算大模型的前沿探索和研究进展,同时宣布推出智源大模型全家桶及全栈开源技术基座新版图。
据介绍,针对大模型训练算力消耗高的问题,智源研究院和中国电信人工智能研究院(TeleAI)基于模型生长和损失预测等关键技术,联合研发并推出全球首个低碳单体稠密万亿语言模型 Tele-FLM-1T。该模型与百亿级的52B版本,千亿级的102B版本共同构成Tele-FLM系列模型。
针对大模型幻觉等问题,智源研究院自主研发了通用语义向量模型BGE(BAAI General Embedding)系列,基于检索增强RAG技术,实现数据之间精准的语义匹配,支持大模型调用外部知识的调用。自2023年8月起,BGE模型系列先后进行了三次迭代,分别在中英文检索、多语言检索、精细化检索三个任务中取得了业内最佳表现,综合能力显著优于OpenAI、Google、Microsoft、Cohere等机构的同类模型。
此外,为了实现多模态、统一、端到端的下一代大模型,智源研究院推出了Emu3原生多模态世界模型。Emu3采用智源自研的多模态自回归技术路径,在图像、视频、文字上联合训练,使模型具备原生多模态能力,实现了图像、视频、文字的统一输入和输出。
王仲远表示,现阶段语言大模型的发展已经具备了通用人工智能非常核心的理解和推理能力,并且形成了一条以语言大模型为核心对齐和映射其他模态的技术路线,从而让模型具备了初步的多模态理解和生成能力。但这并不是让人工智能感知、理解物理世界的终极技术路线,而是应该采取统一模型的范式,实现多模态的输入和输出,让模型具备原生的多模态扩展能力,向世界模型演进。
王仲远认为,“未来,大模型将以数字智能体的形态与智能硬件融合,以具身智能的形态从数字世界进入物理世界,同时,大模型这一技术手段可为科学研究提供新的知识表达范式,加速人类对微观物理世界规律的探索与研究突破,不断趋近通用人工智能的终极目标。”(文猛)
责任编辑:刘万里 SF014
最新评论