刷屏!华为昇腾大模型“翻车”?最新回应来了

2024-05-16 15:36:59 券商中国 微信号

竞争白热化的大模型领域争议多。

5月16日上午,有消息称,华为昇腾在近期一场发布会上展示大模型文生图能力时,演示过程中出现Time.sleep(6)代码。在业内人士看来,这一代码意味着“人为控制从输入到输出,过程需要6秒钟”,有人怀疑其图文结果并非大模型生成,而是人为操控,认为该发布会演示“翻车”了。

面对争议,昇腾社区回应称,5月10日,在鲲鹏昇腾开发者大会的一场技术讨论上,我们演示了mxRAG SDK功能。本次演示面向开发者,展示如何通过十几行代码即可完成RAG应用开发。现场图片为实时生成,调用的是开源大模型。代码中有Time.sleep(6)等表述,是命令等待读取外部开源大模型实时生成的图片,并非调取预置图片。

昇腾回应大模型演示“翻车”

5月16日,针对网传发布会演示造假一事,昇腾社区正式向券商中国记者发来回应。

昇腾表示,5月10日,在鲲鹏昇腾开发者大会的一场技术讨论上,演示了mxRAG SDK功能。本次演示面向开发者,展示如何通过十几行代码即可完成RAG应用开发。现场图片为实时生成,调用的是开源大模型。代码中有Time.sleep(6)等表述,是命令等待读取外部开源大模型实时生成的图片,并非调取预置图片。“本次展示的均为真实代码,也将在昇腾社区上开放,欢迎开发者使用并提出宝贵建议。”

昇腾社区官网信息显示:5月10日,以“一起昇腾,逐梦未来”为主题的昇腾AI开发者峰会在北京举行。会上,华为昇腾计算业务总裁张迪煊发表《一起昇腾,逐梦未来》主题演讲。

昇腾是华为旗下的人工智能计算芯片。

据昇腾社区官方介绍,昇腾计算产业是基于昇腾系列(HUAWEI Ascend)处理器和基础软件构建的全栈 AI计算基础设施、行业应用及服务,包括昇腾系列处理器、系列硬件、CANN(Compute Architecture for Neural Networks,异构计算架构)、AI计算框架、应用使能、开发工具链、管理运维工具、行业应用及服务等全产业链。

大模型百花齐放

在激烈行业竞争之下,国内外厂商不断推出新的大模型以及对原有大模型进行迭代。

例如,5月15日,字节跳动正式发布“豆包大模型”,这也是国内又一家互联网巨头发布的自研大语言模型。性能方面,据字节跳动有关负责人介绍,豆包大模型目前日均处理1200亿Tokens(表示和传递信息的标识符)文本,生成3000万张图片。

5月9日,阿里云正式发布通义千问2.5。相比上一版本,2.5版模型的理解能力、逻辑推理、指令遵循、代码能力分别提升9%、16%、19%、10%。据介绍,在中文语境下,通义千问2.5在文本理解、文本生成、知识问答、生活建议、闲聊、对话、安全风险等多项能力赶超GPT-4。

在国外厂商方面,北京时间5月15日凌晨,谷歌在2024年I/O开发者大会上一次性推出十几款产品更新,重磅级的发布包括轻量化的模型Gemini 1.5 Flash、AI通用智能体Project Astra、强大的AI搜索、视频生成模型Veo、第六代TPU Trillium等,Gemini 1.5 Pro的上下文窗口也从100万tokens升级到200万。

5月14日,美国人工智能公司OpenAI最新发布了GPT-4o多模态大模型,相较于GPT-4 Trubo速度更快、价格也更便宜,最突出特点是在与人的交互方面更为自然。

OpenAI称,GPT-4o可以检测人的情绪,并以类似人类或机器人的语调与用户交谈。同时,它可以在最快232毫秒的时间内响应音频输入,平均响应时间为320毫秒,几乎接近人类在交谈中的响应时间。

华泰证券在发布的研报中分析,在AI大模型的商业模式和竞争格局方面,可能形成赢者通吃或国内外寡头竞争的局面,而行业大模型则有望百花齐放。目前“基础大模型”到“行业大模型”再到“终端应用”的大模型路线非常清晰。训练基础大模型的高成本和高技术壁垒,决定了科技巨头或成为主要玩家。

    本文首发于微信公众号:券商中国。文章内容属作者个人观点,不代表和讯网立场。投资者据此操作,风险请自担。

(责任编辑:宋政 HN002)
看全文
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

热门阅读

    和讯特稿

      推荐阅读

        【免责声明】本文仅代表作者本人观点,与和讯网无关。和讯网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。