“月之暗面”要做To C超级应用 资方追投10亿美元

2024-02-28 04:40:42 每日经济新闻 

每经记者 陈婷 杨昕怡 每经编辑 刘雪梅

当OpenAI的文生视频模型Sora给世界带来新一波的冲击时,国内对人工智能领域的投资热情也再次被点燃。

2024年初,有市场消息称,AI创业公司“月之暗面”已完成新一轮超过10亿美元融资,投资方包括红杉中国、小红书、阿里,老股东跟投。美团也曾参与该公司上一轮融资。本轮融资后,月之暗面估值达到25亿美元。

若以10亿美元的融资规模来计,该轮融资是自ChatGPT掀起人工智能热潮后,国内AI大模型公司迄今获得的单轮最大金额融资。

月之暗面现已推出的产品Kimi智能助手,正是以领先的长文本处理能力受到外界和资本的关注。未来,月之暗面还想在大模型领域做出To C的超级应用。

这家创业公司未满周岁

很难想象,作为国内AI领域最大单笔融资的获得者,这家创业公司还未满一周岁。

2023年3月1日,年轻的“天才AI科学家”杨植麟创办了他的第二家AI公司月之暗面。

2015年从清华大学计算机系毕业后,杨植麟前往美国卡内基-梅隆大学攻读博士,师从苹果AI研究负责人Ruslan Salakhutdinov和谷歌首席科学家William Cohen,并与多位图灵奖得主合作发表论文。

月之暗面向《每日经济新闻》记者介绍,杨植麟是Transformer-XL与XLNet两篇重要论文的第一作者,两者均为大语言模型领域的核心技术。同时,他也是中国35岁以下NLP(自然语言处理)领域引用最高的研究者。

记者从业内人士处了解到,2016年,杨植麟曾参与创立循环智能(Recurrent AI),2021年12月,循环智能宣布完成由博裕投资和红杉中国联合领投的3800万美元新一轮融资,老股东金沙江创投、靖亚资本、真格基金、万物资本等跟投。媒体报道显示,循环智能的技术团队曾与华为云联合发布了国内首个千亿中文语言模型“盘古NLP大模型”。

此外,月之暗面的两位联合创始人周昕宇和吴育昕也均出身清华大学,拥有Meta、旷视科技等知名科技公司的工作经验。

关于现有团队规模,月之暗面方面表示,目前团队超过80人,其中大部分是技术人员,囊括了NLP、CV(计算机视觉)、RL(强化学习)、Infra(基础架构)方面的新生代人才。

英诺天使基金合伙人王晟在接受记者采访时表示,对于早期投资的AI项目,考察的核心因素是团队,“我们对项目的收入、利润没有什么要求,最重要的本质还是人”。

考虑到月之暗面的核心成员参 与 过 Google Gemini、Google Bard、盘古NLP、悟道等大模型的研发项目,它成为资本的争抢对象也就不奇怪了。

有大模型创业公司CTO(首席技术官)对记者表示,早在杨植麟创立循环智能和研发华为盘古模型的时候,便对其团队有所关注。

为何另辟蹊径定位To C

除了“顶配”创业团队,月之暗面也交出了外界看来还算出色的研发答卷。

2023年10月,月之暗面推出首款大模型产品Kimi智能助手。月之暗面方面介绍,与其他大模型产品相比,该产品的主要技术优势在于超长的无损上下文处理能力和卓越的指令遵循能力。

据了解,Kimi智能助手支持输入20万汉字,按OpenAI的计算标准约为40万token(模型可以理解和生成的最小意义单位),是彼时全球大模型产品中所能支持的最长上下文输入长度。同期大模型Claude支持的最大长文本为10万token。

“在投资机构和大厂的内部综合评测中,Kimi智能助手的中文实力直追OpenAI,在理解和生成中文内容方面表现出色。”月之暗面方面向记者强调了该产品的中文处理能力优势。

“AI产品榜(aicpb。com)”统计的数据显示,Kimi智能助手在2024年1月的访问量达142万,在大模型创业公司的“AI ChatBots”产品中居于首位,月环比增长率为94.1%,增长速度也在大模型创业公司中排名第一。

不同于大多数大模型公司选择做B端产品,Kimi智能助手的定位关键词之一是“to C”。

为什么选择做To C领域,月之暗面向《每日经济新闻》记者解释,因为模型的能力还在快速迭代中,国内市场的B端产品往往需要私有化部署和定制化开发,而基于现有模型的某个版本做私有化部署和定制化的开发,将会导致B端产品的能力和用户体验完全跟不上模型能力的快速提升,很快就会被淘汰,最终浪费大量的人力、物力和财力资源。

王晟也对记者表示,投资人2023年都在投资算力、芯片等基础设施,2024年会更关注AI能力的大幅度增长和成本的下降,应用端也会有机会开始出现,尤其是Agent(智能体),“因为Agent是和过去移动互联网完全不一样的东西,大家会率先开始在Agent中找相关的应用落地。”

好技术如何变成好生意?

技术突破造就ChatGPT一炮而红,对于以技术为主打的创业公司而言,技术始终是其能否保持长期领先优势的关键。

长文本是月之暗面选择的突破方向。杨植麟在2023年11月的一次外部演讲中认为,如今基于Transformer架构的大模型,是“新时代的计算机”,参数数量决定计算复杂度,上下文长度决定内存大小——因此,上下文长度是毫无疑问的关键所在。他认为,规模化是通向AGI(通用人工智能)的核心,而随着模型不断迭代,长文本会逐渐取代微调,成为定制模型的关键技术。

月之暗面也对《每日经济新闻》记者表示,通往通用人工智能(AGI)(的发展中),长上下文(long-context)会是一个很重要的点。在其看来,某种程度上看,所有问题都是上下文长度问题。

那么,Kimi智能助手支持20万汉字的长文本输入,主打无损记忆。这一突破究竟有多难?

上述大模型创业公司CTO对记者表示,月之暗面对文本长度的突破有一定难度,但途径也有多种,较成熟的有位置编码的外拓,或者工程上的切片召回策略等。他表示,具体到月之暗面,由于没有披露这块细节,暂时无法得知其实现方法。

北京市社会科学院管理研究所副研究员王鹏对记者表示,支持超过20万字的长文本输入在技术上确实是一个挑战,但是否算作重大突破,要取决于具体应用场景。例如,在处理长篇小说、历史文档或复杂的法律文件时,能够处理如此长的文本输入将大大提高AI的理解和分析能力。“这要求模型不仅要有强大的计算能力,还需要有优秀的内存管理能力来保持对长文本的连贯理解。”

深度科技研究院院长张孝荣对记者表示,支持超过20万字的长文本输入确实可以算是一个技术上的突破。在自然语言处理领域,处理长文本一直是一个挑战,长文本需要大模型有更强的“记忆”能力。当大模型有了这种长文本能力,才能更方便地处理小说、财报等。大模型能够处理长文本输入,可以带来多方面的影响。首先,这可以提高自然语言处理的准确性和效率,使得模型能够更好地理解和生成自然语言文本。其次,这也为一些需要处理大量文本数据的任务提供了可能,比如文献分析、文本挖掘等。

此外,长文本处理技术的发展,还可以推动自然语言处理在其他领域的应用。

当创业公司以技术驰名,注定它需要面对保持技术领先性的压力。与此同时,好技术如何变成好生意,同样是一个需要在探索中回答的难题。对于月之暗面而言,完成迅速崛起不过是万里跋涉第一步。

(责任编辑:王治强 HF013)
看全文
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

热门阅读

    和讯特稿

      推荐阅读

        【免责声明】本文仅代表作者本人观点,与和讯网无关。和讯网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。