再开源两款大模型,腾讯慢慢来
同行几乎每月都在发布大模型开源消息,腾的类似新闻发生在6个月前。11月5日,腾将MoE模型“混元Large”以及混元3D生成大模型“Hunyuan3D-1.0”正式开源,这两个模型已在腾业务场景落地,支持企业及开发者精调、部署等不同场景的使用需求。“慢工出细活”,腾机器学习平台总监,腾混元大语言模型算法负责人康战辉向媒体介绍新开源的MoE模型“混元Large”时表示;“不是什么都唯快不破”,7月腾集团高级执行副总裁汤道生谈到大模型C端产品元宝上线时间时说。巧合的是,第三方机构QuestMobile11月5日披露的AIGCApp月活数据显示,9月豆包、文小言、Kimi等排名前十,元宝不在榜单中。
腾混元Large模型总参数量389B,激活参数量52B ,上下文长度256K。除了这些大模型的常规数据,康战辉在3个多小时的沟通会上多次强调MoE架构。“腾混元Large是目前开源领域参数规模最大、效果最好的MoE模型”。
MoE(Mixture of Experts),即混合专家模型,是目前国内外主流的大模型结构。2024年初,腾混元宣布在国内率先采用MoE架构模型,总体性能比上一代Dense模型提升50%。此后,腾混元推出基于MoE架构的多模态理解大模型以及基础模型“混元turbo”。
之所以强调MoE架构,“是因为腾做MoE架构很早,我们很早发现这里面的潜力,所以一直在延续”,康战辉解释,“本质上来讲,MoE是一个高性价比的东西,同等算力下,模型参数量越大,MoE的性价比更高,更适合复杂的任务。Dense模型的优势在于完成一些相对简单的任务”。
不过他也表示,“架构的选择长期看是殊途同归,罗马在哪里是很清楚的,路怎么走各家不一样”。
另一款开源的腾混元3D生成大模型,首批包含轻量版和标准版,轻量版仅需10s即可生成高质量3D资产,目前已在技术社区公开发布,包含模型权重、推理代码、模型算法等完整模型,可供开发者、研究者等各类用户免费使用。
在应用层面,腾混元3D模型负责人郭春超介绍,目前腾3D生成相关技术已经开始应用于UGC 3D创作、商品素材合成、游戏3D资产生成等腾业务中。腾地图基于腾混元3D大模型,发布了自定义3D导航车标功能,支持用户创作个性化的 3D 导航车标,相比传统的3D车标重建方案,速度提升了91%。
对于开源节奏,腾没有遮掩,态度是“不急于为了开源而开源”“在内部业务打磨好再开源”“要开就要有诚意,与公司内应用模型同宗同源”。
有关推广策略和营收等则不是腾当天的重点,“开源有利于大模型厂商形成更开放的生态,吸引到更多研究者或开发者来丰富基于这些模型的应用和服务,相应地也能推动模型持续地优化迭代。尽管模型本身是开源的,但仍然可以在这个基础上提供多种形式的服务,包括定制开发、技术支持、培训等”,易观分析研究合伙人陈晨告诉记者。
记者 魏蔚
声明:本站所有文章资源内容,如无特殊说明或标注,均为采集网络资源。如若本站内容侵犯了原著者的合法权益,可联系本站删除。