8月4日,腾讯混元正式开源 0.5B、1.8B、4B、7B 四款小参数模型,目前已同步上线 GitHub 与 HuggingFace 平台。
这四款“小”模型定位低耗高效,能轻松支持多场景,仅需消费级显卡即可运行!此次开源获得 ARM、高通、英特尔、联发科技等终端芯片头部企业的联合支持,标志着大模型能力向消费级设备的渗透进入实质性落地阶段。
端侧推理能力的突破性重构
AI
目前这四款模型均搭载腾讯自研的融合推理架构,核心优势在于实现 "快思考 - 慢思考" 双模式动态切换:
快思考模式下提供简洁、高效的输出,适合手机通知处理、车载语音交互等实时场景;
慢思考模式则涉及解决复杂问题,具备更全面的推理步骤,可完成多步骤数学推理、长文本逻辑分析等复杂任务。
在性能表现上,Hunyuan 7B模型在主流 Benchmark上得分领先,如GPQA 测试得85.9分,超过OpenAI o1-mini的83.9分;
Hunyuan 0.5B、1.8B 和 4B 模型在 MMLU 等测试中也有出色表现,其中 Hunyuan 4B 在 MMLU 测试中得 75.2 分。
从参数和输入输出来看,四款模型总参数最大输入输出均为32K,其中 Hunyuan-7B 最大输入为 16K;
配合轻量化部署设计,单卡即可部署,部分 PC、手机、平板等设备可直接接入,像部分搭载骁龙 8 Gen3、天玑 9300 的旗舰手机甚至可直接运行 1.8B 模型,且支持主流推理框架(例如 SGLang、VLLM and TensorRT-LLM)和多种量化格式,为端侧 AI 应用扫清硬件障碍。
从工具层到行业层的全栈验证
AI
在腾讯生态内,模型已完成多场景实战检验:
1. 办公与阅读场景:
◦ 腾讯会议 AI 小助手可一次性理解和处理完整会议内容;
◦ 微信读书 AI 问书助手能对整本书籍进行分析与解答。
2. 安全与设备场景:
◦ 腾讯手机管家借助小尺寸模型,实现垃圾短信毫秒级拦截,识别准确率显著提升;
◦ 腾讯智能座舱助手通过双模型协作架构,解决车载环境痛点,发挥模型低功耗、高效推理特性。
3. 输入与导航场景:
◦ 腾讯地图采用多模型架构,通过意图分类和推理能力优化用户交互体验;
◦ 微信输入法「问 AI」实现输入框与 AI 即问即答的无缝衔接。
4. 垂直领域场景:
◦ 金融 AI 助手通过 Prompt 优化和少量数据微调,达成 95%+ 的意图识别准确率,展现金融级高可靠性;
◦ 游戏翻译和《QQ 飞车》手游 NPC 利用模型理解能力,在多语言理解、方言翻译和智能对话上表现突出,在专业客服、内容出海、电商直播等场景具备巨大应用潜力。
多模态生态的系统性扩张
AI
此次开源,是腾讯混元 "全尺寸 + 全模态" 战略的重要里程碑;至此,其开源模型矩阵已全面覆盖文本、图像、视频及 3D 生成等多模态应用场景。
腾讯混元从 Hunyuan Large 迈向开源四款小模型的布局,标志着其在大模型领域已构建起覆盖大、小模型的完整产品线矩阵,并通过开放训练工具链,大幅降低垂直领域模型微调的技术门槛。
未来,随着小模型在手机等终端设备的广泛部署,以及训练工具链的持续迭代优化,混元有望进一步推动 AI 技术在千行百业的深度渗透,助力开发者构建更轻量化、场景化的智能应用,加速 AI 普惠生态的全面繁荣。