首页 家电维修 实时讯息 生活常识 百科知识 范文大全 经典语录

通义千问开源32B模型“以小博大”性能比肩DeepSeek

0次浏览     发布时间:2025-03-06 15:07:00    

新京报贝壳财经讯(记者罗亦丹)北京时间3月6日凌晨,通义千问在官方公号上发文称,推出最新的推理模型 QwQ-32B。这是一款拥有320亿参数的模型,其性能可与具备6710亿参数(其中370亿被激活)的 DeepSeek-R1媲美。

通义千问表示,强化学习可以显著提高模型的推理能力。例如,DeepSeek-R1 通过整合冷启动数据和多阶段训练,实现了最先进的性能,使其能够进行深度思考和复杂推理。而QwQ-32B突显了将强化学习应用于经过大规模预训练的强大基础模型的有效性。

其在文章中展示了在一系列基准测试中与DeepSeek-R1、o1-mini等模型的功能对比,如在测试数学能力的 AIME24 评测集上,以及评估代码能力的LiveCodeBench 中,千问 QwQ-32B 表现与DeepSeek-R1相当,胜于 o1-mini 及相同尺寸的R1 蒸馏模型。

目前,QwQ-32B 已在 Hugging Face 和 ModelScope 开源,并采用了 Apache 2.0 开源协议。

编辑 胡萌

校对 王心

相关文章:

两会镜距离 | 触摸民主的温度03-06

通义千问开源32B模型“以小博大”性能比肩DeepSeek03-06

韩红,官宣好消息!03-06

企业家读报告|激发创新活力,“人工智能+”成新质生产力引擎03-06

数据大模型纷纷接入医院,如何理性对待AI看病?03-06

大模型带来贴心便民服务03-06

在世界移动通信大会上体验科技感03-06

对话全国政协委员、工信部原副部长王江平:支持大模型广泛应用,行业模型及专用芯片需求将爆发03-06