小模型战胜巨型AI,解数学难题

2025-01-10

微软新技术让小型AI模型在数学难题上超越巨型对手

微软近日宣布了一项令人瞩目的突破:他们开发了一种名为“rStar-Math”的新技术,能够显著提高小型语言模型(SLM)在解决数学问题的能力,甚至超过了大型模型OpenAI的o1-preview。

这项研究成果发表在arXiv.org上,由微软、北京大学和清华大学等机构共同完成。 rStar-Math通过一个多轮自进化过程,训练一个小型模型来进行数学推理。该过程要求模型不仅给出答案,还要输出其推理步骤,并以自然语言和Python代码的形式记录下来。

实验结果显示,经过四轮自进化后,rStar-Math 显著提升了小型模型的性能:在MATH基准测试中,Qwen2.5-Math-7B模型的表现从58.8%跃升至90%,超过了OpenAI o1-preview。同时,它还成功解决了 AIME 考试(美国邀请数学竞赛)中的 53.3% 的问题,跻身于高中竞赛选手前 20%。

这项研究挑战了 AI 行业长期以来“规模越大越好”的观点。微软此次发布的 rStar-Math 和 Phi-4 模型表明,小型、专门化的模型可以提供强大的替代方案,无需像大型模型那样耗费大量的计算资源和能源。 这为中小型企业和学术研究人员提供了更经济、环保的选择。

Blog Post Image