小米大模型团队突破音频推理,强化学习助力登顶MMAU榜首!

   发布时间:2025-03-17 13:30 作者:唐云泽

小米大模型团队在音频推理领域取得了一项引人注目的成就。近日,该团队宣布,他们受Deepseek-R1的启发,在国际权威的MMAU音频理解评测中取得了突破,以64.5%的准确率登顶榜首,并且已经将相关技术开源。

MMAU评测集,即大规模多任务音频理解和推理评测集,是衡量音频推理能力的重要标尺。它包含了一万条涵盖语音、环境声和音乐的音频样本,并结合人类专家标注的问答对,测试模型在27种技能上的表现,旨在推动模型达到接近人类专家的逻辑分析水平。然而,这一评测标准对人类来说也并非易事,人类专家在MMAU上的准确率也不过82.23%。

在小米大模型团队登顶之前,MMAU官网榜单上的佼佼者是来自OpenAI的GPT-4o,其准确率为57.3%,紧随其后的是Google DeepMind的Gemini 2.0 Flash,准确率为55.6%。而来自阿里的Qwen2-Audio-7B模型,在此评测集上的表现则为49.2%。

小米大模型团队并未止步于Qwen2-Audio-7B模型的表现。他们利用该模型的开源特性,尝试使用清华大学发布的AVQA数据集进行微调。AVQA数据集虽然仅包含3.8万条训练样本,但通过全量有监督微调(SFT),Qwen2-Audio-7B模型在MMAU上的准确率提升到了51.8%。这一初步成果为团队后续的研究奠定了坚实的基础。

DeepSeek-R1的发布为小米大模型团队带来了新的启示。该模型采用的Group Relative Policy Optimization(GRPO)方法,使得模型能够通过“试错-奖励”机制自主进化,涌现出类似人类的反思和多步验证等推理能力。小米大模型团队深受启发,尝试将DeepSeek-R1的GRPO算法迁移到Qwen2-Audio-7B模型上。

经过不懈的努力,小米大模型团队最终取得了令人瞩目的成果。在仅使用AVQA的3.8万条训练样本的情况下,强化学习微调后的模型在MMAU评测集上实现了64.5%的准确率。这一成绩不仅远超Qwen2-Audio-7B模型微调前的表现,也比目前榜单上第一名的商业闭源模型GPT-4o有近10个百分点的优势。

小米大模型团队的这一成就,不仅展示了他们在音频推理领域的强大实力,也为整个AI领域带来了新的启示。他们通过开源技术和创新算法的结合,推动了音频理解和推理能力的提升,为未来的AI发展开辟了新的道路。

 
 
更多>同类内容
全站最新
热门内容
本栏最新
 
智快科技微信账号
微信群

微信扫一扫
加微信拉群
电动汽车群
科技数码群