EN
daoyihuaxue.com

妖精漫画免费漫画入口页面下拉式蚂蚁开源轻量级推理模型Ring-lite,多项Benchmark达到SOTA

首创 C3PO 强化学习训练方法,直击RL训练中回复长度波动导致的优化难题。相比传统方法,显著改善了在RL训练中由于生成回复长度的大幅波动带来的优化不稳定和吞吐波动问题。探讨了Long-CoT SFT与RL的黄金训练比重。从token efficiency角度提出基于entropy loss来平衡训练效果和样本效率的方案,token效率较纯RL和纯SFT大大提升直面多领域数据联合训练难题!系统验证混合训练与分阶段训练的优劣边界,在数学+代码+科学三重领域实现协同增益。 在经过Long-CoT SFT之后的模型上进行GRPO训练的过程中,团队观察到严重的训练不稳定情况,主要表现在策略模型的梯度范数(Gradient Norm)波动较大且系统吞吐也有明显波动,并且在一定的训练步数之后reward大幅下跌无法恢复。 如下图a所示,基于不同的训练轮数(epoch)的SFT模型做RL训练,都会出现训练崩溃现象,但崩溃的step不同,SFT训练轮数越少崩溃发生越晚。同时观察到entropy与奖励的崩溃表现出较强的相关性,SFT训练越多,RL训练阶段起点entropy越低(图b),更容易导致训练崩溃。 经过分析发现,GRPO在训练过程中的长度波动与梯度范数波动和系统吞吐波动呈现出较强的相关性,因为长度变化会直接影响到优化器在每个训练step接收到的token数。 针对这一问题,他们提出了C3PO(Constrained-Contexual-Computation Policy Optimization)强化学习训练方法,通过固定每个step传给优化器的总训练token数来稳定训练端的梯度范数和系统吞吐。 虽然这一方法会丢弃一些训练token,但通过合理的训练token选择策略,可以有效避免效果下降的问题,并取得训练和系统吞吐稳定的优势。下图是对C3PO方法和常用的样本级别(sample-level)的训练策略做了对比,样本级的过滤策略无法保证单个step的训练token数一致,只能保证样本量一致,而C3PO则强制保证token数一致。 如下图所示,当response-length出现下降时(图a),Policy的梯度范数(GradNorm)开始出现上涨趋势(图b),带来了优化的不稳定,并潜在导致reward的下跌(图c)。 同时在response-length下降时,整个系统的吞吐也呈现下降趋势(图d)。 C3PO由于固定了token-level的训练budget,整体表现更稳定。进一步结合基于熵(entropy loss)来选择Long-CoT SFT之后用来做RL训练的起点模型,解决了reward突发的大幅下跌问题。 Long-CoT SFT + RL的两阶段训练一个自然的问题是如何分配两阶段的训练比重,涉及到包括数据分配,算力分配等问题。业界虽然有两阶段训练方案,但缺少一些理论分析和实践建议。 他们从token efficiency的角度出发来分析该问题,我们认为达到相同训练效果的SFT + RL总token数越少token efficiency越高,反之越低。因此,可以用RL tokens / SFT tokens 来量化二者之间的权衡,进而找到一个策略能更好地实现效果和token efficiency的平衡,相比单纯Long-CoT SFT和单纯RL都更有优势。 实验发现,直接通过SFT模型的benchmark指标来选择用于RL训练的base模型并非最优方案,且容易引发前面提到的模型奖励骤降问题。他们发现存在某种分配方案,可以得到更好的效果和token efficiency权衡(如下图)。 在 Ring-lite 的训练中我们采用了数学、代码、科学任务的联合训练方案,发现直接混合多个任务进行训练相比只训练单个任务都会存在一定的分数下降,在多个模型上进行了实验都能观察到这一现象。如下表,在Ring-lite,基于Ring蒸馏数据训练的Qwen,以及Deepseek蒸馏的Qwen模型均看到类似现象。 团队最终采用了分阶段的方式(先训练数学任务,再进行代码和STEM任务的混合训练)进行了最终的训练,相比直接混合能更好的缓解领域冲突问题。 在数据构建方面,采用”开源整合+自主采集”的双重策略:不仅系统整合了数学、编程、自然科学等领域的高质量公开数据集,还针对性补充了大量各学科竞赛真题,包括国际奥林匹克竞赛、ACM编程竞赛等权威赛事的历年试题,确保数据的专业性与挑战性。 在数据处理环节,建立了多阶段数据质量管控体系,包含低质过滤、语义去重、去污清洗、专家审核等流程,有效保障数据质量。 在数据管理层面,实现了样本级别的精细化管理,每个数据样本均标注多维属性标签,包括数据来源、学科主题、适用学段以及基于模型通过率的难度系数等。 基于这些充分的打标信息,通过强化学习算法进行动态数据采样,优化训练数据领域融合,显著提升了模型训练效率和在复杂推理任务的效果。 为激活基础模型的推理能力,他们构建了具备长链思维(Long-CoT)的高质量数据集。通过整合开源题库与LLM生成内容,采用”自动生成-专家标注-拒绝采样”的迭代优化流程,并经过严格清洗(去除重复/混杂语言等噪声),最终形成以数学(64.5%)、编程(25.5%)和科学(9.2%,含Ling team自研的科学数据合成方法“SHARP”生成的高难度样本)三大领域为主体的多学科推理数据集,为后续强化学习训练提供了良好基础。 数学通过整合开源数据集(如BigMath、DeepScaleR等)和自主收集的考试题/竞赛题(如AoPS网站题库),经过严格清洗筛选,最终构建了包含73,000多道高质量数学题的强化学习数据集。 代码数据集精选自CodeContest、TACO、APPS等开源编程竞赛平台及QOJ在线评测系统,通过多阶段过滤(包括格式修正、沙箱验证AC代码、剔除低效算法和重复题),最终形成包含14,000个代码样本的高质量数据集,每个样本均附带可执行解决方案和已验证测试用例。 他们相信,未来的AI训练不应只是冰冷的参数优化,而应该像人类学习一样——既能把握节奏,又能灵活调整,在稳定中持续精进。 动态学习节奏,不再全程固定token Budget,而是让模型像学生一样,随着“学习能力”的提升逐步增加token budget,减少知识浪费,让每一步训练都物尽其用。 端到端协同优化,不仅关注训练测稳定性,更让C3PO的稳定训练机制贯穿训练与推理阶段,解决推理测长尾生成带来的效率瓶颈。 未来,期待RL的训练不再受限于系统吞吐的波动,而是像真正的智能体一样,在稳定中成长,在成长中突破,最终成为推动AI能力边界不断拓展的核心引擎。

妖精漫画免费漫画入口页面下拉式
妖精漫画免费漫画入口页面下拉式女星大牙站出来控诉范玮琪丈夫陈建州骚扰,获得五位证人支持,结果因为大牙是底层小明星,得罪了陈建州,收入有限还遭到圈内软封杀,没了工作没了金钱支持,被迫放弃追究。据TA记者Pablo Torre在播客节目中爆料,快船球星莱昂纳德与一家涉嫌欺诈的破产碳中和公司之间存在一份虚假代言合同,这份合同价值2800万美元,但这份工作实际上根本不存在。而这家公司获得过快船老板鲍尔默一笔5000万美元的秘密注资。相关消息人士透露,莱昂纳德这份合同是为了规避工资帽。妖精漫画免费漫画入口页面下拉式无人一区二区区别是什么红桃6v2.4.5在今年6月蒙特拉和土耳其续约至2028年时,就曾暗示过他可能成为土耳其公民。而本周土耳其足协主席易卜拉欣-哈西奥斯马诺奥卢在接受采访时确认了这个消息:“我们将尽快让蒙特拉成为土耳其公民。”到了8月底,Anthropic新发布了浏览器产品Claude for Chrome,加入了这场战局。随着AI agent赛道的火热和能力增强,“AI browser”让“浏览器”这个过去数年都没人讨论的词,又在霎那间变成了硅谷的科技香饽饽。
20250915 🔞 妖精漫画免费漫画入口页面下拉式8月21日预售的新一代ES8,定位于全场景科技旗舰SUV,消费者也踊跃下订。蔚来汽车联合创始人、总裁秦力洪表示,如果按照小时算,预售次日,全新ES8的订单数据比乐道L90更好。据悉,ES8将在9月下旬举办的NIO Day 2025活动中正式上市。《低喘闷哼律动舒服吗》他究竟是出于何种考虑作出这一选择的?入手这款百万级别的中型纯电动 SUV 后,他有没有后悔呢?电车通将深入挖掘他内心的真实想法。
妖精漫画免费漫画入口页面下拉式
📸 刘庆宝记者 向家刚 摄
20250915 💦 妖精漫画免费漫画入口页面下拉式从最初对「无图」的追逐,到现如今轻高精地图技术的深度探索,车企与产业链玩家逐渐认清:地图不是辅助驾驶的 「负担」,而是提升辅助驾驶体验的「利器」。九十九夜xbox360在即时配送环节,小象复用了美团全国数百万骑手的运力网络,结合智能调度算法,将平均配送时间压缩至30分钟。它的配送时效更快。
妖精漫画免费漫画入口页面下拉式
📸 曹家武记者 张彦玲 摄
🔞 IT之家从官图中发现,新车车身类似轿车,但车侧较高,底盘离地间隙相比传统轿车也有所增加。其车头大灯采用了标志性的“雷神之锤”T 形设计,位于竖直排列的行车灯上方,下方是简洁的进气格栅。尾灯呈 C 形,类似于 SUV 的设计,后车厢的倾斜玻璃上方还增加了 LED 灯。《续父开了续女包喜儿全文阅读》
扫一扫在手机打开当前页