首页 > 以车会友 > 以车会友 > 稳定训练、数据高效,清华大学提出「流策略」新方法SAC Flow

稳定训练、数据高效,清华大学提出「流策略」新方法SAC Flow

发布时间:2025-10-21 10:38:33

一种用高数据效率强化学习算法 SAC 训练流策略的新方案,可以端到端优化真实的流策略,而无需采用替代目标或者策略蒸馏。SAC FLow 的核心思想是把流策略视作一个 residual RNN,再用 GRU 门控和 Transformer Decoder 两套速度参数化。SAC FLow 在 MuJoCo、OGBench、Robomimic 上达到了极高的数据效率和显著 SOTA 的性能。

作者来自于清华大学和 CMU,通讯作者为清华大学教授丁文伯和于超,致力于强化学习算法和具身智能研究。

研究背景

流策略(Flow-based policy)最近在机器人学习领域十分热门:它具有建模多峰动作分布的表达能力,且比扩散策略更简洁好用,因此被广泛应用于先进的 VLA 模型,例如 π_0、GR00T 等。想要跳出数据集的约束,进一步提高流策略的性能,强化学习是一条有效的路,已经有不少工作尝试用 on-policy 的 RL 算法训练流策略,例如 ReinFlow [1]、 Flow GRPO [2] 等。但当我们使用数据高效的 off-policy RL(例如 SAC )训练流策略时总会出现崩溃,因为流策略的动作经历「K 步采样」推理,因此反向传播的「深度」等于采样步数 K。这与训练经典 RNN 时遇到的梯度爆炸或梯度消失是相同的。

不少已有的类似工作都选择绕开了这个问题:要么用替代目标避免对流策略多步采样的过程求梯度 (如 FlowRL [3]),要么把流匹配模型蒸馏成单步模型,再用标准 off-policy 目标训练 (如 QC-FQL [4])。这样做是稳定了训练,但也抛弃了原本表达更强的流策略本体,并没有真正在训练一个流策略。而我们的思路是:发现流策略多部采样本质就是 sequential model ,进而用先进的 sequential model 结构来稳住训练,直接在 off-policy 框架内端到端优化真实的流策略。



使用 off policy RL 算法训练流策略会出现梯度爆炸。本文提出,我们不妨换一个视角来看,训练流策略等效于在训练一个 RNN 网络(循环计算 K 次),因此我们可以用更高效现代的循环结构(例如 GRU,Transformer)。

以车会友更多>>

鸣潮×水月雨联动U.C.T.S.耳夹式蓝牙耳机上架,299元 官宣!追觅科技携手央视春晚,春晚同款扫地机献礼全球华人 内存价格狂飙不止!手机、PC等厂商面临至暗时刻 消息称OPPO Find N6手机内置6K级电池,大概率春节后登场 6.32英寸小钢炮来袭:一加15T入网搭载骁龙8 Elite Gen5,3月见 iPhone 17e或2月发布,起售价预计4499元 抖音:将加大对不实信息、网络暴力等问题的治理力度 京东外卖加热餐箱扩大覆盖11城,科技升温20°C,全职骑手免费配! 2025 ACM Fellow公布!陈宝权、贾佳亚、梅涛、朱军等多位华人入选 我学者提出新型量子磁传感器方案 499元鼠标,双芯旗舰有啥不一样? 红魔11 Air:AI游戏圈搜,哪里不会圈哪里? iPhone18 Pro再次被确认:实体压感按键+单挖孔屏,这次真的变了 精准卡位大厂盲区,小众App闷声赚大钱 马斯克最大算力中心建成了:全球首个GW级超算集群,再创世界纪录 贵州银行:以自身信用承接19亿存款,信托化险突然受宠 零刻ME Pro:零基础的小白也能轻松上手 胡馨心确认:REDMI Turbo 5系列能吃上国补 IDC:2025年全球智能手机出货量达12.6亿部,苹果连续三年第一 IDC:2025全球智能手机出货12.6亿部,苹果连续三年第一,华为国内登顶 “死了么”APP爆火与改名:照见独居人群的镜子 AP2O-Coder 让大模型拥有「错题本」,像人类一样按题型高效刷题 2025开年手机大战打响!荣耀、一加新机曝光,谁才是真香之选? 本月两款国产超薄机型问世 荣耀VS联想moto 你支持谁? 红米Turbo5 Max!这名字了不得 摩托罗拉新机来了,手写笔成主角,安卓生态要变天? 摩托罗拉MotoWatch智能手表、Moto Tag 2智能追踪器渲染图曝光 全面盘点!一文看懂苹果2025年发布的超16款新品 华为手机别瞎用!8个设置一关,立马丝滑到飞起! 10万级纯电SUV二选一,欧拉5与深蓝S05谁更能吸引年轻人?