模型训练
艾欧数据平台提供完整的机器人学习模型训练功能,支持从数据预处理到模型部署的端到端工作流。平台集成了多种主流的机器人学习算法,为研究人员和开发者提供高效的模型训练环境。
产品特色
灵活架构
产品采用分层架构设计,确保系统的可扩展性。训练的算力支持多重选择:
- 私有云:使用本地机房的GPU服务器(支持多卡并行训练)
- 公有云:按需租赁云服务商的算力资源(按实际训练的时长计费)
从数据到模型
平台已覆盖了从数据采集,标注,导出,训练微调,模型部署的数据全链路。
支持的模型类型
平台支持机器人领域的主流学习模型,涵盖视觉-语言-动作融合、模仿学习、强化学习等技术路线:
视觉-语言-动作模型
- SmolVLA - 轻量级多模态模型,将自然语言指令、视觉感知和机器人动作进行端到端学习
- OpenVLA - 大规模预训练的视觉-语言-动作模型,支持复杂的场景理解和操作规划
模仿学习模型
- ACT (Action Chunking Transformer) - 基于Transformer架构的动作分块模型,将连续动作序列分解为离散块进行学习
- PI0 - 零阶策略优化算法,通过专家演示数据快速学习初始策略
- PI0Fast - PI0算法的优化版本,采用改进的训练策略提高收敛速度
策略学习模型
- Diffusion Policy - 基于扩散过程的策略学习,通过去噪过程生成连续的机器人动作轨迹
- VQBET - 向量量化行为变换器,将连续动作空 间离散化后使用Transformer进行建模
强化学习模型
- SAC (Soft Actor-Critic) - 最大熵强化学习算法,在连续动作空间中平衡探索与利用
- TDMPC - 时间差分模型预测控制,结合基于模型的规划和无模型的学习优势
信息
以上模型覆盖了主流的技术路线,可以应用于多种机器人任务,例如:
应用场景 | 使用模型 | 说明 |
---|---|---|
桌面整理任务 | SmolVLA, Pi0 | 机器人可理解“请整理桌面上的物品”等自然语言指令,并执行抓取、移动、放置动作 |
物品分拣任务 | ACT | 通过学习专家分拣演示,机器人可识别不同物品并按类别分拣 |
复杂操作任务 | Diffusion Policy | 机器人可学习执行如组装、烹饪等需要精确控制的复杂操作序列 |
自适应控制 | SAC 等强化学习算法 | 机器人可在动态环境中学习最优控制策略,适应环境变化 |