模型训练
艾欧数据平台提供完整的机器人学习模型训练功能,支持从数据预处理到模型部署的端到端工作流。平台集成了多种主流的机器人学习算法,为研究人员和开发者提供高效的模型训练环境。
产品特色
灵活架构
产品采用分层架构设计,确保系统的可扩展性。训练的算力支持多重选择:
- 私有云:使用本地机房的GPU服务器(支持多卡并行训练)
- 公有云:按需租赁云服务商的算力资源(按实际训练的时长计费)
从数据到模型
平台已覆盖了从数据采集,标注,导出,训练微调,模型部署的数据全链路。
支持的模型类型
平台支持机器人领域的主流学习模型,涵盖视觉-语言-动作融合、模仿学习、强化学习等技术路线:
视觉-语言-动作模型
- SmolVLA - 轻量级多模态模型,将自然语言指令、视觉感知和机器人动作进行端到端学习
- OpenVLA - 大规模预训练的视觉-语言-动作模型,支持复杂的场景理解和操作规划
模仿学习模型
- ACT (Action Chunking Transformer) - 基于Transformer架构的动作分块模型,将连续动作序列分解为离散块进行学习
- PI0 - 零阶策略优化算法,通过专家演示数据快速学习初始策略
- PI0Fast - PI0算法的优化版本,采用改进的训练策略提高收敛速度
策略学习模型
- Diffusion Policy - 基于扩散过程的策略学习,通过去噪过程生成连续的机器人动作轨迹
- VQBET - 向量量化行为变换器,将连续动作空间离散化后使用Transformer进行建模
强化学习模型
- SAC (Soft Actor-Critic) - 最大熵强化学习算法,在连续动作空间中平衡探索与利用
- TDMPC - 时间差分模型预测控制,结合基于模型的规划和无模型的学习优势
信息
以上模型覆盖了主流的技术路线,可以应用于多种机器人任务,例如:
应用场景 | 使用模型 | 说明 |
---|---|---|
桌面整理任务 | SmolVLA, Pi0 | 机器人可理解“请整理桌面上的物品”等自然语言指令,并执行抓取、移动、放置动作 |
物品分拣任务 | ACT | 通过学习专家分拣演示,机器人可识别不同物品并按类别分拣 |
复杂操作任务 | Diffusion Policy | 机器人可学习执行如组装、烹饪等需要精确控制的复杂操作序列 |
自适应控制 | SAC 等强化学习算法 | 机器人可在动态环境中学习最优控制策略,适应环境变化 |
训练工作流程
平台提供了产品化的训练流程,无需代码能力,全程通过网页实现从数据准备到模型部署的完整操作链路:
1. 数据准备
平台支持多种数据来源,包括:
- 平台导出数据 - 使用平台标注和导出的机器人演示数据
- 外部数据集 - 通过URL链接导入公开数据集
- 本地数据上传 - 支持HDF5、LeRobot等标准格式
- HuggingFace数据集 - 直接从HuggingFace Hub获取公开数据
2. 训练配置
计算资源选择
- 私有云算力 - 使用专用GPU服务器,适合长期训练任务
- 公有云资源 - 支持RunPod、AWS、腾讯云、阿里云等多种云服务
- GPU选择 - 实时显示GPU状态,包括显存使用、温度、利用率等信息
模型架构选择
根据具体任务需求选择合适的模型:
- 对于需要理解自然语言指令的任务,选择SmolVLA或OpenVLA
- 对于有专家演示数据的模仿学习任务,选择ACT、PI0或PI0Fast
- 对于需要在线学习的任务,选择SAC或TDMPC
训练参数设置
- 基础参数 - batch_size、训练步数、随机种子等
- 优化参数 - 学习率、优化器类型、学习率调度策略
- 模型参数 - 如ACT的chunk_size、观测步数等模型特定参数
- 监控参数 - 评估频率、日志记录频率、检查点保存策略
训练启动后,平台提供完整的监控和管理功能:
实时监控
- 训练指标 - 损失函数、验证精度、学习率等关键指标的实时可视化
- 模型输出 - 训练过程中的预测样例,便于观察模型学习进展
- 系统日志 - 详细的训练日志和错误信息,支持问题排查
训练管理
- 进程控制 - 支持暂停、恢复、停止训练任务
- 检查点管理 - 自动保存模型检查点,支持断点续训和版本回滚
- 参数调整 - 在线调整学习率等关键参数
- 任务复制 - 基于成功的训练配置快速创建新任务
4. 模型评估与导出
训练完成后,平台提供模型导出和一键部署推理功能:
至此,您可以利用艾欧数据平台方便快捷的训练出属于您的专属模型,并在下一章节完成模型部署和实机推理。