模型推理
训练完成的模型需要部署为推理服务,才能在实际场景中使用。传统的部署方式需要配置环境、编写代码、处理网络通信等,过程复杂且容易出错。
平台提供了产品化的推理部署流程,无需编写代码,通过网页界面就能完成从模型部署到生产应用的完整操作。你只需要选择模型、配置参数,然后点击部署。
快速上手:3 步部署推理服务
第 1 步:选择模型
使用微调模型(推荐):
- 从训练任务中选择已完成的模型
- 选择检查点(推荐使用"last"或"best")
- 系统自动继承训练时的模型配置和参数
- 无需额外配置,可直接部署
其他模型来源:
- 上传自定义模型:支持 SafeTensors、PyTorch(.pth、.pt)、ONNX 等格式
- 使用预训练模型:从模型仓库选择经过验证的基础模型,如 Pi0、SmolVLA、GR00T 等
