メインコンテンツまでスキップ

モデル推論

Embodiflowデータプラットフォームは包括的なモデル推論サービスを提供し、訓練完了したロボット学習モデルをワンクリックで本番グレードの推論サービスとして展開することをサポートします。プラットフォームは複数のモデル形式と柔軟な展開方法をサポートし、ロボットアプリケーションにクラウドからエッジまでの全シナリオAI推論能力を提供します。

製品の特徴

プラットフォームはモデル訓練から推論展開まで完全なパイプラインを提供し、複数の推論検証と展開方法をサポートします:

推論方式応用シナリオ説明
シミュレーション推論テスト迅速検証ランダムデータやカスタム入力を使用してモデル推論機能と性能を迅速に検証
MCAPファイルテスト実データ検証録画されたロボットデモデータを使用して実シナリオでのモデル推論効果を検証
オフラインエッジ展開本番環境応用推論サービスをロボットローカルGPUに展開し、低遅延リアルタイム制御を実現

推論ワークフロー

プラットフォームは製品化された推論展開プロセスを提供し、視覚的インターフェースを通じてモデル選択から本番展開まで完全な操作を実現し、プログラミング経験は不要です:

1. モデルソース選択

プラットフォームは複数のモデルソースをサポート:

  • ファインチューニングモデル使用 - プラットフォームで訓練完了したモデルを選択、訓練設定を自動継承
  • カスタムモデルアップロード - SafeTensors、PyTorch、ONNXなど主流フォーマットをサポート
  • 事前訓練モデル使用 - 検証済み基本モデルを提供、迅速起動

新規推論サービスページは複数のモデル展開オプションを提供

2. サービス設定と展開

展開完了後、推論サービスは包括的なステータス監視を提供:

サービス情報

  • ホストアドレスとポート - 推論APIアクセスアドレス
  • WebSocket接続 - リアルタイム推論接続情報
  • リソース使用 - CPUとメモリ使用状況のリアルタイム監視
  • コンテナステータス - Dockerコンテナ実行ステータスとID

推論サービス詳細ページはサービスステータスと設定情報を表示

モデル入出力仕様

推論サービスはインテリジェント適応能力を持ち、異なるモデルの入出力要件を自動認識し適応できます:

  • 画像入力 - カメラ数(1つまたは複数視点)と解像度(自動スケーリング)をインテリジェント適応
  • 状態入力 - observation.state [12]、observation.gripper [2]、observation.score [1]
  • 行動出力 - action [12] ロボット関節制御コマンド

備考

上記の情報は推論サービスの完全な設定を表示し、ユーザーがモデルの入出力要件を理解し、推論機能を正しく使用できるようサポートします。

推論テスト機能

シミュレーション推論テスト

シミュレーション推論ページはランダムデータ生成と推論テストをサポート

シミュレーション推論機能は便利な推論サービス検証方法を提供:

  • 自然言語タスク - "Pick up the apple and place it in the basket"などのロボット実行指示を入力
  • インテリジェントデータ生成 - ワンクリックでテストデータをランダム充填、画像ファイルと関節状態値を含む
  • 即時推論実行 - 送信ボタンをクリックして即座にモデル推論結果を取得
  • 性能指標表示 - リクエスト時間(2479ms)と推論時間(2356ms)などの主要指標をリアルタイム表示

MCAPファイルテスト

MCAPファイルテストページは実データを使用した推論検証をサポート

MCAPファイルテスト機能は実際のロボットデモデータを使用した推論検証をサポート:

  • データファイルアップロード - 完全なロボット操作プロセスを含むMCAPデータファイルを選択
  • インテリジェントデータ解析 - システムが自動的にマルチモーダルデータ(画像シーケンス、関節状態、センサーデータ)を抽出
  • シーケンシャルバッチ推論 - 完全な行動シーケンスに対して連続推論を実行し、モデルの時系列一貫性を検証
  • 効果比較分析 - 推論結果と元の専門家デモを定量的に比較評価

オフラインエッジ展開

オフライン展開ページは完全なエッジデバイス展開ソリューションを提供

オフラインエッジ展開機能は推論サービスをロボットローカルGPUデバイスに完全移行し、本番グレードアプリケーションを実現:

標準化展開プロセス

  1. 環境準備 - ロボットコントローラーに必要なPython依存パッケージをインストール
  2. イメージダウンロード - 推論環境、モデル重み、設定を含む完全なDockerイメージを取得
  3. サービス起動 - DockerコマンドでローカルGPU上で推論サービスを起動
  4. クライアント接続 - ROSクライアントスクリプトを実行し、推論サービスとのリアルタイム通信を確立

本番応用の利点

  • エッジコンピューティングアーキテクチャ - 推論がロボットローカルで実行され、ネットワーク遅延と依存性を完全に排除
  • 深いROS統合 - センサートピックをシームレスに購読し、関節制御コマンドを直接パブリッシュ
  • リアルタイム閉ループ制御 - 高頻度(2-10Hz)の知覚-決定-実行ループをサポート
  • 産業グレード信頼性 - ネットワーク制限やセキュリティ要件が高い産業生産環境に適用

Embodiflowデータプラットフォームの推論サービスを通じて、訓練完了したロボット学習モデルを本番環境にシームレスに展開し、クラウド検証からエッジ展開まで、完全なモデル応用クローズドループを実現できます。