メインコンテンツまでスキップ

LeRobotデータセット

LeRobot は Hugging Face がオープンソース化したロボット学習データ標準化フレームワークであり、ロボット学習および強化学習のシナリオ向けに特別に設計されています。統一されたデータ形式仕様を提供することで、研究者がロボット学習の実験をより簡単に共有、比較、再現できるようにし、異なる研究プロジェクト間でのデータ形式変換コストを大幅に削減します。

データのエクスポート

以下の図は、アノテーション済みデータからモデル訓練までの流れをまとめています。エクスポート形式を選択しパラメータを設定、エクスポートしてダウンロード・解凍後、LeRobot や OpenPI で Pi0、SmolVLA、ACT などのモデルを訓練できます。

艾欧データプラットフォーム(EmbodiFlow)は、LeRobot 標準形式のデータエクスポートを完全にサポートしており、VLA(Vision-Language-Action)モデルのトレーニングプロセスに直接使用できます。エクスポートされたデータには、ロボット操作の完全なマルチモーダル情報(視覚知覚データ、自然言語命令、および対応するアクションシーケンス)が含まれており、完全な「知覚-理解-実行」のクローズドループ・データマッピングを形成します。

リソース使用に関する説明

LeRobot 形式のデータエクスポートには、高い計算リソースが必要です。艾欧データ開放プラットフォームの無料版では、各ユーザーのエクスポート数に合理的な制限が設けられていますが、有料版では無制限のエクスポートサービスを提供し、GPU 加速機能を備えているため、エクスポート処理速度を大幅に向上させることができます。

1. エクスポートデータの選択

データエクスポートの前にアノテーション作業を完了する必要があります。アノテーションプロセスは、ロボットのアクションシーケンスと対応する自然言語命令の間に正確なマッピング関係を確立するもので、これは VLA モデルをトレーニングするための必須の前提条件です。このマッピングを通じて、モデルは言語コマンドを理解し、それを正確なロボット制御アクションに変換することを学習します。

データアノテーションの具体的な流れやバッチアノテーションのヒントについては、データアノテーションガイドを参照してください。

アノテーション完了後、エクスポートインターフェースですべてのアノテーション済みデータセットを確認できます。システムは柔軟なデータサブセットの選択をサポートしており、必要に応じて特定のデータを選択してエクスポートできます。

エクスポートデータの選択

データセットの命名はカスタマイズ可能です。データセットを Hugging Face プラットフォームに公開する予定がある場合は、標準のリポジトリ命名形式(例:myproject/myrepo1)を採用することをお勧めします。これにより、その後のモデルの共有やコラボレーションが容易になります。

エクスポート設定オプション

エクスポートインターフェースの右側にある設定パネルで、以下のエクスポートパラメータを設定できます:

エクスポート設定オプション

データサンプリング周波数:データサンプリングの頻度を制御します(推奨 10-30 Hz)。周波数が低いほど、生成されるデータセットのサイズは小さくなりますが、一部の詳細情報が失われる可能性があります。

画像形式

  • MP4(推奨):圧縮画像形式。ストレージ容量を約 80% 節約でき、大規模なデータセットのエクスポートに適しています。
  • JPG:元の画像形式。完全な画質を維持しますが、ファイルサイズは大きくなります。

モデル入出力の厳密な一致:有効にすると、システムが観測値と命令値を自動的にクロップし、1対1の対応関係を確保します。これにより、ノイズ干渉が減少し、トレーニングデータの品質が向上します。

顔の自動ぼかし:有効にすると、システムが画面内の顔の位置を自動的に識別し、ぼかし処理を行います。この機能は以下の点で役立ちます:

  • 個人のプライバシーを保護し、データのコンプライアンス要件に適合させる。
  • オペレーターが映り込んでいるデータセットに適している。
  • エクスポートされるすべての画像内の顔情報を自動的に処理する。
エクスポート効率の最適化

データ量が多いほど、エクスポートに時間がかかります。すべてのデータを一度に処理するのではなく、タスクタイプごとに分類してエクスポートすることをお勧めします。バッチエクスポートは処理速度を向上させるだけでなく、その後のデータ管理、バージョン管理、および特定のモデルトレーニングにも役立ちます。

2. エクスポートファイルのダウンロードと解凍

エクスポートにかかる時間はデータの規模や現在のシステム負荷に依存し、通常は数十分かかります。ページは自動的に進捗ステータスを更新しますので、後で戻って処理結果を確認してください。

エクスポートが完了すると、ページ右側の エクスポート履歴 エリアに データをダウンロード ボタンが表示されます。クリックすると .tar.gz 形式の圧縮ファイルパッケージを取得できます。

エクスポート結果

他のデータと混同しないよう、ローカルに専用のディレクトリ(例:~/Downloads/mylerobot3)を作成してファイルを解凍することをお勧めします:

新規ディレクトリ作成

解凍後のファイルは LeRobot データセットの標準形式仕様に厳密に従っており、完全なマルチモーダルデータ(視覚知覚データ、ロボット状態情報、アクションラベルなど)が含まれています:

データの解凍

3. カスタムトピックマッピング

LeRobot データセットをエクスポートする際、システムは ROS/ROS2 トピックを LeRobot 標準形式の観測値(observation.state)およびアクション(action)フィールドにマッピングする必要があります。カスタムデータセットを正しくエクスポートするには、トピックマッピングの規則を理解することが重要です。

デフォルトのトピックマッピング規則

艾欧データプラットフォームは、トピック名の接尾辞に基づく自動識別メカニズムを採用しています:

観測値(observation.state)のマッピング規則:

  • トピック名が /joint_state または /joint_states で終わる場合、システムはその position フィールド値を自動的に観測値として識別し、observation.state フィールドにマッピングします。
  • 例:io_teleop/joint_states/arm/joint_state などのトピックは観測値として識別されます。

アクション(action)のマッピング規則:

  • トピック名が /joint_cmd または /joint_command で終わる場合、システムはその position フィールド値を自動的にアクション指令として識別し、action フィールドにマッピングします。
  • 例:io_teleop/joint_cmd/arm/joint_command などのトピックはアクション値として識別されます。
トピック命名の推奨事項

データを正しくエクスポートするために、データ録製時には上記の命名規則に従うことをお勧めします。ロボットシステムで異なる命名スタイルを使用している場合は、テクニカルサポートチームに連絡して適合させてください。

カスタムトピックのサポート

デフォルトの規則に従わないカスタムトピックを作成した場合は、以下の方法で対処できます:

  1. トピックのリネーム:データ録製段階で、カスタムトピックをデフォルトの規則に従う名称(例:/joint_states または /joint_command)に変更します。

  2. テクニカルサポートへの連絡:トピック名を変更できない場合は、艾欧プラットフォームのテクニカルサポートチームに連絡してください。お客様の特定の命名スタイルに合わせて適合させ、データが正しく LeRobot 形式にマッピングされるようにします。

技術的な説明

現在のバージョンでは、エクスポートインターフェースで直接カスタムトピックマッピングを指定することはできません。特別な要件がある場合は、事前にテクニカルサポートチームに相談することをお勧めします。エクスポート前に対応する設定適合を完了させます。

データの視覚化と検証

ユーザーがデータ内容を素早く理解し検証できるように、LeRobot は複数のデータ視覚化ソリューションを提供しています。それぞれのソリューションには適したシーンと独自の利点がありますが、艾欧(EmbodiFlow)データプラットフォームでは LeRobot Studio の使用を推奨しています

使用シーン視覚化ソリューション主な利点
高速なプライバシープレビュー (推奨)LeRobot Studio (Web)インストール不要、アップロード不要、プライバシー重視、ドラッグ&ドロップ;データセット健全性パネルで v2.1/v3.0 構造を検証
ローカル開発・デバッグRerun SDK ローカル表示フル機能、高度なインタラクション、オフライン利用可能
公開共有・展示Hugging Face オンライン表示コミュニティコラボレーション、共有が容易、いつでもアクセス可能

1. LeRobot Studio を使用したオンライン視覚化 (推奨)

艾欧(EmbodiFlow)データプラットフォームは、ネイティブに統合された LeRobot 視覚化ツール —— LeRobot Studio を提供しています。これは現在最も便利なデータプレビューソリューションであり、ローカル環境をインストールする必要もデータを Hugging Face にアップロードする必要もありません。ブラウザ上で直接ローカルデータの迅速な視覚化と検証を完了できます。

オンライン体験アドレスhttps://io-ai.tech/lerobot/

コアな利点

  • 使用障壁ゼロ:Python や Rerun SDK のセットアップは不要です。
  • プライバシーとセキュリティ:ローカルファイルをドラッグ&ドロップ;ブラウザ内で処理されクラウドにアップロードされません。
  • 機能の網羅性:LeRobot 標準のマルチモーダル再生(画像、状態、アクション)に対応します。
  • データセット健全性:読み込み後、サイドバーの データセット健全性 パネルで v2.1/v3.0 のレイアウト(meta/info、features、エピソード数・長さなど)を検証し、エクスポートが仕様どおりかすぐ確認できます。
  • ワークフロー連携:EmbodiFlow のエクスポート・可視化フローとすぐ連携できます。

使用方法

  1. LeRobot Studio を開きます。
  2. ファイルを選択 をクリックするか、エクスポートした .tar.gz(または解凍フォルダ)をウィンドウにドラッグします。
  3. 解析後、インタラクティブに再生できます。

2. Rerun SDK を使用したローカル視覚化

lerobot をローカルに入れたら、lerobot-dataset-viz コマンド(lerobot.scripts.lerobot_dataset_viz)と Rerun SDK で、画像・状態・アクションをタイムライン表示できます。ローカルでは最も柔軟な方法です。

環境と依存関係

Python 3.10 以上を推奨します。

# Rerun SDK
python3 -m pip install rerun-sdk==0.23.1

git clone https://github.com/huggingface/lerobot.git
cd lerobot
pip install -e .

視覚化の開始

lerobot-dataset-viz \
--repo-id local/mylerobot3 \
--root ~/Downloads/mylerobot3 \
--episode-index 0

パラメータ:

  • --repo-id:Hub のデータセット ID またはローカル用プレースホルダ(例:io-ai-data/lerobot_datasetlocal/mylerobot3
  • --rootmeta/info.jsondata/videos/ などを含むデータセットのルート(Hub から読む場合は省略可)
  • --episode-index:表示するエピソード(0 始まり)

オフライン .rrd の保存

lerobot-dataset-viz \
--repo-id local/mylerobot3 \
--root ~/Downloads/mylerobot3 \
--episode-index 0 \
--save 1 \
--output-dir ./rrd_out

# ファイル名はスクリプト出力に従う(例:lerobot_<repo_id>_episode_<index>.rrd)
rerun ./rrd_out/lerobot_local_mylerobot3_episode_0.rrd

リモート視覚化(gRPC)

--ws-port は非推奨です。--grpc-port(既定 9876)を使います。

# サーバー側
lerobot-dataset-viz \
--repo-id local/mylerobot3 \
--root /path/to/dataset \
--episode-index 0 \
--mode distant \
--grpc-port 9876

# ローカル(SERVER_IP を置き換え)
rerun rerun+http://SERVER_IP:9876/proxy

3. Hugging Face Spaces を使用したオンライン視覚化

ローカル環境をインストールしたくない場合、LeRobot は Hugging Face Spaces に基づくオンライン視覚化ツールを提供しており、ローカルの依存関係なしで使用できます。この方法は、データのクイックプレビューやチームでのデータセット共有に特に適しています。

データプライバシーに関する注意

オンライン視覚化機能を使用するには、データを Hugging Face オンラインリポジトリにアップロードする必要があります。Hugging Face の無料アカウントは公開リポジトリの視覚化のみをサポートしており、データが一般に公開されることに注意してください。データに機密情報が含まれており、非公開を維持する必要がある場合は、ローカル視覚化ソリューションを使用することをお勧めします。

操作手順

  1. オンライン視覚化ツールにアクセス:https://huggingface.co/spaces/lerobot/visualize_dataset
  2. Dataset Repo ID フィールドにデータセット識別子を入力します(例:io-intelligence/piper_uncap_pen
  3. 左側のパネルで確認したいタスク番号を選択します(例:Episode 0
  4. ページ上部に複数の再生オプションが用意されており、最適な表示方法を選択できます。

モデルトレーニングガイド

重要なのは、あらゆるフレームワークを試すことではなく、目的モデルに合った訓練経路を早めに選ぶことです。多くの利用者にとって最速なのは、用意された訓練用イメージにデータセットをマウントし、まず通しで動かしてからハイパーパラメータを調整する流れです。

イメージレジストリ

以降の例では Docker Hub 上の ioaitech 組織のイメージ名(例:ioaitech/train_act:cudaioaitech/train_openpi:pi0)を使います。

モデル選択戦略

現在の主要な VLA モデルには以下が含まれます:

モデルタイプ適用シーン主な特徴推奨用途
smolVLA単一GPU環境、迅速なプロトタイピング適度なパラメータ数、効率的なトレーニングコンシューマー向けGPU、概念実証
Pi0 / Pi0.5複雑なタスク、マルチモーダル融合OpenPI 訓練スタック、高品質ファインチューニング向け複雑なインタラクション、汎化重視
ACT単一タスクの最適化イメージ経由で手順が直線的特定タスク、高頻度制御
Diffusion滑らかなアクション生成拡散モデルベース、高い軌道品質滑らかな軌道が必要なタスク
VQ-BeTアクションの離散化ベクトル量子化、高速推論リアルタイム制御シナリオ
TDMPCモデル予測制御サンプル効率が高い、オンライン学習データ不足のシナリオ
Pi0 ファインチューニング

Pi0 / Pi0.5 は OpenPI スタックと公開イメージでのファインチューニングを推奨します。

  • ioaitech/train_openpi:pi0
  • ioaitech/train_openpi:pi05

ワンコマンドでのファインチューニングと引数の詳細は Pi0 / Pi0.5 モデルファインチューニングガイド を参照してください。

smolVLA トレーニング詳細(入門推奨)

smolVLA はコンシューマー向け/単一GPU環境に最適化された VLA モデルです。ゼロからトレーニングするよりも、公式の事前学習済み重みに基づいてファインチューニングすることを強くお勧めします。これにより、トレーニング時間を大幅に短縮し、最終的な効果を向上させることができます。

パラメータ形式に関する説明

LeRobot のトレーニングコマンドは以下のパラメータ形式を使用します:

  • ポリシータイプ--policy.type smolvla (使用するモデルを指定)
  • パラメータ値:スペース区切り、例:--batch_size 64--batch_size=64 ではない)
  • ブール値true/false を使用、例:--save_checkpoint true
  • リスト値:スペース区切り、例:--policy.down_dims 512 1024 2048
  • モデルのアップロード:デフォルトでは --policy.push_to_hub false を追加して、Hugging Face Hub への自動アップロードを無効にする必要があります。

環境準備

# LeRobot リポジトリをクローン
git clone https://github.com/huggingface/lerobot.git
cd lerobot

# smolVLA をサポートするフル環境のインストール
pip install -e ".[smolvla]"

データセット版と lerobot タグの対応(重要)

meta/info.jsoncodebase_version は、学習に使う lerobot のチェックアウトと一致させます。

データセット形式推奨 lerobot コード補足
v2.1v0.3.x旧レイアウト。多くの既存フローで使用中
v3.0v0.4+v0.5.x を含む)新レイアウト。lerobot v0.5.0 時点でも データ形式は v3.0

インストール前にタグを合わせます:

# v2.1 データセット
git checkout v0.3.3
pip install -e ".[all]"

# v3.0 データセット
git checkout v0.5.0
pip install -e ".[all]"

バージョンは二層あります。

  • v2.1 / v3.0 = LeRobotDataset のフォーマット版
  • v0.4.0 / v0.5.0 = lerobot ライブラリのリリース

lerobot v0.5.0 でもデータ形式の主線は LeRobotDataset v3.0 です。新しいツールに揃えるなら、v2.1v3.0 に変換してから学習してください。

ファインチューニング(推奨案)

データセットの読み込み
  • ローカルルートを推奨(データが大きい場合):
    • --dataset.repo_id local/xxx
    • --dataset.root /path/to/datasetmeta/info.jsondata/meta/episodes/ などを含む)
  • すでに Hugging Face Hub にある場合--dataset.repo_id your-name/your-repo のみ指定し、--dataset.root は省略。

ローカルデータセットの例(推奨)

# 例:meta/info.json、data/ などを含むローカルツリー
DATASET_ROOT=~/Downloads/mylerobot3

lerobot-train \
--policy.type smolvla \
--policy.pretrained_path lerobot/smolvla_base \
--dataset.repo_id local/mylerobot3 \
--dataset.root ${DATASET_ROOT} \
--output_dir /data/lerobot_smolvla_finetune \
--batch_size 64 \
--steps 20000 \
--policy.optimizer_lr 1e-4 \
--policy.device cuda \
--policy.push_to_hub false \
--save_checkpoint true \
--save_freq 5000

実践的なアドバイス:

  • データ準備:異なる物体の位置、姿勢、環境の変化をカバーするために、50 以上のタスクデモンストレーションクリップを録製することをお勧めします。
  • トレーニングリソース:単一の A100 で 20k ステップのトレーニングには約 4 時間かかります。コンシューマー向け GPU では batch_size を下げるか、勾配累積を有効にしてください。
  • ハイパーパラメータ調整batch_size=64steps=20k、学習率 1e-4 から始めることをお勧めします。
  • ゼロからトレーニングする場合:大規模なデータセット(数千時間)を所有している場合にのみ、--policy.type=smolvla でゼロからトレーニングすることを検討してください。

ゼロからのトレーニング(上級ユーザー向け)

# ゼロからのトレーニング(ローカルデータセットの例)
DATASET_ROOT=~/Downloads/mylerobot3

lerobot-train \
--policy.type smolvla \
--dataset.repo_id local/mylerobot3 \
--dataset.root ${DATASET_ROOT} \
--output_dir /data/lerobot_smolvla_fromscratch \
--batch_size 64 \
--steps 200000 \
--policy.optimizer_lr 1e-4 \
--policy.device cuda \
--policy.push_to_hub false \
--save_checkpoint true \
--save_freq 10000

パフォーマンス最適化のヒント

ビデオメモリ(VRAM)の最適化:

# ビデオメモリ使用量を最適化するために以下のパラメータを追加
--policy.use_amp true \
--num_workers 2 \
--batch_size 32 # バッチサイズを小さくする

トレーニングの監視:

  • Weights & Biases (W&B) を構成して、トレーニング曲線と評価指標を監視します。
  • 合理的な検証間隔と早期停止(Early Stopping)戦略を設定します。
  • トレーニングの中断に備えて、定期的にチェックポイントを保存します。

ACT モデルトレーニングガイド

ACT(Action Chunking Transformer)は単一タスクや短いホライズンのポリシー向けです。LeRobot データが揃っており、できるだけ直接的に訓練したい場合は、公開イメージ ioaitech/train_act:cuda を優先してください。

重要なヒント

LeRobot 経由(lerobot-train)で ACT を訓練する場合は policy.n_action_stepspolicy.chunk_size が必要です。両方を同じ値(例:100)にすると設定ミスを防げます。Docker イメージ経路は train_act の CLI 引数を使います。詳細は専用ガイドを参照してください。

データ前処理(一般)

軌道処理:

  • クリップ長と時間整合を揃える。
  • アクションを一貫したスケールに正規化する。
  • 観測(カメラ内参・視点など)の一貫性を保つ。

ワンコマンド訓練(推奨)

docker run --rm --gpus all \
-v /path/to/lerobot_dataset:/data/input \
-v /path/to/output:/data/output \
ioaitech/train_act:cuda \
--run_name act_demo \
--task_name demo_task \
--num_epochs 12000 \
--batch_size 64 \
--learning_rate 5e-5 \
--chunk_size 100 \
--kl_weight 10

引数・出力・トラブルシュートの全文は ACT モデル訓練ガイド を参照してください。

パフォーマンス調整戦略

過学習(Overfitting)への対処:

  • データ収集の多様性を増やします。
  • 適切な正則化技術を適用します。
  • 早期停止戦略を実施します。

学習不足(Underfitting)への対処:

  • トレーニングステップ数を増やします。
  • 学習率のスケジュールを調整します。
  • データの品質と一貫性をチェックします。

よくある質問 (FAQ)

データエクスポート関連

Q: LeRobot データのエクスポートにはどのくらい時間がかかりますか?

A: エクスポート時間は主にデータの規模と現在のシステム負荷に依存します。通常、1 GB のデータにつき 3〜5 分の処理時間がかかります。効率向上のため、大きすぎるデータセットを一度に処理するのではなく、タスクタイプごとにバッチに分けてエクスポートすることをお勧めします。

Q: 無料版にはどのようなエクスポート制限がありますか?

A: 無料版では、各ユーザーのエクスポート数と頻度に合理的な制限があり、具体的な制限額はエクスポートインターフェースに表示されます。大規模なデータエクスポートが必要な場合は、無制限のエクスポートと GPU 加速サービスを享受できる有料版へのアップグレードをお勧めします。

Q: エクスポートされたデータの完全性を検証するにはどうすればよいですか?

A: 公式リポジトリに 独立した validate_dataset CLI は現状ありません。次を推奨します。

  • 推奨LeRobot Studio.tar.gz または解凍フォルダを開く。サイドバーの データセット健全性 パネルで v2.1/v3.0 のチェック(構造、meta/info.json、features、エピソードなど)が表示されます。
  • 任意(ローカル Python)lerobot インストール後、LeRobotDataset で読み込み、欠損や形式エラーは例外になります。
from lerobot.datasets import LeRobotDataset
ds = LeRobotDataset("local/myrepo", root="/path/to/unzipped/dataset")
# 読み込み成功なら meta/data 構造が認識されたとみなせます

Q: エクスポートされたデータセットが大きすぎる場合はどうすればよいですか?

A: サンプリングを下げる(例:30 fps → 10–15 fps)、時間帯・タスクで分割エクスポート、画質を許容範囲で圧縮、などを試してください。

データの視覚化関連

Q: Rerun SDK のインストールに失敗した場合はどうすればよいですか?

A: 以下の条件を確認してください:

  • Python のバージョンが 3.10 以上であること。
  • ネットワーク接続が安定していること。
  • 仮想環境でのインストールを試す:python -m venv rerun_env && source rerun_env/bin/activate
  • ミラーサイトを使用する:pip install -i https://pypi.tuna.tsinghua.edu.cn/simple rerun-sdk==0.23.1

Q: オンライン視覚化にはデータを公開する必要がありますか?

A: はい。Hugging Face Spaces は 公開 データセットのみ参照でき、内容は見える状態になります。機密データは EmbodiFlow の LeRobot Studio、またはローカルの Rerun / lerobot-dataset-viz を使ってください。

Q: データを Hugging Face にアップロードするにはどうすればよいですか?

A: 公式の CLI ツールを使用します:

# Hugging Face CLI のインストール
pip install -U huggingface_hub

# アカウントにログイン
huggingface-cli login

# (任意)データセットリポジトリの作成
huggingface-cli repo create your-username/dataset-name --type dataset

# データセットのアップロード(repo_type を dataset に指定)
huggingface-cli upload your-username/dataset-name /path/to/dataset --repo-type dataset --path-in-repo .

モデルトレーニング関連

Q: サポートされているモデルタイプは何ですか?

A: LeRobot データは smolVLA(単 GPU・高速試作)、Pi0 / Pi0.5(複雑なマルチモーダル;OpenPI イメージ ioaitech/train_openpi:pi0 / ioaitech/train_openpi:pi05 を推奨)、ACT(単一タスク;ioaitech/train_act:cuda を推奨)などに使えます。本ページから各ガイドへリンクしています。

Q: Pi0 で AttributeError: 'GemmaForCausalLM' object has no attribute 'embed_tokens' または 'layers'

A: 旧来の LeRobot 側 Pi0 実装で起きやすい互換性問題です。ドキュメントでは ioaitech/train_openpi:pi0 または ioaitech/train_openpi:pi05 を推奨し、手作業パッチは避けます。コマンド例は Pi0 / Pi0.5 モデルファインチューニングガイド を参照してください。

Q: v3 データ + lerobot v0.4.3 で ValueError: An incorrect transformer version is used

A: 同様に LeRobot 旧 Pi0 経路の互換性問題です。再現性のあるファインチューニングには OpenPI イメージを使うことを推奨します。

Q: トレーニング中にメモリ不足(OOM)が発生した場合はどうすればよいですか?

A: 以下の最適化戦略を試してください:

  • バッチサイズを減らす:--batch_size 1 またはそれ以下
  • 混合精度トレーニングを有効にする:--policy.use_amp true
  • データロードのスレッド数を減らす:--num_workers 1
  • 観測ステップ数を減らす:--policy.n_obs_steps 1
  • GPU キャッシュをクリアする:トレーニングスクリプトに torch.cuda.empty_cache() を追加

Q: 適切なモデルをどのように選択すればよいですか?

A: 具体的なニーズに応じて選択してください:

  • 迅速なプロトタイプ:smolVLA。
  • 複雑なマルチモーダル:Pi0 / Pi0.5(OpenPI イメージ)。
  • リソースが限られ安定重視:ACT。
  • 単一の専門タスク:ACT。

Q: トレーニング効果はどのように評価されますか?

A: LeRobot は複数の評価方法を提供しています:

  • 定量指標:アクション誤差(MAE/MSE)、軌道類似度(DTW)。
  • 定性評価:実機テストの成功率、行動分析。
  • プラットフォーム評価:艾欧プラットフォームは視覚化されたモデル品質評価ツールを提供します。

Q: トレーニング時間はどのくらいかかりますか?

A: トレーニング時間は複数の要因に依存します:

  • データ規模:50 個のデモンストレーションクリップで通常 2〜8 時間かかります。
  • ハードウェア構成:A100 はコンシューマー向け GPU よりも 3〜5 倍高速です。
  • モデル選択:smolVLA は ACT よりもトレーニング速度が速いです。
  • トレーニング戦略:ファインチューニングはゼロからのトレーニングよりも 5〜10 倍高速です。

テクニカルサポート

Q: 技術的な問題が発生した場合、どのようにサポートを受けられますか?

A: 以下のチャネルを通じてサポートを受けることができます:

  1. LeRobot 公式ドキュメントを参照:https://huggingface.co/docs/lerobot
  2. GitHub で Issue を送信:https://github.com/huggingface/lerobot/issues
  3. 艾欧プラットフォームのテクニカルサポートチームに連絡
  4. LeRobot コミュニティの議論に参加

Q: 艾欧プラットフォームはモデルの自動デプロイをサポートしていますか?

A: はい。艾欧プラットフォームは、Pi0(OpenPI フレームワーク)、smolVLA、ACT などの主要モデルの自動デプロイサービスをサポートしています。詳細については、テクニカルサポートチームに連絡してデプロイ案と価格情報を入手してください。


関連リソース

公式リソース

ツールとフレームワーク

学術リソース

OpenPI 関連リソース

コミュニティリソース


本文档は、LeRobot エコシステムの最新の発展とベストプラクティスを反映するために継続的に更新されます。ご質問やご提案がありましたら、艾欧プラットフォームのテクニカルサポートを通じてお問い合わせください。