FAQ
よくある質問: 初回起動時のセットアップ
クイックスタートと初回実行のQ&A。日常的な操作、モデル、認証、セッション、 トラブルシューティングについては、メインの FAQ を参照してください。
クイックスタートと初回実行の設定
行き詰まったときに最速で解決する方法
自分のマシンを確認できるローカルAIエージェントを使用してください。これは Discord で質問するよりはるかに効果的です。ほとんどの「行き詰まった」ケースは、リモートの支援者が確認できないローカル設定または環境の問題だからです。
- Claude Code: https://www.anthropic.com/claude-code/
- OpenAI Codex: https://openai.com/codex/
これらのツールは、リポジトリの読み取り、コマンドの実行、ログの確認、マシンレベルの 設定(PATH、サービス、権限、認証ファイル)の修正支援ができます。ハック可能な(git)インストールで 完全なソースチェックアウトを渡してください。
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
これにより OpenClaw は git チェックアウトからインストールされるため、エージェントはコードとドキュメントを読み取り、
実行中の正確なバージョンについて推論できます。あとで安定版に戻したい場合は、
--install-method git なしでインストーラーを再実行すれば切り替えられます。
ヒント: エージェントには修正を計画して監督(段階的に)させ、その後で必要なコマンドだけを実行してください。これにより変更を小さく保ち、監査しやすくなります。
実際のバグや修正を見つけた場合は、GitHub issue を作成するか PR を送ってください: https://github.com/openclaw/openclaw/issues https://github.com/openclaw/openclaw/pulls
まずはこれらのコマンドから始めてください(支援を求めるときは出力を共有してください)。
openclaw status
openclaw models status
openclaw doctor
それぞれの動作:
openclaw status: gateway/agent の健全性と基本設定の簡易スナップショット。openclaw models status: プロバイダー認証とモデルの利用可否を確認します。openclaw doctor: よくある設定/状態の問題を検証し、修復します。
その他の便利なCLI確認: openclaw status --all、openclaw logs --follow、
openclaw gateway status、openclaw health --verbose。
簡易デバッグループ: 何かが壊れているときの最初の60秒。 インストールドキュメント: インストール、インストーラーフラグ、更新。
Heartbeat がスキップされ続けます。スキップ理由は何を意味しますか?
よくある heartbeat のスキップ理由:
quiet-hours: 設定されたアクティブ時間帯の外にありますempty-heartbeat-file:HEARTBEAT.mdは存在しますが、空行/ヘッダーのみの足場しか含まれていませんno-tasks-due:HEARTBEAT.mdのタスクモードは有効ですが、まだ期限に達したタスク間隔がありませんalerts-disabled: すべての heartbeat 表示が無効です(showOk、showAlerts、useIndicatorがすべてオフ)
タスクモードでは、期限タイムスタンプは実際の heartbeat 実行が 完了した後にのみ進みます。スキップされた実行ではタスクは完了扱いになりません。
OpenClaw をインストールして設定する推奨方法
リポジトリでは、ソースから実行し、オンボーディングを使うことを推奨しています。
curl -fsSL https://openclaw.ai/install.sh | bash
openclaw onboard --install-daemon
ウィザードは UI アセットも自動でビルドできます。オンボーディング後は、通常 Gateway をポート 18789 で実行します。
ソースから(コントリビューター/開発者向け):
git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build
pnpm ui:build
openclaw onboard
まだグローバルインストールがない場合は、pnpm openclaw onboard で実行してください。
オンボーディング後にダッシュボードを開くには?
ウィザードはオンボーディング直後に、クリーンな(トークン化されていない)ダッシュボードURLでブラウザーを開き、概要にもリンクを出力します。そのタブを開いたままにしてください。起動しなかった場合は、同じマシンで出力されたURLをコピー/貼り付けしてください。
localhost とリモートでダッシュボードを認証するには?
Localhost(同じマシン):
http://127.0.0.1:18789/を開きます。- shared-secret 認証を求められた場合は、設定済みのトークンまたはパスワードを Control UI 設定に貼り付けます。
- トークンのソース:
gateway.auth.token(またはOPENCLAW_GATEWAY_TOKEN)。 - パスワードのソース:
gateway.auth.password(またはOPENCLAW_GATEWAY_PASSWORD)。 - まだ共有シークレットが設定されていない場合は、
openclaw doctor --generate-gateway-tokenでトークンを生成します。
localhost ではない場合:
- Tailscale Serve(推奨): バインドは loopback のままにし、
openclaw gateway --tailscale serveを実行し、https://<magicdns>/を開きます。gateway.auth.allowTailscaleがtrueの場合、IDヘッダーが Control UI/WebSocket 認証を満たします(共有シークレットの貼り付け不要、信頼済み gateway ホストを前提)。HTTP API は、意図的に private-ingressnoneまたは trusted-proxy HTTP 認証を使わない限り、引き続き shared-secret 認証が必要です。 同じクライアントからの不正な同時 Serve 認証試行は、failed-auth リミッターに記録される前に直列化されるため、2回目の不正リトライですでにretry laterが表示されることがあります。 - Tailnet バインド:
openclaw gateway --bind tailnet --token "<token>"を実行する(またはパスワード認証を設定する)と、http://<tailscale-ip>:18789/が開き、その後で一致する共有シークレットをダッシュボード設定に貼り付けます。 - ID対応リバースプロキシ: Gateway を信頼済みプロキシの背後に置き、
gateway.auth.mode: "trusted-proxy"を設定してから、プロキシURLを開きます。同一ホストの loopback プロキシには、明示的にgateway.auth.trustedProxy.allowLoopback = trueが必要です。 - SSH トンネル:
ssh -N -L 18789:127.0.0.1:18789 user@hostを実行してから、http://127.0.0.1:18789/を開きます。トンネル経由でも shared-secret 認証は適用されます。求められた場合は設定済みのトークンまたはパスワードを貼り付けてください。
チャット承認用の exec 承認設定が2つあるのはなぜですか?
それぞれ異なるレイヤーを制御します。
approvals.exec: 承認プロンプトをチャット宛先へ転送しますchannels.<channel>.execApprovals: そのチャンネルを exec 承認用のネイティブ承認クライアントとして動作させます
ホストの exec ポリシーが、引き続き実際の承認ゲートです。チャット設定は、承認 プロンプトがどこに表示されるか、また人がどう回答できるかだけを制御します。
ほとんどの設定では、両方は不要です。
- チャットがすでにコマンドと返信に対応している場合、同じチャットの
/approveは共有パス経由で機能します。 - 対応するネイティブチャンネルが承認者を安全に推定できる場合、
channels.<channel>.execApprovals.enabledが未設定または"auto"のとき、OpenClaw は DM 優先のネイティブ承認を自動で有効化するようになりました。 - ネイティブ承認カード/ボタンが利用可能な場合、そのネイティブ UI が主要パスです。エージェントは、ツール結果がチャット承認を利用できない、または手動承認が唯一のパスであると示す場合にのみ、手動の
/approveコマンドを含めるべきです。 - プロンプトを他のチャットや明示的な運用ルームにも転送する必要がある場合にのみ
approvals.execを使用してください。 - 承認プロンプトを送信元のルーム/トピックに投稿し直したいことが明示的な場合にのみ、
channels.<channel>.execApprovals.target: "channel"または"both"を使用してください。 - Plugin 承認はさらに別です。デフォルトでは同じチャットの
/approveを使い、任意でapprovals.plugin転送を使います。また一部のネイティブチャンネルだけが、その上に plugin-approval-native 処理を維持します。
短く言うと、転送はルーティング用、ネイティブクライアント設定はよりリッチなチャンネル固有UX用です。 Exec 承認 を参照してください。
必要なランタイムは何ですか?
Node >= 22 が必要です。pnpm を推奨します。Bun は Gateway には推奨されません。
Raspberry Pi で動作しますか?
はい。Gateway は軽量です。ドキュメントでは、個人利用には 512MB-1GB RAM、1 core、約 500MB のディスクで十分とされており、Raspberry Pi 4 で実行できると記載されています。
余裕(ログ、メディア、他のサービス)が必要な場合は 2GB を推奨しますが、 厳密な最小要件ではありません。
ヒント: 小さな Pi/VPS で Gateway をホストし、ローカル画面/カメラ/canvas やコマンド実行のために ラップトップ/スマートフォン上のノードをペアリングできます。ノード を参照してください。
Raspberry Pi インストールのコツはありますか?
短く言うと、動作しますが、粗い部分があることは想定してください。
- 64-bit OS を使用し、Node >= 22 を維持してください。
- ログを確認し、素早く更新できるように、ハック可能な(git)インストールを推奨します。
- チャンネル/skills なしで開始し、その後1つずつ追加してください。
- 奇妙なバイナリ問題に遭遇した場合、通常は ARM compatibility の問題です。
wake up my friend で止まる / オンボーディングが hatch しません。どうすればよいですか?
その画面は Gateway に到達でき、認証されていることに依存します。TUI も最初の hatch 時に "Wake up, my friend!" を自動送信します。その行が表示されて返信がなく、 トークンが 0 のままなら、エージェントは実行されていません。
- Gateway を再起動します。
openclaw gateway restart
- ステータスと認証を確認します。
openclaw status
openclaw models status
openclaw logs --follow
- それでもハングする場合は、次を実行します。
openclaw doctor
Gateway がリモートの場合は、トンネル/Tailscale 接続が有効で、UI が正しい Gateway を指していることを確認してください。リモートアクセス を参照してください。
オンボーディングをやり直さずに、新しいマシン(Mac mini)へ設定を移行できますか?
はい。状態ディレクトリとワークスペースをコピーしてから、Doctor を一度実行してください。これにより、両方の場所をコピーしている限り、 bot を「まったく同じ」状態(メモリ、セッション履歴、認証、チャンネル状態)に保てます。
- 新しいマシンに OpenClaw をインストールします。
- 古いマシンから
$OPENCLAW_STATE_DIR(デフォルト:~/.openclaw)をコピーします。 - ワークスペース(デフォルト:
~/.openclaw/workspace)をコピーします。 openclaw doctorを実行し、Gateway サービスを再起動します。
これにより、設定、認証プロファイル、WhatsApp 認証情報、セッション、メモリが保持されます。リモートモードの場合は、gateway ホストがセッションストアとワークスペースを所有することを忘れないでください。
重要: ワークスペースだけを GitHub に commit/push している場合、バックアップされるのは
メモリ + bootstrap ファイルですが、セッション履歴や認証は含まれません。それらは
~/.openclaw/ 配下(例: ~/.openclaw/agents/<agentId>/sessions/)にあります。
関連: 移行、ディスク上の保存場所、 エージェントワークスペース、Doctor、 リモートモード。
最新バージョンの新機能はどこで確認できますか?
GitHub changelog を確認してください: https://github.com/openclaw/openclaw/blob/main/CHANGELOG.md
最新のエントリは先頭にあります。先頭のセクションが Unreleased とマークされている場合は、次の日付付き セクションが最新のリリース済みバージョンです。エントリは Highlights、Changes、Fixes(必要に応じて docs/その他のセクションも)でグループ化されています。
docs.openclaw.ai にアクセスできません(SSL エラー)
一部の Comcast/Xfinity 接続では、Xfinity
Advanced Security によって docs.openclaw.ai が誤ってブロックされます。これを無効にするか、docs.openclaw.ai を allowlist に追加してから再試行してください。
ブロック解除のため、こちらから報告に協力してください: https://spa.xfinity.com/check_url_status。
それでもサイトにアクセスできない場合は、ドキュメントが GitHub にミラーされています。 https://github.com/openclaw/openclaw/tree/main/docs
安定版とベータの違い
安定版 と ベータ は別々のコードラインではなく、npm dist-tags です。
latest= 安定版beta= テスト用の早期ビルド
通常、安定版リリースはまず ベータ に入ってから、明示的な昇格手順によって同じバージョンが latest に移動されます。メンテナーは必要に応じて latest へ直接公開することもできます。そのため、昇格後はベータと安定版が 同じバージョン を指すことがあります。
変更内容はこちらを参照してください。 https://github.com/openclaw/openclaw/blob/main/CHANGELOG.md
インストール用ワンライナーと、ベータと開発版の違いについては、下のアコーディオンを参照してください。
ベータ版のインストール方法と、ベータと開発版の違いは何ですか?
ベータ は npm dist-tag beta です(昇格後は latest と一致する場合があります)。
開発版 は main の移動する先頭(git)です。公開される場合は、npm dist-tag dev を使います。
ワンライナー(macOS/Linux):
curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --beta
curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --install-method git
Windows インストーラー(PowerShell): https://openclaw.ai/install.ps1
詳細: 開発チャンネル と インストーラーフラグ。
最新のビルドを試すにはどうすればよいですか?
2 つの選択肢があります。
- 開発チャンネル(git checkout):
openclaw update --channel dev
これにより main ブランチに切り替わり、ソースから更新されます。
- 編集可能なインストール(インストーラーサイトから):
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
これにより編集可能なローカルリポジトリが作成され、その後 git で更新できます。
手動でクリーンにクローンしたい場合は、次を使います。
git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build
インストールとオンボーディングには通常どれくらい時間がかかりますか?
目安:
- インストール: 2〜5 分
- オンボーディング: 設定するチャンネルやモデルの数に応じて 5〜15 分
固まった場合は、インストーラーが止まる と 行き詰まった場合 の高速デバッグループを使ってください。
インストーラーが止まります。もっとフィードバックを得るにはどうすればよいですか?
詳細出力 を有効にしてインストーラーを再実行します。
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --verbose
詳細出力付きのベータインストール:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --beta --verbose
編集可能な(git)インストールの場合:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git --verbose
Windows(PowerShell)での同等手順:
# install.ps1 has no dedicated -Verbose flag yet.
Set-PSDebug -Trace 1
& ([scriptblock]::Create((iwr -useb https://openclaw.ai/install.ps1))) -NoOnboard
Set-PSDebug -Trace 0
その他のオプション: インストーラーフラグ。
Windows インストールで git が見つからない、または openclaw が認識されないと表示されます
Windows でよくある問題は 2 つあります。
1) npm エラー spawn git / git が見つからない
- Git for Windows をインストールし、
gitが PATH 上にあることを確認します。 - PowerShell を閉じて開き直し、インストーラーを再実行します。
2) インストール後に openclaw が認識されない
-
npm のグローバル bin フォルダーが PATH 上にありません。
-
パスを確認します。
npm config get prefix -
そのディレクトリをユーザー PATH に追加します(Windows では
\binサフィックスは不要です。多くのシステムでは%AppData%\npmです)。 -
PATH 更新後、PowerShell を閉じて開き直します。
最もスムーズな Windows セットアップにしたい場合は、ネイティブ Windows ではなく WSL2 を使用してください。 ドキュメント: Windows。
Windows の exec 出力で中国語テキストが文字化けします。どうすればよいですか?
これは通常、ネイティブ Windows シェルでのコンソールコードページの不一致です。
症状:
system.run/execの出力で中国語が文字化けとして表示される- 同じコマンドが別のターミナルプロファイルでは正常に表示される
PowerShell での簡単な回避策:
chcp 65001
[Console]::InputEncoding = [System.Text.UTF8Encoding]::new($false)
[Console]::OutputEncoding = [System.Text.UTF8Encoding]::new($false)
$OutputEncoding = [System.Text.UTF8Encoding]::new($false)
その後 Gateway を再起動し、コマンドを再試行します。
openclaw gateway restart
最新の OpenClaw でも再現する場合は、次で追跡または報告してください。
ドキュメントで疑問が解決しません。より良い回答を得るにはどうすればよいですか?
編集可能な(git)インストール を使用して、完全なソースとドキュメントをローカルに用意し、そのフォルダーからボット(または Claude/Codex)に質問してください。リポジトリを読んで正確に回答できます。
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
詳細: インストール と インストーラーフラグ。
Linux に OpenClaw をインストールするにはどうすればよいですか?
短い答え: Linux ガイドに従い、その後オンボーディングを実行します。
VPS に OpenClaw をインストールするにはどうすればよいですか?
任意の Linux VPS で動作します。サーバーにインストールし、SSH/Tailscale を使って Gateway にアクセスします。
ガイド: exe.dev、Hetzner、Fly.io。 リモートアクセス: Gateway リモート。
クラウド/VPS のインストールガイドはどこにありますか?
一般的なプロバイダー向けの ホスティングハブ を用意しています。1 つ選んでガイドに従ってください。
- VPS ホスティング(すべてのプロバイダーを 1 か所に集約)
- Fly.io
- Hetzner
- exe.dev
クラウドでの動作: Gateway はサーバー上で実行 され、ラップトップ/電話から Control UI(または Tailscale/SSH)経由でアクセスします。状態 + ワークスペースはサーバー上にあるため、ホストを信頼できる情報源として扱い、バックアップしてください。
ノード(Mac/iOS/Android/headless)をそのクラウド Gateway にペアリングすると、Gateway をクラウドに置いたまま、ローカルの画面/カメラ/キャンバスにアクセスしたり、ラップトップ上でコマンドを実行したりできます。
ハブ: プラットフォーム。リモートアクセス: Gateway リモート。 ノード: ノード、ノード CLI。
OpenClaw に自身を更新させることはできますか?
短い答え: 可能ですが、推奨しません。更新フローでは Gateway が再起動されることがあり(アクティブなセッションが切断されます)、クリーンな git checkout が必要になる場合や、確認を求められる場合があります。より安全なのは、オペレーターとしてシェルから更新を実行することです。
CLI を使います。
openclaw update
openclaw update status
openclaw update --channel stable|beta|dev
openclaw update --tag <dist-tag|version>
openclaw update --no-restart
エージェントから自動化する必要がある場合:
openclaw update --yes --no-restart
openclaw gateway restart
オンボーディングは実際には何をしますか?
openclaw onboard は推奨されるセットアップ手順です。ローカルモード では次を順に設定します。
- モデル/認証セットアップ(プロバイダー OAuth、API キー、Anthropic setup-token、さらに LM Studio などのローカルモデルオプション)
- ワークスペース の場所 + ブートストラップファイル
- Gateway 設定(bind/port/auth/tailscale)
- チャンネル(WhatsApp、Telegram、Discord、Mattermost、Signal、iMessage、さらに QQ Bot などの同梱チャンネル Plugin)
- デーモンインストール(macOS の LaunchAgent、Linux/WSL2 の systemd user unit)
- ヘルスチェック と Skills の選択
設定されたモデルが不明、または認証が不足している場合も警告します。
これを実行するのに Claude または OpenAI のサブスクリプションは必要ですか?
いいえ。OpenClaw は API キー(Anthropic/OpenAI/その他)または ローカル専用モデル で実行できるため、データをデバイス上に保持できます。サブスクリプション(Claude Pro/Max または OpenAI Codex)は、それらのプロバイダーを認証するための任意の方法です。
OpenClaw における Anthropic の実用上の分け方は次のとおりです。
- Anthropic API キー: 通常の Anthropic API 課金
- OpenClaw での Claude CLI / Claude サブスクリプション認証: Anthropic スタッフから、この使用は再び許可されたと伝えられており、OpenClaw は Anthropic が新しいポリシーを公開しない限り、この統合における
claude -pの使用を認可済みとして扱います
長期稼働する Gateway ホストでは、Anthropic API キーの方が依然としてより予測しやすいセットアップです。OpenAI Codex OAuth は、OpenClaw のような外部ツール向けに明示的にサポートされています。
OpenClaw は、Qwen Cloud Coding Plan、MiniMax Coding Plan、Z.AI / GLM Coding Plan など、他のホスト型サブスクリプション風オプションにも対応しています。
ドキュメント: Anthropic、OpenAI、 Qwen Cloud、 MiniMax、GLM Models、 ローカルモデル、モデル。
API キーなしで Claude Max サブスクリプションを使えますか?
はい。
Anthropic スタッフから、OpenClaw 形式の Claude CLI 使用は再び許可されたと伝えられているため、OpenClaw は Anthropic が新しいポリシーを公開しない限り、この統合における Claude サブスクリプション認証と claude -p の使用を認可済みとして扱います。最も予測しやすいサーバーサイドセットアップにしたい場合は、代わりに Anthropic API キーを使ってください。
Claude サブスクリプション認証(Claude Pro または Max)に対応していますか?
はい。
Anthropic スタッフから、この使用は再び許可されたと伝えられているため、OpenClaw は Anthropic が新しいポリシーを公開しない限り、この統合における Claude CLI の再利用と claude -p の使用を認可済みとして扱います。
Anthropic setup-token は引き続きサポートされている OpenClaw のトークン経路として利用できますが、OpenClaw は現在、利用可能な場合は Claude CLI の再利用と claude -p を優先します。
本番環境や複数ユーザーのワークロードでは、Anthropic API キー認証の方が依然としてより安全で予測しやすい選択です。OpenClaw で他のサブスクリプション風ホスト型オプションを使いたい場合は、OpenAI、Qwen / Model
Cloud、MiniMax、GLM
Models を参照してください。
Anthropic から HTTP 429 rate_limit_error が表示されるのはなぜですか?
これは、現在のウィンドウで Anthropic のクォータ/レート制限 を使い切ったことを意味します。Claude CLI を使っている場合は、ウィンドウがリセットされるまで待つか、プランをアップグレードしてください。Anthropic API キー を使っている場合は、Anthropic Console で使用量/請求を確認し、必要に応じて制限を引き上げてください。
メッセージが具体的に:
Extra usage is required for long context requests の場合、そのリクエストは
Anthropic の 1M コンテキストベータ (context1m: true) を使用しようとしています。これは、使用している
認証情報がロングコンテキスト課金の対象である場合(API キー課金、または
Extra Usage が有効な OpenClaw Claude ログイン経路)にのみ機能します。
ヒント: fallback model を設定すると、provider がレート制限されている間も OpenClaw が応答を続けられます。 Models、OAuth、および /gateway/troubleshooting#anthropic-429-extra-usage-required-for-long-context を参照してください。
AWS Bedrock はサポートされていますか?
はい。OpenClaw には Amazon Bedrock (Converse) provider がバンドルされています。AWS env marker が存在する場合、OpenClaw は streaming/text Bedrock カタログを自動検出し、暗黙の amazon-bedrock provider としてマージできます。それ以外の場合は、plugins.entries.amazon-bedrock.config.discovery.enabled を明示的に有効にするか、手動の provider エントリを追加できます。Amazon Bedrock と Model providers を参照してください。管理されたキーのフローを希望する場合は、Bedrock の前段に OpenAI 互換プロキシを置く方法も有効な選択肢です。
Codex 認証はどのように動作しますか?
OpenClaw は OAuth(ChatGPT サインイン)経由で OpenAI Code (Codex) をサポートします。一般的なセットアップでは、
agentRuntime.id: "codex" とともに openai/gpt-5.5 を使用します:
ChatGPT/Codex サブスクリプション認証に加え、ネイティブ Codex アプリサーバー実行です。
デフォルトの Codex ランタイムを通じて Codex OAuth を使いたい場合にのみ
openai-codex/gpt-5.5 を使用してください。直接の OpenAI API キーアクセスは、非 agent の
OpenAI API surface、および順序付きの openai-codex API キープロファイル経由の agent model で引き続き利用できます。
Model providers と オンボーディング (CLI) を参照してください。
OpenClaw がまだ openai-codex に言及するのはなぜですか?
openai-codex は ChatGPT/Codex OAuth 用の provider および auth-profile id です。
古い config では、model prefix としても使われていました:
openai/gpt-5.5= agent turn でネイティブ Codex runtime を使う ChatGPT/Codex サブスクリプション認証openai-codex/gpt-5.5=openclaw doctor --fixによって修復されるレガシー model routeopenai/gpt-5.5と順序付きのopenai-codexAPI キープロファイル = OpenAI agent model の API キー認証openai-codex:...= auth profile id であり、model ref ではありません
直接の OpenAI Platform 課金/制限経路を使いたい場合は、
OPENAI_API_KEY を設定します。ChatGPT/Codex サブスクリプション認証を使いたい場合は、
openclaw models auth login --provider openai-codex でサインインします。model ref は
openai/gpt-5.5 のままにしてください。openai-codex/* model ref は、
openclaw doctor --fix によって書き換えられるレガシー config です。
Codex OAuth の制限が ChatGPT web と異なることがあるのはなぜですか?
Codex OAuth は OpenAI 管理の、プランに依存するクォータウィンドウを使用します。実際には、 同じアカウントに紐づいている場合でも、これらの制限は ChatGPT website/app の体験と異なることがあります。
OpenClaw は現在可視の provider 使用量/クォータウィンドウを
openclaw models status で表示できますが、ChatGPT web の権利を直接 API アクセスに作り出したり正規化したりはしません。直接の OpenAI Platform
課金/制限経路を使いたい場合は、API キー付きで openai/* を使用してください。
OpenAI サブスクリプション認証(Codex OAuth)はサポートされていますか?
はい。OpenClaw は OpenAI Code (Codex) サブスクリプション OAuth を完全にサポートします。 OpenAI は、OpenClaw のような外部ツール/ワークフローでのサブスクリプション OAuth の使用を明示的に許可しています。 オンボーディングで OAuth フローを実行できます。
OAuth、Model providers、および オンボーディング (CLI) を参照してください。
Gemini CLI OAuth はどのようにセットアップしますか?
Gemini CLI は openclaw.json 内の client id や secret ではなく、plugin auth flow を使用します。
手順:
geminiがPATHに入るように Gemini CLI をローカルにインストールします- Homebrew:
brew install gemini-cli - npm:
npm install -g @google/gemini-cli
- Homebrew:
- Plugin を有効にします:
openclaw plugins enable google - ログインします:
openclaw models auth login --provider google-gemini-cli --set-default - ログイン後のデフォルト model:
google-gemini-cli/gemini-3-flash-preview - リクエストが失敗する場合は、gateway host で
GOOGLE_CLOUD_PROJECTまたはGOOGLE_CLOUD_PROJECT_IDを設定します
これにより、OAuth token は gateway host 上の auth profile に保存されます。詳細: Model providers。
カジュアルなチャットにローカル model は適していますか?
通常は適していません。OpenClaw には大きなコンテキストと強力な安全性が必要です。小さなカードでは切り詰められ、漏えいします。どうしても必要な場合は、ローカルで実行できる最大の model build(LM Studio)を使用し、/gateway/local-models を参照してください。小さい model や量子化された model はプロンプトインジェクションのリスクを高めます - Security を参照してください。
hosted model のトラフィックを特定のリージョンに保つにはどうすればよいですか?
リージョン固定の endpoint を選びます。OpenRouter は MiniMax、Kimi、GLM 向けに米国ホストのオプションを提供しています。データをリージョン内に保つには、米国ホストの variant を選択してください。models.mode: "merge" を使えば、選択したリージョン指定 provider を尊重しつつ、fallback を利用可能な状態に保ったまま Anthropic/OpenAI も並べて一覧できます。
これをインストールするために Mac Mini を買う必要がありますか?
いいえ。OpenClaw は macOS または Linux(Windows は WSL2 経由)で動作します。Mac mini は任意です - 常時稼働 host として購入する人もいますが、小さな VPS、ホームサーバー、または Raspberry Pi クラスの機器でも動作します。
Mac が必要なのは macOS 専用ツール の場合だけです。iMessage には BlueBubbles(推奨)を使用してください - BlueBubbles server は任意の Mac で動作し、Gateway は Linux や他の場所で実行できます。他の macOS 専用ツールを使いたい場合は、Gateway を Mac で実行するか、macOS node をペアリングしてください。
ドキュメント: BlueBubbles、Nodes、Mac remote mode。
iMessage サポートに Mac mini は必要ですか?
Messages にサインイン済みの 何らかの macOS device が必要です。Mac mini である必要はありません - 任意の Mac で動作します。iMessage には BlueBubbles を使用してください(推奨)- BlueBubbles server は macOS で動作し、Gateway は Linux や他の場所で実行できます。
一般的なセットアップ:
- Gateway を Linux/VPS で実行し、Messages にサインイン済みの任意の Mac で BlueBubbles server を実行します。
- 最もシンプルな単一マシン構成にしたい場合は、すべてを Mac で実行します。
ドキュメント: BlueBubbles、Nodes、 Mac remote mode。
OpenClaw を実行するために Mac mini を買った場合、自分の MacBook Pro に接続できますか?
はい。Mac mini は Gateway を実行でき、MacBook Pro は
node(コンパニオンデバイス)として接続できます。Node は Gateway を実行しません - その device 上で screen/camera/canvas や system.run などの追加機能を提供します。
一般的なパターン:
- Mac mini(常時稼働)で Gateway。
- MacBook Pro が macOS app または node host を実行し、Gateway とペアリング。
- 確認には
openclaw nodes status/openclaw nodes listを使用します。
Bun は使えますか?
Bun は推奨されません。特に WhatsApp と Telegram で runtime bug が見られます。 安定した gateway には Node を使用してください。
それでも Bun を試したい場合は、WhatsApp/Telegram なしの非本番 gateway で行ってください。
Telegram: allowFrom には何を入れますか?
channels.telegram.allowFrom は人間の送信者の Telegram user ID(数値)です。bot username ではありません。
セットアップでは数値の user ID のみを求めます。すでに legacy の @username エントリが config にある場合、openclaw doctor --fix で解決を試みることができます。
より安全(サードパーティ bot なし):
- bot に DM してから
openclaw logs --followを実行し、from.idを読み取ります。
公式 Bot API:
- bot に DM してから
https://api.telegram.org/bot<bot_token>/getUpdatesを呼び出し、message.from.idを読み取ります。
サードパーティ(プライバシーは低め):
@userinfobotまたは@getidsbotに DM します。
/channels/telegram を参照してください。
複数人が別々の OpenClaw instance で 1 つの WhatsApp 番号を使用できますか?
はい、multi-agent routing 経由で可能です。各送信者の WhatsApp DM(peer kind: "direct"、sender E.164 形式の +15551234567 など)を別々の agentId にバインドすると、各人が自分専用の workspace と session store を得られます。返信は引き続き同じ WhatsApp account から送信され、DM access control(channels.whatsapp.dmPolicy / channels.whatsapp.allowFrom)は WhatsApp account ごとにグローバルです。Multi-Agent Routing と WhatsApp を参照してください。
「高速チャット」agent と「コーディング用 Opus」agent を実行できますか?
はい。multi-agent routing を使用します。各 agent に独自の default model を指定し、inbound route(provider account または特定の peer)をそれぞれの agent にバインドします。config 例は Multi-Agent Routing にあります。Models と Configuration も参照してください。
Homebrew は Linux で動作しますか?
はい。Homebrew は Linux(Linuxbrew)をサポートします。クイックセットアップ:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
echo 'eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"' >> ~/.profile
eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"
brew install <formula>
systemd 経由で OpenClaw を実行する場合は、非ログイン shell でも brew でインストールされた tool が解決されるよう、service PATH に /home/linuxbrew/.linuxbrew/bin(または使用している brew prefix)が含まれていることを確認してください。
最近の build では、Linux systemd service 上で一般的な user bin dir(例: ~/.local/bin、~/.npm-global/bin、~/.local/share/pnpm、~/.bun/bin)も先頭に追加し、設定されている場合は PNPM_HOME、NPM_CONFIG_PREFIX、BUN_INSTALL、VOLTA_HOME、ASDF_DATA_DIR、NVM_DIR、FNM_DIR を尊重します。
hackable git install と npm install の違い
- Hackable (git) install: 完全な source checkout で、編集可能です。contributor に最適です。 build をローカルで実行し、code/docs を patch できます。
- npm install: global CLI install で、repo はありません。「とにかく実行したい」場合に最適です。 update は npm dist-tag から取得されます。
後で npm install と git install を切り替えられますか?
はい。OpenClaw がすでにインストールされている場合は openclaw update --channel ... を使用します。
これはデータを削除しません - OpenClaw の code install だけを変更します。
state(~/.openclaw)と workspace(~/.openclaw/workspace)はそのまま残ります。
npm から git へ:
openclaw update --channel dev
git から npm へ:
openclaw update --channel stable
予定されている mode switch を先に preview するには --dry-run を追加します。updater は
Doctor follow-up を実行し、target channel の plugin source を更新し、
--no-restart を渡さない限り gateway を再起動します。
installer でもどちらかの mode を強制できます:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method npm
バックアップのヒント: Backup strategy を参照してください。
Gateway は laptop と VPS のどちらで実行すべきですか?
短い答え: 24/7 の信頼性が必要なら VPS を使用してください。最小限の手間でよく、sleep/restart を許容できるなら、ローカルで実行してください。
ノートPC (ローカル Gateway)
- 長所: サーバー費用がかからない、ローカルファイルへ直接アクセスできる、表示されているブラウザーウィンドウを使える。
- 短所: スリープやネットワーク切断 = 接続解除、OS 更新や再起動で中断される、起動したままにしておく必要がある。
VPS / クラウド
- 長所: 常時稼働、安定したネットワーク、ノートPCのスリープ問題がない、稼働を維持しやすい。
- 短所: 多くの場合ヘッドレスで実行する (スクリーンショットを使う)、リモートファイルアクセスのみ、更新には SSH が必要。
OpenClaw 固有の注記: WhatsApp/Telegram/Slack/Mattermost/Discord はすべて VPS から問題なく動作します。実際のトレードオフは ヘッドレスブラウザー か表示されるウィンドウかだけです。ブラウザー を参照してください。
推奨デフォルト: 以前に gateway の接続解除があった場合は VPS。Mac をアクティブに使っていて、ローカルファイルアクセスや表示されるブラウザーでの UI 自動化が必要な場合はローカルが適しています。
専用マシンで OpenClaw を実行することはどの程度重要ですか?
必須ではありませんが、信頼性と分離のために推奨されます。
- 専用ホスト (VPS/Mac mini/Pi): 常時稼働、スリープや再起動による中断が少ない、権限が整理しやすい、稼働を維持しやすい。
- 共有ノートPC/デスクトップ: テストやアクティブな利用にはまったく問題ありませんが、マシンがスリープしたり更新されたりすると一時停止が発生します。
両方の利点が必要な場合は、Gateway を専用ホストに置き、ノートPCをローカル画面/カメラ/実行ツール用の ノード としてペアリングします。ノード を参照してください。 セキュリティガイダンスについては、セキュリティ を読んでください。
VPS の最小要件と推奨 OS は何ですか?
OpenClaw は軽量です。基本的な Gateway + 1 つのチャットチャネルの場合:
- 絶対最小: 1 vCPU、1GB RAM、約 500MB ディスク。
- 推奨: 余裕を持たせるために 1-2 vCPU、2GB RAM 以上 (ログ、メディア、複数チャネル)。Node ツールとブラウザー自動化はリソースを多く消費する場合があります。
OS: Ubuntu LTS (または最新の Debian/Ubuntu) を使用してください。Linux のインストール手順はそこで最もよくテストされています。
ドキュメント: Linux、VPS ホスティング。
OpenClaw を VM で実行できますか?要件は何ですか?
はい。VM は VPS と同じように扱ってください。常時稼働し、到達可能で、Gateway と有効にするチャネルに十分な RAM が必要です。
基本的な目安:
- 絶対最小: 1 vCPU、1GB RAM。
- 推奨: 複数チャネル、ブラウザー自動化、メディアツールを実行する場合は 2GB RAM 以上。
- OS: Ubuntu LTS または別の最新の Debian/Ubuntu。
Windows を使っている場合、WSL2 が最も簡単な VM 形式のセットアップであり、ツール互換性も最も優れています。 Windows、VPS ホスティング を参照してください。 VM で macOS を実行している場合は、macOS VM を参照してください。
関連
- FAQ — メイン FAQ (モデル、セッション、gateway、セキュリティ、その他)
- インストール概要
- はじめに
- トラブルシューティング