音声操作 Whisper アクセシビリティ チュートリアル

Siriを卒業:OpenClawとWhisperでプライベート音声操作を設定する

コンピュータとの関係を変革しましょう。OpenClawでOpenAIのWhisperモデルをローカルで実行し、超高速でプライベートな音声操作を設定する方法を学びます。

7分で読めます

Quick Answer

ローカルWhisperサーバーをOpenClawと統合することで、音声がデバイスから出ることなく、ほぼ瞬時の文字起こしとコマンド実行を実現できます。「最後のメールを要約して」や「コーディングワークスペースを開いて」のような複雑な音声マクロが可能になります。

クラウド音声アシスタントの問題点

「Hey Siri、電気をつけて。」 …処理中… …まだ処理中… 「すみません、今はできません。」

誰もが経験したことがあります。クラウドの音声アシスタントは、遅延、プライバシーの懸念、限られた機能に悩まされています。

OpenClaw + Whisperはゲームを変えます。

なぜローカルWhisperなのか?

OpenAIのWhisperモデルは、最先端の文字起こしを作成します。whisper.cppプロジェクトにより、民生用ハードウェア上で信じられないほど高速に動作します。

  • 速度:瞬時に文字起こしします。
  • プライバシー:音声はデバイス上で処理されます。
  • 精度:アクセントや技術用語をよりよく理解します。

ステップ1:ローカルWhisperのインストール

まず、ローカル文字起こしエンジンが必要です。whisper.cppをお勧めします。

# whisper.cppのクローンとビルド
git clone https://github.com/ggerganov/whisper.cpp
cd whisper.cpp
make
./models/download-ggml-model.sh base.en

ステップ2:OpenClaw音声スキルの設定

OpenClawには音声入力用のスキルが組み込まれています。

{
  "skills": {
    "voice": {
      "enabled": true,
      "engine": "whisper-local",
      "modelPath": "./models/ggml-base.en.bin",
      "trigger": "push-to-talk"
    }
  }
}

ステップ3:音声マクロの作成

ここからが魔法です。音声コマンドを複雑なOpenClawアクションにマッピングできます。

「コーディングモード」

あなた:「コーディングしよう。」 OpenClaw

  1. VS Codeを起動します。
  2. GitHub Desktopを開きます。
  3. Twitter/Redditのタブを閉じます。
  4. システムの「着信拒否」をONにします。

結論

標準的な音声アシスタントはおもちゃです。OpenClaw + Whisperはツールです。試してみてください。

Need help?

Join the OpenClaw community on Discord for support, tips, and shared skills.

Join Discord →