Claude CodeでローカルLLMが使えるらしいので試してみた【Ollama連携】
BRANK

目的普段:Claude Code を Subscription/ログインで クラウドClaude として利用必要な時だけ:Ollama の ローカルLLM に向けて Claude Code を動作いつでも 簡単に元へ戻せる(環境変数を消すだけ)⚠️ 試してみた結果実際にローカルLLM(3Bモデル)で試したところ、会話やコード生成(テキスト出力)はできましたが、ファイル作成などの指示をしてもJSON形式の文字列が返ってくるだけで実行されませんでした。詳細は「7. 試してみた結果まとめ」を参照。事実根拠Ollama v0.14.0以降で Anthropic Messages API互換が追加され、Claude Code を localhost(Ollama)に向けられるOllama公式の Claude Code 連携手順(環境変数で切り替え)Claude Code 公式ドキュメント(インストール・概要)0. 前提Windows 10/11PowerShell が使えることローカルで動かすためのPCリソース(RAM/GPUなど)はモデルに依存1. Ollama をインストール(Windows)1-1. ダウンロードOllama公式ダウンロードページへ「Download for Windows」からインストーラーをダウンロードし実行1-2. バージョン確認(重要)PowerShell を開いて実行:2. Claude Code をインストール(Windows)Claude Code 公式:…

zenn.dev
Related Topics: AI