
## はじめに
Obsidianは、その柔軟性と拡張性から、多くの人に愛用されている知識管理ツールです。私も、日々のメモやアイデアの整理、そしてビジネス資料の作成まで、Obsidianを活用しています。
近年、目覚ましい進化を遂げているのが、大規模言語モデル(LLM)です。文章の生成や要約、翻訳など、LLMは様々なタスクで人間を凌駕する能力を発揮し始めています。このLLMの力をObsidianと組み合わせることで、知的生産性をさらに向上させることができるのではないか。そう考え、私はObsidian Copilotを導入しました。
Obsidian Copilotは、Obsidian内でLLMを活用するためのプラグインです。まるで優秀な「副操縦士(Copilot)」のように、ノート作成、アイデア出し、文章校正など、様々な作業をAIがサポートしてくれます。
### なぜObsidian Copilotを選んだのか(Smart Composerとの比較)
ObsidianでLLMを利用できるプラグインは、Obsidian Copilotだけではありません。例えば、「Smart Composer」というプラグインも存在します。
現時点では、両者に決定的な差を感じているわけではありません。しかし、私がObsidian Copilotを試用している理由は、主に以下の3点です。
1. **出力の質の高さ:** いくつかのプロンプトで比較したところ、Obsidian Copilotは、Smart Composerよりも文脈に沿った、具体的な提案をしてくれる傾向がありました。Smart Composerは、ノートの内容を十分に理解していないかのような、的外れな応答を返すことがあり、この点が気になりました。
2. **設定の柔軟性:** Smart Composerの出力が期待に満たないのは、単に私の設定が不十分である可能性も否定できません。Obsidian Copilotについても、まだ最適な設定を見つけられていないため、現時点では「Obsidian Copilotに確定」とは言えません。
3. **将来性への期待:** Obsidian Copilotは、Smart Composerに比べて開発が活発であり、新機能の追加や改善が頻繁に行われています。今後の発展次第では、Obsidian CopilotがSmart Composerを大きく上回る可能性を秘めていると感じています。
これらの理由から、私は現時点でObsidian Copilotを試用し、その可能性を探っています。
> [!tip] Smart Composerの設定を見直す余地も残されており、最終的な判断は今後の検証次第です。両プラグインの特性を理解し、よい選択をしたいと考えています。
## Obsidian Copilotの概要

Obsidian Copilotは、Obsidian内でAIの力を活用するための**オープンソース**プラグインです。主な特徴は以下の通りです。
* **多様なLLMに対応:** OpenAI、Anthropic、Google Geminiなど、様々なモデルを利用可能。APIキーを登録するだけで、ChatGPT Plusなどの有料プランは不要です。ローカルLLM (LM Studio, Ollama) にも対応。
* **チャットUI:** Obsidian内でLLMと対話できるチャットウィンドウを提供。
* **コマンド:** テキストの簡略化、翻訳、文法修正など、様々な処理をコマンドで実行。
* **カスタムプロンプト:** 独自のプロンプトを作成・管理、呼び出し可能。
* **Vault QA:** Obsidian内の全ノートを対象に質問応答が可能。ローカルインデックスを使用し、プライバシーに配慮。
* **Copilot Plus (ベータ版):** Obsidianに強力なAIエージェント機能を追加 (詳細は[obsidiancopilot.com](https://obsidiancopilot.com))。
Copilotのチャット機能とVault QAは無料で利用可能です。
## 導入手順
### Obsidian Copilotのインストール
1. Obsidianの「コミュニティプラグイン」から「Obsidian Copilot」を検索し、インストールします。
2. プラグインを有効化します。
### Ollamaとの連携設定
1. **Ollamaのインストール:** [Ollama公式サイト](https://ollama.ai/) から、お使いのOS (Mac, Linux, Windows) に合わせてOllamaをダウンロードし、インストールします。
2. **モデルのダウンロード:** ターミナル(またはPowerShell, CMD)で `ollama pull <モデル名>` を実行し、使用したいLLMモデルをダウンロードします。(例:`ollama pull mistral`)
3. **コンテキストウィンドウの設定(重要):** `ollama run <モデル名>`を実行後、`/set parameter num_ctx <コンテキスト長>`(例: `/set parameter num_ctx 32768`)でコンテキスト長を設定し、`/save <モデル名>`で保存します。**各モデルで個別に設定が必要です。** サーバーログで`llama_new_context_with_model: n_ctx`の値を確認してください。
4. **サーバーの起動(重要)(重要):** Obsidianからアクセスできるようにするため、以下のいずれかの方法で`OLLAMA_ORIGINS`環境変数を設定してOllamaサーバーを起動します。
* **CLI (Mac, Linux):** ターミナルで `OLLAMA_ORIGINS=app://obsidian.md* ollama serve` を実行。(fishシェルの場合は `OLLAMA_ORIGINS="app://obsidian.md*" ollama serve`)
* **macOS App:** ターミナルで`launchctl setenv OLLAMA_ORIGINS "app://obsidian.md*"`を実行後、Ollamaをメニューバーから終了し、再起動。
5. **Obsidian Copilotの設定:** Obsidian Copilotの設定画面で、「Add Custom Model」を選択し、以下を入力して「add」をクリック。
* **Model Name:** Ollamaでプルしたモデル名 (例: `mistral`)
* **Provider:** `ollama`
* `Verify` ボタンを押してsuccessfulとなることを確認し、`Add Model` ボタンでモデル追加
6. **ローカル埋め込み(オプション):** RAGでローカル埋め込みモデルを使用する場合、`ollama pull nomic-embed-text` (または `mxbai-embed-large`など)を実行。CopilotのQA設定で、モデル名(例: `nomic-embed-text`)、プロバイダ`ollama`を指定。
これで、Obsidian CopilotからOllamaで動作するローカルLLMを利用できるようになります。
> [!tip] サーバの起動が重要です。`setenv` してmacOS.appで起動、で普段づかいはOKと思います。ログを見るにはターミナルで `OLLAMA_ORIGINS=app://obsidian.md* ollama serve` で起動するのがよいです。
### LLMの選択と設定
Obsidian Copilotでは、複数のLLMモデルを使い分けることができます。いまのところ、私は下記のモデルを使っています。
#### テキスト生成モデル
* **gemini-2.0-flash (クラウド):**
* **メリット:** 高速かつ高品質な文章生成が可能。回数制限などはあるが無料。
* **デメリット:** インターネット接続が必要。APIキーを取得する必要あり。プライバシーに関する懸念あり。
* **使い所:** 高品質な文章を素早く生成したい場合。
* **deepseek-r1:14b-qwen-distill-q4\_K\_M (ローカル):**
* **メリット:** 比較的軽量で、ローカルで動作。
* **デメリット:** gemini-2.0-flashに比べると、生成速度や品質が劣る。
* **使い所:** プライバシーを重視しつつ、ある程度の品質の文章を生成したい場合。
* **lucas2024/llama-3-elyza-jp-8b:q5\_k\_m (ローカル):**
* **メリット:** 上記deepseek-r1:14bより軽量。ローカルで動作。
* **デメリット:** gemini-2.0-flash、deepseek-r1:14bと比べると、生成速度や品質が劣る。
* **使い所:** プライバシーとスピードを重視し、文章の品質をあるていど犠牲にしても大丈夫な場合。
#### エンベッディングモデル
* **yxchia/multilingual-e5-large-instruct:latest:**
* **メリット:** 多言語に対応しており、日本語の文章にも対応可能。
* **使い所:** とりあえずこれでしばらく運用。
* **mxbai-embed-large:latest:**
* **メリット:** 高い精度で文章の類似度を計算できる。
* **速度優先:** しばらくこれで運用して不満はなかったが、multilingual-e5-largeのほうが賢いという話なので実験中。
#### モデル選択の理由と使い分け
* **普段使い:** gemini-2.0-flashで高速・質を犠牲にしてスピード優先。
* **オフライン作業:** deepseek-r1:14b-qwen-distill-q4\_K\_Mでプライバシーを確保。
* **速度優先:** lucas2024/llama-3-elyza-jp-8b:q5\_k\_mで質を犠牲にしてスピード優先。
* **RAG利用時**: `yxchia/multilingual-e5-large-instruct:latest` で実験中。いまのところスピードも問題ないと感じている。
### おすすめ設定
Obsidian Copilotの高度な設定の一つに、「User System Prompt」があります。ここに、AIアシスタントの役割や口調などを指示する文章を入力できます。
設定場所は、`Settings` > `Copilot` > `Advanced` > `User System Prompt` です。
例えば、以下のように設定すると、常に日本語で丁寧な応答をしてくれるようになります。
```
あなたは誠実で優秀な日本人のアシスタントです。特に指示が無い場合は、常に日本語で回答してください。
```

この設定は、特に日本語でObsidian Copilotを利用する方におすすめです。ぜひ一度お試しください。
## Obsidian Copilotの活用例
Obsidian Copilotは、以下のような場面で、私のObsidianライフをサポートしてくれています。
* **ノート作成の効率化:** タイトルや見出しの提案、本文の自動生成、さらには既存ノートからの関連情報の抽出まで、Obsidian Copilotにお任せすることで、ノートからアウトプットを作成するのが効率的になりました。
* **文章の校正・改善:** 誤字脱字や文法ミスのチェックはもちろん、より自然で洗練された表現を提案してくれるので、文章の質が向上したと実感しています。要約機能も超・便利です(後述)。
* **関連ノートの提示:** Obsidian Copilotは、作業中のノートに関連するノートを自動的に探してきてくれます。これがさりげなく非常に便利で、過去の自分の思考を掘り起こしたり、思わぬ繋がりを発見したりするきっかけになっています。
* **カスタムプロンプトの威力:** 特に「要約」や「簡単に言い換える」といったカスタムプロンプトは、日々の作業を大幅に効率化してくれる、手放せない機能となりました。自分でプロンプトをカスタマイズできるので、Obsidian Copilotを自分専用のAIアシスタントとして活用できるのがありがたいです。

> カスタムプロンプトで、文を要約させている例
## 今後の展望
Obsidian Copilotは発展途上のプラグインであり、今後の進化に期待しています。特に、**機能拡張(画像生成、音声入力など)**、**RAGの高度化**、**UI/UXの改善**に注目しています。
私自身の活用計画としては、Obsidian Copilotを日々の作業に取り入れ、新しいワークフローを構築したいと思っています。具体的には、
* **設定の最適化:** 自分の作業スタイルに最適な設定を見つける。
* **LLMモデルの選定:** 速度、精度、プライバシーのバランスが良いモデルを探す。
* **プロンプトエンジニアリング:** 効果的なプロンプト作成技術を磨く。
Obsidian Copilotは、私のノート活動を変える可能性を秘めたツールです。その進化にうまく便乗し、学び続け、共に成長していきたいです。
## リンク集
- **Obsidian公式ページ**: [https://obsidian.md/](https://obsidian.md/)
- **Obsidian Copilotプラグイン(GitHub)**: [https://github.com/logancyang/obsidian-copilot](https://github.com/logancyang/obsidian-copilot)
- **Smart Composerプラグイン(GitHub)**: [https://github.com/glowingjade/obsidian-smart-composer](https://github.com/glowingjade/obsidian-smart-composer)
- **Ollama公式ウェブサイト**: [https://ollama.ai/](https://ollama.ai/)
- **解説記事: Obsidian Copilotの導入と活用方法**: [https://note.com/mekann/n/n4d337ccd8d95](https://note.com/mekann/n/n4d337ccd8d95)
- **解説記事: Smart Composerの導入と活用方法**: [https://zenn.dev/y16ra/articles/e17dd3349836c3](https://zenn.dev/y16ra/articles/e17dd3349836c3)
- **解説記事: Ollamaを用いたローカルLLMの実行方法**: [https://zenn.dev/kesin11/scraps/244a9939f87a39](https://zenn.dev/kesin11/scraps/244a9939f87a39)
* [Obsidian|使いかたとコツ(目次)](https://qiita.com/hann-solo/items/ac8fa75394813e8adcf4)
> [!info] このノートは [Obsidian Copilotのすゝめ:ノート活動を変えるかもしれない壁打ち相手](https://qiita.com/hann-solo/items/1566fa38e5b737a2e61a) でも公開しています。
## 環境
以下のバージョンで実施しました。
- Obsidian v1.8.9
- macOS Sequoia 15.3.2
- MacBook Pro (14-inch, 2021)
## おわりに
Obsidian Copilotを導入して1週間が経過しました。私のObsidianを用いたノート活動は、大きく変化しました。一人で作業しているのではなく、誰かと壁打ちしながら物事を進めているような感覚です。
特に、**カスタムプロンプト**の機能は、作業効率を大幅に向上させました。人に読んでもらうためには、文章の情報量と密度のコントロールが鍵となります。しかし、LLMが作る文章も、人間がつくる文章も、基本的には冗長になりがちです。情報量を落とし密度を上げる作業が必須となります。手作業で行うのも楽しいですが、パートナーがいることで、さらに楽しい体験へと変わりました。
Obsidian Copilotの機能を完全に活用できているわけではありません。RAG機能の高度化や、新しいLLMモデルの登場など、Obsidian Copilotには、まだ多くの潜在能力があると感じています。
「**Obsidian Copilotは、私のノート活動を変える可能性を秘めたツールである**」
これが、現時点での率直な評価です。Obsidian Copilotの今後の発展に期待するとともに、私自身もObsidian Copilotを積極的に活用し、その進化に貢献できるよう、継続的な利用を続けていく所存です。この有用なツールは、Obsidianユーザーの方々、特に文章作成に携わる方には、非常に役立つ可能性があると愚考いたします。