ObsidianでチャットAIを使う

はじめに ObsidianでもVS CodeみたいにAI使いたい!って思ってたらインラインチャットはできないけど、チャットできるコミュニティプラグインを見つけたので紹介します。 Smart Composer このプラグイン、ただAIと会話できるだけじゃなくて、AIが提案した内容もしっかり反映できるので、執筆時に本当に重宝します🤤 参考:Home · glowingjade/obsidian-smart-composer Wiki チャット入力欄の右下は左から画像添付、通常のチャット開始、Voultチャット開始(Vault全体を参照して回答してくれます。)、になります。左下で登録したモデルが選べます。別途Ollamaというツールが必要ですが、ローカルLLMも利用できます。 設定紹介 私が使ってる無料のAPIの設定を紹介します。 Chatモデル Chatモデルには無料の中では高性能で1日250リクエストまで実行可能なgemini-2.5-flash、ApplyモデルにはChatモデルが処理結果を反映させるだけなのでそこまで性能は求めなくても良いと思い、gemini-2.5-flash-liteを設定しています。System promptはChat開始時にバックグラウンドで事前に指示できる設定になります。私は今のところ多用してないのでリクエスト上限は気になってません。 Geminiのリクエスト上限は以下から確認できます。 レート制限 | Gemini API | Google AI for Developers RAGモデル 「Retrieval-Augmented Generation(情報検索強化生成)」の略で、自分の学習データからだけでなく、外部の情報(Vault)も検索して回答してくれるモデルです。Vaultチャット利用時に使います。私の場合はgemini-embedding-001を「Add custom model」から追加して設定しています。 So everyone, enjoy life!

2025年8月25日 · 1 分 · shindy

ObsidianでローカルLLMを使う

はじめに Obsidianの拡張機能とHugging Face1、Ollama2を使用してオフライン環境下での生産性の爆上げを図る。 ※自己責任で実施すること。 flowchart LR A(Hugging FaceでLLMをフォーク) --> B(OllamaでLLMをpull&ローカル実行) B --> C(Obsidianの拡張機能でLLMを実行) ちなみに表題に反して、おすすめはGemini APIです。 実装環境 M3 Macbook Hugging FaceでLLMをフォーク 自分の使いたいLLMがいつ配信停止となっても困らないように、自分のリポジトリにフォークする。 ※ライセンスには注意し、自己責任で行うこと ※Hugging FaceにはOllamaで使えない形式のモデルも存在するため選定の際は注意すること。 ※いつ配信停止となっても別のモデルを探せるのであればOllamaでLLMをpull&ローカル実行から実施すること。 Hugging Face アカウント の作成 Hugging Faceのアカウントはメールアドレスがあれば作れる。有料プランを使用する場合は乗っ取り防止で2FAの設定をしておいた方がいい。 Hugging Face – The AI community building the future. Hugging Face CLI のインストール Hugging FaceのGUIだと日本語対応しておらず、UIも変更される可能性もあるため、再現性を確保するためCLIをインストールする。 1 brew install huggingface-cli Access Tokens の作成 Settingsの[Access Tokens](Hugging Face – The AI community building the future.)から作成する。Repositories内の項目をチェックする。トークンは発行時にしか表示されないため、メモしておくこと。 Hugging Face CLI でログイン 先ほど発行したトークンでログインする。 1 hf auth login --token <トークン> Git の大容量ファイル対応 gitが大規模言語モデル等の大容量ファイルを操作できるようにgit-lfsをインストールする。 ...

2025年8月15日 · 1 分 · shindy