Github CopilotでOllamaを利用するように設定してみたが
公開 2025/09/30 13:24
最終更新
-
Github CopilotでOllama(+ローカルLLM)が使えると知って、試してみた。
なんかアダプタ的な?アプリが必要そうだってどっかの記事で読んだんだけど、そのアプリ名が思い出せなくて、でもなんか方法がないかなぁと思って調べたら、何も追加せずにGithub CopilotからOllamaを利用できることがわかった。
LM StudioとかJanとかは選択肢に出てこない。
gpt-oss:20bとgemma3:4b、phi4:14bで試したところ、それぞれそれなり。悪くないけど、できる限りCopilotやGeminiの無料枠で使いたい。社外に出したくない情報があるときは簡単に切り替えられるので、Ollamaから使おうかなという感じか。
使い勝手はGithub Copilotに準ずるので悪くない。
なんかアダプタ的な?アプリが必要そうだってどっかの記事で読んだんだけど、そのアプリ名が思い出せなくて、でもなんか方法がないかなぁと思って調べたら、何も追加せずにGithub CopilotからOllamaを利用できることがわかった。
LM StudioとかJanとかは選択肢に出てこない。
gpt-oss:20bとgemma3:4b、phi4:14bで試したところ、それぞれそれなり。悪くないけど、できる限りCopilotやGeminiの無料枠で使いたい。社外に出したくない情報があるときは簡単に切り替えられるので、Ollamaから使おうかなという感じか。
使い勝手はGithub Copilotに準ずるので悪くない。
