Open Interpreter 0.3.3ってかなり安定してる?
公開 2024/06/24 15:55
最終更新
-
Open Interpreterはいつの間にか0.3.3になってます。
(ちなみに、私がインストールしているのは0.3.3 Local IIIです。)
こんなインストールモードがあるので試してみたって感じですね。具体的に何が違うのかわかりませんけれど。
> pip install open-interpreter[local]
で、本題。
アップグレードが行われると、とりあえずサンプルプロンプトを実行してみるんですが、本バージョンではローカルLLMを使用していても、高確率で収束し、そこそこの結果を出してくれるようになりました。
とりあえず使ってみるのは --model ollama/wizardlm2なんですが、何も指定しないとPowershellを使おうとするんですけれども、何回かリトライの後、きちんと結果を出してくれました。Pythonを使用してくださいと追加で指示をするとPythonのコードを出しますし、いい感じです。
LLMが変わらないのに動作が安定するというのも、不思議な感じがするんですけれども、どうやっているんでしょうね?たまたまなのかな?
でも、これだったら、Open Interpreter+ローカルLLMでそこそこの任務を任せられそうな気がします。
(ちなみに、私がインストールしているのは0.3.3 Local IIIです。)
こんなインストールモードがあるので試してみたって感じですね。具体的に何が違うのかわかりませんけれど。
> pip install open-interpreter[local]
で、本題。
アップグレードが行われると、とりあえずサンプルプロンプトを実行してみるんですが、本バージョンではローカルLLMを使用していても、高確率で収束し、そこそこの結果を出してくれるようになりました。
とりあえず使ってみるのは --model ollama/wizardlm2なんですが、何も指定しないとPowershellを使おうとするんですけれども、何回かリトライの後、きちんと結果を出してくれました。Pythonを使用してくださいと追加で指示をするとPythonのコードを出しますし、いい感じです。
LLMが変わらないのに動作が安定するというのも、不思議な感じがするんですけれども、どうやっているんでしょうね?たまたまなのかな?
でも、これだったら、Open Interpreter+ローカルLLMでそこそこの任務を任せられそうな気がします。
