LM Studioを利用してOpen Interpreterが使えるようになりましたが
公開 2023/12/26 11:38
最終更新
2023/12/26 14:25
正直、実用レベルとは言えないなぁ...と。
以前、CodeLlamaしか使えなかったときにも思ったんですが、やりたいことをきちんと理解してプログラムを組んでもらうのは、相当運が良いか、丁寧なプロンプトが必要で、そんなのを探っているよりはOpenGPTとか公開されている(ローカルでは実行できないレベルの)LLMに聞きながらプログラムをつくったほうが早い。
実行したプログラムにエラーがあって、自分で修正するのかと思えば、同じコードを延々と実行、エラーを繰り返す。役に立ちません。
LM StudioからLLMを探してダウンロード、実行するのは容易になったのですが、ELYZAより使い勝手が良いLLMというのも見つけられません。そのELYZAも頼りないです...
ローカルで使用するLLMっていうのは、まだ無理かなぁ。
ローカルストレージに置いたファイルを読み取らせるというような処理は部分的には成功するので、使いようではありますが...、便利使いには遠いですね。
以前、CodeLlamaしか使えなかったときにも思ったんですが、やりたいことをきちんと理解してプログラムを組んでもらうのは、相当運が良いか、丁寧なプロンプトが必要で、そんなのを探っているよりはOpenGPTとか公開されている(ローカルでは実行できないレベルの)LLMに聞きながらプログラムをつくったほうが早い。
実行したプログラムにエラーがあって、自分で修正するのかと思えば、同じコードを延々と実行、エラーを繰り返す。役に立ちません。
LM StudioからLLMを探してダウンロード、実行するのは容易になったのですが、ELYZAより使い勝手が良いLLMというのも見つけられません。そのELYZAも頼りないです...
ローカルで使用するLLMっていうのは、まだ無理かなぁ。
ローカルストレージに置いたファイルを読み取らせるというような処理は部分的には成功するので、使いようではありますが...、便利使いには遠いですね。