どうやら現時点では、私はWizardLM2が好きなようだ
公開 2024/06/11 10:24
最終更新
-
Open Interpreterが0.2.6になったのですが、変更点はよくわからない。
一通りの処理後にfeedbackを欲しがるようになったのが大きいのかな。
interpreter --model i
というものが大きい変更に見えるんだけど、どう使うのか全然わからない。
interpreter --local
としたときの対応が親切になったとは感じる。
それはともかく:
ちょっと、この後、必要になりそうだという考えから、サンプルプログラムを用意させるつもりでOpen Interpreterに指示してみた。
llama3:8bは日本語での指示は解釈できているようなのだけど、途中から同じところでループするので結局は戦力外。英語で指示を書けば変わるのかもしれないが、AIを活用するために人間が歩み寄るのはある意味仕方ないとも思うし、それも本末転倒かなとも。
自分の手間を削減するために利用しているんだから、別のところに負担感がでてしまうのではね...。
phi3とかStarCoderとかCodeGemmaとかいろいろ試したんだけれども、wizardlm2が期待にもっとも沿った形で収束してみせたので、個人的にこれが一押し。使用しているPCの能力の問題で、Command R関係は除外。あれは重すぎ。
これだったらVRAMも6Gあれば利用できるし、自分の助手として使うなら、これでいいんじゃないだろうか。もちろん、ローカルで使用できるLLMは足りないところが多いので、他も捨てるわけではないけれども。
一通りの処理後にfeedbackを欲しがるようになったのが大きいのかな。
interpreter --model i
というものが大きい変更に見えるんだけど、どう使うのか全然わからない。
interpreter --local
としたときの対応が親切になったとは感じる。
それはともかく:
ちょっと、この後、必要になりそうだという考えから、サンプルプログラムを用意させるつもりでOpen Interpreterに指示してみた。
llama3:8bは日本語での指示は解釈できているようなのだけど、途中から同じところでループするので結局は戦力外。英語で指示を書けば変わるのかもしれないが、AIを活用するために人間が歩み寄るのはある意味仕方ないとも思うし、それも本末転倒かなとも。
自分の手間を削減するために利用しているんだから、別のところに負担感がでてしまうのではね...。
phi3とかStarCoderとかCodeGemmaとかいろいろ試したんだけれども、wizardlm2が期待にもっとも沿った形で収束してみせたので、個人的にこれが一押し。使用しているPCの能力の問題で、Command R関係は除外。あれは重すぎ。
これだったらVRAMも6Gあれば利用できるし、自分の助手として使うなら、これでいいんじゃないだろうか。もちろん、ローカルで使用できるLLMは足りないところが多いので、他も捨てるわけではないけれども。
