LM StudioのMulti ModelってChatALLのローカルLLM版だねぇ。
公開 2024/03/27 09:33
最終更新
2024/03/27 09:42
いわゆるポップヒントでPlaygroundってあるから、意味不明な機能だなぁと思っていたら、バージョン0.2.17のトップ画面にMulti Modelって書いてあった。
Playgroundっていう表示が間違っているんだろうけれども。
Multi Modelっていうことなら、なんとなくわかる。
要は複数のモデルをロードしておいて、同じプロンプトに対して回答させるもの。
ChatALLのローカルLLM版ってわけですな。
ChatALLはネット上で提供されているサービスに直接アクセルするから、ローカルPCの性能に左右されないのがメリットだが、ローカルで使用できる軽量LLMに適用できないからなぁ。
Send Prompt to models ont-by-oneというチェックがプロンプト入力ボックスの下にあって、各モデルに順次プロンプトを送信して回答を待つようにするか、同時に送信して同時に回答を得るかも選べる。
軽量モデルなら、GPUのVRAMに余裕があれば2~3個ロードできるし、メモリのバランスをいじれば、ちょっと重めのモデルでも同時に使用することはできる。(この場合、メインメモリを圧迫するわけだが。)
例えば、RakutenAI-7bとGemma-7bを同時にロードしたらVRAM Usageは10GBくらい。
(ほかのモデルをロードするなら、どっちかをEjectしてくれとでた。)
RakutenAI+Gemma-2B+Elyza-7Bは同時に使えた。
同時にどんな回答が得られるかを見るだけで、大した用途はないんだけれども。
ローカルで使用するLLMって、Context Windowの問題か、連続して質問をしていくと狂ったように変な回答を連発してくるから、安定しているとは言えないんだけれども、設定なのか使い方なのか、コツってあるのかね?
あと、この画面でLocal Serverという機能があるんだけれども、Multi ModelでAPI処理が動くのかな。
あとで試したい。
----
今日はOpen Interpreterは更新されていません。最新は0.2.4です。
--localでllamafileがエラーとなり利用できません。Ollama, LM Studioは使えます。
(Janも使えると思いますが、LM Studioの出来が良いので、興味ありません。Ollamaは手軽なので時々使います。)
0.2.2ではllamafile(Phi-2)のみの対応でしたが、そこそこ動いていましたので、デグレってやつですかねぇ。Phi-2以外に対応させる流れで問題が起こっているように思いますけれども。
Playgroundっていう表示が間違っているんだろうけれども。
Multi Modelっていうことなら、なんとなくわかる。
要は複数のモデルをロードしておいて、同じプロンプトに対して回答させるもの。
ChatALLのローカルLLM版ってわけですな。
ChatALLはネット上で提供されているサービスに直接アクセルするから、ローカルPCの性能に左右されないのがメリットだが、ローカルで使用できる軽量LLMに適用できないからなぁ。
Send Prompt to models ont-by-oneというチェックがプロンプト入力ボックスの下にあって、各モデルに順次プロンプトを送信して回答を待つようにするか、同時に送信して同時に回答を得るかも選べる。
軽量モデルなら、GPUのVRAMに余裕があれば2~3個ロードできるし、メモリのバランスをいじれば、ちょっと重めのモデルでも同時に使用することはできる。(この場合、メインメモリを圧迫するわけだが。)
例えば、RakutenAI-7bとGemma-7bを同時にロードしたらVRAM Usageは10GBくらい。
(ほかのモデルをロードするなら、どっちかをEjectしてくれとでた。)
RakutenAI+Gemma-2B+Elyza-7Bは同時に使えた。
同時にどんな回答が得られるかを見るだけで、大した用途はないんだけれども。
ローカルで使用するLLMって、Context Windowの問題か、連続して質問をしていくと狂ったように変な回答を連発してくるから、安定しているとは言えないんだけれども、設定なのか使い方なのか、コツってあるのかね?
あと、この画面でLocal Serverという機能があるんだけれども、Multi ModelでAPI処理が動くのかな。
あとで試したい。
----
今日はOpen Interpreterは更新されていません。最新は0.2.4です。
--localでllamafileがエラーとなり利用できません。Ollama, LM Studioは使えます。
(Janも使えると思いますが、LM Studioの出来が良いので、興味ありません。Ollamaは手軽なので時々使います。)
0.2.2ではllamafile(Phi-2)のみの対応でしたが、そこそこ動いていましたので、デグレってやつですかねぇ。Phi-2以外に対応させる流れで問題が起こっているように思いますけれども。