引き続きOpen Interpreterネタだけど
公開 2024/04/25 08:52
最終更新
-
性懲りもせず、Open Interpreterネタです。
2024/4/25現在、0.2.5が公開されているようです。一応、アップデートしましたが、profileを変換するとかの処理がエラーで落ちるので、そこらの処理をスキップしています。
日本語版のWindowsと相性が悪いのか、多言語対応が弱いだけなのか。よくわかりませんけれども。
で、今回のネタとしては、Open Interpreterは--osオプションを使うべきということと、日本語で利用するならWizardLM2でいいんじゃね?という内容。
まず、Ollama ( https://ollama.com/ )。
Ollamaを利用すると、ほぼCLIではありますが、使い方はシンプルでそう困りません。
ただ、Ollamaのサイトで公開されているモデルの多くは、日本語を理解しにくいか、理解しているものの回答を日本語で返してくれないものが多く、使いにくいという面はあります。
npaka氏がElyzaをOllama用に変換するといったことを試みた方法などがありますので、それなりに自分好みの軽量LLMを変換して楽しむことはできそうです。
microsoftから公開されているWizardLM2というものがあります。
(当のAIに問い合わせたところ、OpenAI製らしいですがどうなんでしょうか。)
ollama pull wizardlm2
でモデルをダウンロードしておけばいつでも使えます。
interpreter --os --model ollama/wizardlm2
とすれば、常駐しているollamaがwizardlm2をロードして利用してくれます。
Open Interpreterのサンプルプロンプトとして登録されているものから
>What time is it in Seattle?
を使ってみると、割とスムーズにpythonコードを出力して結果を出してくれます。
(これで躓くLLMが結構多いんですよ。)
>カレントフォルダの"world_population.csv"を参照し、人口が最大の国名を一つ表示しなさい。
world_pupulation.csvって、KaggleとかUNとかで提供されている世界各国の人口推移を示すファイルですね。
ここでPupulationという項目が見つけられなくてエラーを出しますが、"2022 Population"という項目を見つけてきます。日本語で、何が悪くて、どうしたらうまくいったかが表示されていて、これが求めていたOpen Interpreterなんだよと感動しましたよ。
ChatGPTに課金するのは避けているもので、GPT-4の賢さをみることはできていなかったんですね。
Ollamaから呼び出す感じ、VRAMを4Gを少し超える感じなので、割と使いやすいかなとも思います。
でもですね、別のタイミングで同じプロンプトを実行すると、"Population"にこだわってループしたり、pop-1980とか勝手な項目を持ち出してきたりと、回答内容に揺らぎがありますね。
日本語で何をやろうとしているのか説明してくれるので、「どうしちゃったの?」という気分になります。
コードにエラーが出ているのに、完了したつもりになって「まとめ」に入ることがあるなど、「突っ込み待ちか!?」というときもあったりして、暇なときはなかなか面白いですね。
2024/4/25現在、0.2.5が公開されているようです。一応、アップデートしましたが、profileを変換するとかの処理がエラーで落ちるので、そこらの処理をスキップしています。
日本語版のWindowsと相性が悪いのか、多言語対応が弱いだけなのか。よくわかりませんけれども。
で、今回のネタとしては、Open Interpreterは--osオプションを使うべきということと、日本語で利用するならWizardLM2でいいんじゃね?という内容。
まず、Ollama ( https://ollama.com/ )。
Ollamaを利用すると、ほぼCLIではありますが、使い方はシンプルでそう困りません。
ただ、Ollamaのサイトで公開されているモデルの多くは、日本語を理解しにくいか、理解しているものの回答を日本語で返してくれないものが多く、使いにくいという面はあります。
npaka氏がElyzaをOllama用に変換するといったことを試みた方法などがありますので、それなりに自分好みの軽量LLMを変換して楽しむことはできそうです。
microsoftから公開されているWizardLM2というものがあります。
(当のAIに問い合わせたところ、OpenAI製らしいですがどうなんでしょうか。)
ollama pull wizardlm2
でモデルをダウンロードしておけばいつでも使えます。
interpreter --os --model ollama/wizardlm2
とすれば、常駐しているollamaがwizardlm2をロードして利用してくれます。
Open Interpreterのサンプルプロンプトとして登録されているものから
>What time is it in Seattle?
を使ってみると、割とスムーズにpythonコードを出力して結果を出してくれます。
(これで躓くLLMが結構多いんですよ。)
>カレントフォルダの"world_population.csv"を参照し、人口が最大の国名を一つ表示しなさい。
world_pupulation.csvって、KaggleとかUNとかで提供されている世界各国の人口推移を示すファイルですね。
ここでPupulationという項目が見つけられなくてエラーを出しますが、"2022 Population"という項目を見つけてきます。日本語で、何が悪くて、どうしたらうまくいったかが表示されていて、これが求めていたOpen Interpreterなんだよと感動しましたよ。
ChatGPTに課金するのは避けているもので、GPT-4の賢さをみることはできていなかったんですね。
Ollamaから呼び出す感じ、VRAMを4Gを少し超える感じなので、割と使いやすいかなとも思います。
でもですね、別のタイミングで同じプロンプトを実行すると、"Population"にこだわってループしたり、pop-1980とか勝手な項目を持ち出してきたりと、回答内容に揺らぎがありますね。
日本語で何をやろうとしているのか説明してくれるので、「どうしちゃったの?」という気分になります。
コードにエラーが出ているのに、完了したつもりになって「まとめ」に入ることがあるなど、「突っ込み待ちか!?」というときもあったりして、暇なときはなかなか面白いですね。
