やはり、Open Interpreter 0.3.3は安定してきたと思う
公開 2024/06/26 15:40
最終更新
2024/06/28 16:17
いまだ、簡単なお題しか試していないけれども、Open Interpreter(+ローカルLLM)は実用段階に入ってきたと思う。多少おかしな処理になっても、interpreter自体は落ちなくなってますし。
LLMは大抵は動くコードを出すけれども、括弧の数が足りないとか、インデントが合わないとかの、つまらないエラーも起こすんですね。こういうとき、エラーが出たことを知ることが重要なのであって、異常とともに処理系が落ちてしまったらダメじゃんと。
ローカルストレージに置いたファイルからデータを抽出することもやって見せてくれるようになったし、「PNGファイルからノイズを減らして」みたいな指示から、pythonでOpenCVのフィルタ処理を実行して見せるとか。(PNGファイルを読み出して、処理を入れて、PNGファイルを書き出すという処理。)
何かハマっているなと思ったら、途中で修正方法を提案してやると、それを取り入れて処理を完成させたりと。おお、なんとなく「助手」っぽい。
どうしても自分の能力を超えるような作業にはChatGPTとかClaudeとかの知識を借りるとしても、気軽に問い合わせができる点で、ローカルLLMは使えるなと思う。
あとはマルチモーダルってやつが課題か。図を見て判断できるようなら、利用範囲もひろがるかも。
LLMは大抵は動くコードを出すけれども、括弧の数が足りないとか、インデントが合わないとかの、つまらないエラーも起こすんですね。こういうとき、エラーが出たことを知ることが重要なのであって、異常とともに処理系が落ちてしまったらダメじゃんと。
ローカルストレージに置いたファイルからデータを抽出することもやって見せてくれるようになったし、「PNGファイルからノイズを減らして」みたいな指示から、pythonでOpenCVのフィルタ処理を実行して見せるとか。(PNGファイルを読み出して、処理を入れて、PNGファイルを書き出すという処理。)
何かハマっているなと思ったら、途中で修正方法を提案してやると、それを取り入れて処理を完成させたりと。おお、なんとなく「助手」っぽい。
どうしても自分の能力を超えるような作業にはChatGPTとかClaudeとかの知識を借りるとしても、気軽に問い合わせができる点で、ローカルLLMは使えるなと思う。
あとはマルチモーダルってやつが課題か。図を見て判断できるようなら、利用範囲もひろがるかも。
