Open Interpreter更新情報です。
公開 2024/08/08 10:25
最終更新
2024/08/08 14:44
今朝実行してみたら、Update情報が出ていたので、更新しました。
versionは 0.3.6 Local III
です。
今回は、更新の際、以下のエラーが出ていますけれども、typing-extensionsってあまり影響なさそうな気がするもので、とりあえず放置してみます。
(何か不具合で困ったら、強制的に入れてしまえばいいかなという感じで、メモを残します。)
ERROR: pip's dependency resolver does not currently take into account all the packages that are installed. This behaviour is the source of the following dependency conflicts.
unstructured 0.12.6 requires typing-extensions==4.9.0, but you have typing-extensions 4.12.2 which is incompatible.
これでも、ollamaからllama3.1を呼び出すときにはエラーが出ますねぇ。
interpreter -m ollama/llama3.1
以下は問題ないです。
interpreter -m ollama/llama3
あと、いつのまにかosオプションがエラーを出すようになっていました。
使わない予定なので深堀りはしません。
他にLiteLLMがWARNINGを出すケースがあります。llama3では出ませんでした。
LiteLLM:WARNING: litellm_logging.py:1325 - Model=wizardlm2 not found in completion cost map. Setting 'response_cost' to None
これが出ても大して影響はなさそうですけれども、前のバージョンである0.3.4では出ませんでしたから、バグでしょうかね。
versionは 0.3.6 Local III
です。
今回は、更新の際、以下のエラーが出ていますけれども、typing-extensionsってあまり影響なさそうな気がするもので、とりあえず放置してみます。
(何か不具合で困ったら、強制的に入れてしまえばいいかなという感じで、メモを残します。)
ERROR: pip's dependency resolver does not currently take into account all the packages that are installed. This behaviour is the source of the following dependency conflicts.
unstructured 0.12.6 requires typing-extensions==4.9.0, but you have typing-extensions 4.12.2 which is incompatible.
これでも、ollamaからllama3.1を呼び出すときにはエラーが出ますねぇ。
interpreter -m ollama/llama3.1
以下は問題ないです。
interpreter -m ollama/llama3
あと、いつのまにかosオプションがエラーを出すようになっていました。
使わない予定なので深堀りはしません。
他にLiteLLMがWARNINGを出すケースがあります。llama3では出ませんでした。
LiteLLM:WARNING: litellm_logging.py:1325 - Model=wizardlm2 not found in completion cost map. Setting 'response_cost' to None
これが出ても大して影響はなさそうですけれども、前のバージョンである0.3.4では出ませんでしたから、バグでしょうかね。
