LM Studioバージョン情報:0.3.5になりました
公開 2024/10/23 09:33
最終更新
2024/10/23 09:35
今回のバージョンによって、GUIなしで起動できるようになりました。
これによって、今までのように
1.LM studioを起動して→
2. サーバーモードにして→
3. モデルをダウンロードして→
4. サーバースタート
という手順を踏まなくてよくなりました。ほぼ、ollamaの使い方ですね。
ollamaではHuggingFaceに登録されているggufファイルを直接使用できませんので、既にOllamaサイトに登録されているものでなければ、独自に変換を行わなければなりませんでした。ollamaの管理者にお願いすることもできるようですが、普段からオープンソースのコミュニティにアクセスしているような人でなければ、ハードルが高いお話です。
でも、LM studioがこれに対応してくれたことにより、HuggingFaceから直接取得して利用できるモデルが飛躍的に増える可能性があります。LM studioのサーバーモード上でモデルを変更できるオンデマンドロードも対応したそうですから、現行Ollamaでできることがほぼできるようになったと思われます。
あとはOpen InterpreterやVSCodeのContinueが対応してくれれば、Ollamaの対応を待たずに新しいモデルを試すこともできるようになることが期待できます。
(どちらも、もともとのサーバーモードは対応していたわけですし、時間の問題じゃないかなと思いますが。)
macOSのMLXへの対応については私にはわかりませんので、識者のレポートを探してみてください。
これによって、今までのように
1.LM studioを起動して→
2. サーバーモードにして→
3. モデルをダウンロードして→
4. サーバースタート
という手順を踏まなくてよくなりました。ほぼ、ollamaの使い方ですね。
ollamaではHuggingFaceに登録されているggufファイルを直接使用できませんので、既にOllamaサイトに登録されているものでなければ、独自に変換を行わなければなりませんでした。ollamaの管理者にお願いすることもできるようですが、普段からオープンソースのコミュニティにアクセスしているような人でなければ、ハードルが高いお話です。
でも、LM studioがこれに対応してくれたことにより、HuggingFaceから直接取得して利用できるモデルが飛躍的に増える可能性があります。LM studioのサーバーモード上でモデルを変更できるオンデマンドロードも対応したそうですから、現行Ollamaでできることがほぼできるようになったと思われます。
あとはOpen InterpreterやVSCodeのContinueが対応してくれれば、Ollamaの対応を待たずに新しいモデルを試すこともできるようになることが期待できます。
(どちらも、もともとのサーバーモードは対応していたわけですし、時間の問題じゃないかなと思いますが。)
macOSのMLXへの対応については私にはわかりませんので、識者のレポートを探してみてください。