ローカルLLMで遊ぶのにとても便利なollama。Colabでもお試ししたいと思っていたら、ラッパーを見つけました。
ollamaではモデルファイルを定義しておいて、それぞれの言語モデルの設定を行います。この機能が当初なかったので要望を出したら通りました。早速、試しました。
新しいモデルをいち早くollama経由で使う前に味見やモデルファイルの確認ができるのは良い点だと思います。
ローカルLLMで遊ぶのにとても便利なollama。Colabでもお試ししたいと思っていたら、ラッパーを見つけました。
ollamaではモデルファイルを定義しておいて、それぞれの言語モデルの設定を行います。この機能が当初なかったので要望を出したら通りました。早速、試しました。
新しいモデルをいち早くollama経由で使う前に味見やモデルファイルの確認ができるのは良い点だと思います。