地平線まで行ってくる。

記録あるいは忘備録。時には検討事項。

2024-12-01から1ヶ月間の記事一覧

読んだ:VTuberサプーが教える! Python 初心者のコード/プロのコード

がっつりプログラムをする人のいない環境のぼっち日曜プログラマ。初心者向け入門書くらいは読んだことはあるけど、ほぼ我流。他人と共有しないプログラムであれば自由でいいし動けばOK。ここ数年動かしっぱなしのコードを改修しようとしたらドツボにハマる…

メモ:ollamaのstructured outputsでのエラーハンドリング

ollamaでstructured outputsに対応したので試します。すでに良記事が存在するので一読して、気になった出力の安定性とその時のエラー処理の味見をしました。ollamaでローカルLLMで大量のテキストを処理したい。データセットをちょっと加工したり、論文からデ…

Llama-3.3-70B-Instruct-ggufをollamaとColabでためしてみる

OpenAIの発表が続く中、Llama-3.3-70Bが公開されていました。さっそく、mmngaさんがGGUFを作成されていましたので、Colabで試します。Colab L4環境です。 70Bモデルもすっかり高い性能になってきましたが、Llama-3.3-70Bもその高さを感じさせます。ただし、l…

メモ:CycleQDをColabでためしてみる。

Sakana.aiが発表したあらたな技術CycleQD。Googlefan256さんは早速、実証実装をされていたので、Colabで動かしてみます。Colab T4のハイメモリ環境です。ハイメモリじゃないとQwen2.5-0.5Bベースでもダメでした。とりあえず、動くかどうかを試しただけなので…

mmnga/Llama-3.1-Nemotron-70B-Instruct-HF-ggufをColabとollamaでためしてみる。

NVIDIA製Llama-3.1-Nemotron-70BのGGUFをmmngaさんがGGUFとしていらっしゃったので試します。ColabのL4環境です。A100が引き当てられず、予測時間は結構かかります。推論過程を提示しろというSYSTEM PROMPTを用いました。 結果は、さすがに良好です。推論過…

EZO-QwQ-32B-Preview-GGUFをollamaとColabで試す。

QwQ-32B-Previewはo1的な推論モデルを組み込んだ実験的なモデルです。中国語や英語が生成途中で混じったりすることがありました。その点をマージで調整されたEZO-QwQ-32B-PreviewのGGUFバージョンをお試ししてみます。ColabのL4環境です。 試した範囲では、…