地平線まで行ってくる。

記録あるいは忘備録。時には検討事項。

2025-03-01から1ヶ月間の記事一覧

mradermacher/ArrowNeo-AME-3x4B-v0.1-MoE-GGUFをollamaとColabで試してみる。

AItuberの魂を狙ったモデルである、ArrowNeo-AME-3x4B-v0.1-MoE(GGUF K_M)を試してみます。sarashinaベースでもあり軽さと日本語に期待しつつ試してみます。ColabのL4環境で試しました。VRAM占有率は 5773MiB / 23034MiBでした。 生成されたテキストは自然さ…

メモ:表交じりのPDFからMarkdownに変換してみる。

表形式が混在したPDFをMarkdown形式へと変換にトライしたのでメモです。前提としてはすでにPDFにテキストが埋め込まれているものを対象とします。拾い物のPDFでお試ししたので変換後の結果は割愛しています。問題のないPDFで試したら追記したいと思います。M…

codeembed-modernbert-owl-previewをcolabで試してみる。

コード検索やコード理解を目的とした事前学習済みモデルをXで見かけたので試してみました。こういう特化型モデルは興味深いです。いろいろと作って使えるときっと楽しいでしょう。モデル有難く動かしてみました。 企業の文章だと似たような文章ばかりのもの…

mmnga/qwen2.5-bakeneko-32b-instruct-v2-ggufをollamaとcolabで試してみる。

Rinna社のqwen2.5-bakeneko-32b-instruct-v2-ggufをmmngaさんのGUFFバージョンで試してみます。実力が発揮されると嬉しいなと思いつつ・・・。Colab L4環境で試してみます。VRAM占有率は20475MiB / 23034MiB でした。 知識は多少微妙な感じもします。langcha…

rinna/qwen2.5-bakeneko-32b-instruct-v2-ggufをollamaとColabでためしてみる。

非思考モデル「Qwen2.5 Bakeneko 32B Instruct V2」がRinna社より公開されてました。推論モデルでない方が使いやすいかもと思いつつ、試してみます。Colab L4環境でVRAM占有率は、14577MiB / 23034MiBでした。 日本の知識は微妙な感じでしたが、参照テキスト…

メモ:cl-nagoya/ruri-large-v2をlangchainでembeddingとして使う。

LangchainでEmbeddingsとして、ruri-large-v2を利用するメモ。Prefixをつけてqueryとdocumentを使うだけです。 huggingface.co LangchainのEmbeddingsを利用してPrefixEmbeddingsを定義。 from langchain_core.embeddings import Embeddingsclass PrefixEmbe…

rinna/qwq-bakeneko-32b-ggufをollamaとColabで試してみる。

RINNA社からQWQ-32Bベースのモデルがでました。日本語で使いやすくなっているのを期待しつつ試してみます。Colab L4環境で試します。 VRAM占有率は14577MiB / 23034MiB でした。 推論もしっかり日本語で実施します。日本語も生成されたテキストに含まれる漢…

Gemma3はSuper Marioの夢を見れるか。

Gemma3のVisionも試してみます。どこまでマリオのシチュエーションを理解してくれるのでしょうか。kun4232さんの記事を参考にgemma3-4b-itモデルをColab L4環境で試してみます。 大まかな状況は説明ができていますが、敵の数や土管の位置関係は分かっている…

ggml-org/gemma-3-27b-it-GGUFをollamaとColabで動かしてみる。

さらっとgemma-3が公開されていましたので、早速試してみます。ColabのL4環境で、27Bモデルを試します。VRAM占有率は 17335MiB / 23034MiB です。 現時点でollamaでも動かせます。再現性ありませんでしたが、エラーが出る時がありました。次のリリースで完全…

mmnga/tokyotech-llm-Llama-3.3-Swallow-70B-Instruct-v0.4-ggufをollamaとColabで試してみる。

Llama 3.3 Swallow はLlama3.3ベースの70B日本語拡張モデルです。ベンチマークの性能を見ると高い性能を有しています。楽しみです。mmngaさんが作成したGGUFを利用します。Colab A100環境で試してみます。VRAM占有率は39425MiB / 40960MiBでした。 生成する…

日本語ModernBERTのFT版、AMBERをLangchainでembeddingとしてColabで使ってみる。

SB Insituionsさんの日本語ModernBERTをFinetuningしたtext embedding modelである、AMBERをlanchainで利用してみます。Retrievalのベンチマーク成績も高く、今後利用してみたいので、基本的な部分を勉強のため実装してみます。日本語の環境がだんだん整って…

QwQ-32B-ggufをColabとollamaで動かしてみる。

QwQ-32Bは、DeepSeek-R1と同等の性能を持つとされているモデルです。mmngaさんによるGGUFへ変換したモデルをColabとOllamaを使って試してみます。Colab L4環境で実行しました。VRAM占有率は 21591MiB / 23034MiBでした。 最終回答は日本語で行うようにプロン…

Stockmark-2-100B-Instruct-beta-ggufをColabとOllamaでためしてみる。

Stockmark-2-100B-Instruct-betaは100Bのパラメータを持つ、Stockmark社による日本の・英語モデルです。GGUF化されたモデルが早くも公開されていますので、試してみます。まだ、途中段階のモデルということですが、100Bクラスということで期待してしまいます…

phi4-miniをOllamaとColabでためしてみる。

phi4-miniはMicrosoftが発表した小型で優秀なモデルです。ollamaを使ってColab T4環境で試してみます。VRAM占有率は 4002MiB / 15360MiBです。 3.8Bと小型のモデルです。最近はSLMといいつつ32Bくらいある中、頼もしい?存在です。知識量はありませんが、日…

Colabのエージェントモードを使って三国志を分析してみる。

Colabにデータファイルから分析する機能が追加されました。さっそく、吉川英治の三国志(青空文庫)を分析させます。利用するテキストデータは、予め青空文庫からデータをプレーンテキストにパースしておきます。文字数は1,625,493文字となり、量はあります…

Asagi-VLMにスーパーマリオの画面を説明させてみる。

日本語に特化したオープンなVision&Languageモデル(VLM)である、Asagiでスーパーマリオの画面が解釈できるのか試してみました。2B,8Bを試してみましたが、位置関係はかなり怪しい結果でした。残念。日本語のモデルは今後どんどん必要になるので、効率の良…