地平線まで行ってくる。

記録あるいは忘備録。時には検討事項。

picoclawをollamaとdocker composeで利用してみる。

ollamaでpicoclawをollamaで動かしたくなったので、docker composeで出来るようにしました。大したこともないですが、メモまで。 bwgift.hatenadiary.jp docker-compose.override.ymlをオリジナルのdocker-compose.ymlと同じディレクトリに設置します。セキ…

picoclawをopenai互換とdocker composeで利用してみる。2026/2/14時点

PicoClawはOpenClawのGo実装版でコンパクトです。ローカルLLMやOpenAI互換の他のプロバイダで利用するとうまくいかなかったので、メモを書きました。答えは、vLLMで使おう・・・これだけです。もともと組み込み以外のプロバイダはOpenRouterへの設定に流れま…

ResarchツールをローカルLLMで動かしてみる。

Deep Researchのような調査ツールをローカルLLMと組み合わせてみたら、どこまで使えるのでしょう・・・と思って、作ってみました。この手のレポジトリはすでにあると思います。 狙い 1. ローカルLLMの軽量級であるollamaとgemma3:4b-it-qatの組み合わせでど…

modernBERTでNER。境界意識型学習とSpanを入れ込んでみる。

固有表現抽出(NER)タスクを続けていきます。gpt-5.xやgemini xにやらせればいいといわれますが、その通りです。一方で、ローカルLLMモデルを利用してLoRAで学習させても思いの他、精度を上げるのは大変でした。 という訳で、modernBERTという優秀でお手軽なe…

コンテキスト指向な NER をColabで味見してみる。

BERTやModernBERT(Ruri-v3など)のようなTransformerベースのモデルは、内部的に Self-Attention メカニズムを持っており、文全体のコンテキストを考慮して各トークンのベクトルを決定しています。そのため文脈を考慮して、NERでは地名(LOC)か企業名(ORG…

Qwen3-TTSをColabで試してみる。

テキストで指示した音声でしゃべってくれるQwen3-TTSモデル(Qwen3-TTS-12Hz-1.7B-VoiceDesign)を試してみました。Colab T4環境でVRAM占有率は8.4 / 15.0 GBでした。Colabのノートブックは最後にリンクします。 huggingface.co instructのテキストだけで色ん…

translategemma:4bをColabで試してみる。

translategemmaはGoogleが公開した翻訳モデルです。Gemma 3ベースでオープンなモデルで気軽に使えます。Googleさんありがとうございます。早速、Colab L4環境でollama公式にあるtranslategemma:4bで試してみました(VRAM 利用率:3.8GB/22.5GB)。 4bのモデル…

Google Julesに頑張ってゲームを作ってもらう。

Google Julesは、Google が開発した “自律型AIコーディングエージェント” で、GitHub リポジトリを読み取り、計画を立て、コードを書き、テストし、最終的に PRまで自動で作成する次世代の開発支援ツールです。GooleでもAntigravityやGemini CLIと比較して目…

ACE FrameworkベースにLTMをじっくり試してみる。

Colabを使ってACE(Agentic Context Engineering)という考え方を試してみました。コンテキストエンジニアリングを考える良い機会になりました。また、そもそも情報をどう蓄積して、検索し引き出して投入するのか、を考える良いきっかけとなりました。 bwgif…

Model-First ReasoningをColab+さくらのAI Engineで試してみる

はじめに Model-First Reasoning(MFR)は、推論に先立って問題の構造を明示的にモデル化することをエージェントに要求することで、ハルシネーションを抑制し信頼性の高いAIシステムを構築するための基礎的なコンポーネントとなるアプローチです。推論(生成)…

Stable-tsとFaster-whisperを使って音声認識をColabで試してみる。

faster-whisperでの音声認識をうまく使うのはなかなか苦労していたところ、見かけたXポストが気になったので自分で実装します。 large-v3-turboで、実装はこんな感じです!同じ単語が突然繰り返されるハルシネーションにかなり悩みましたが、stable-tsを入れ…

Chatに4層のメモリー(履歴)機能を組み込んでローカルLLMを使ってみるテスト

Chatにおけるメモリー機能の記事を読みました。RAGを使わない、というよりも、検索を伴うRAGに適さない基軸的な情報を用意しておく必要があるのでしょう。要は、LLMに投入するプロンプト(コンテキスト)中にメモリー機能とする情報を含ませておく、という理…

Chatにメモリー機能をローカルLLMを使って組み込んでみるテスト

chatGPTやcopilotではメモリー機能が組み込んであります。親しみは増えますが、ちょっと気持ち悪さも感じます。普段タスクとして投げていることが多いので、会話に慣れていないのかもしれません。しかしながら、このメモリー機能、質問が簡略化ですませられ…

LibreChatでCode Interpreter周りを自作して動かしてみる。

LibreChatはChatGPT UI likeなAIチャットプラットフォームです。よく、見かけますよね。Code Interpreterの環境をカスタマイズしたかったので、作成してみました。たぶん、どこかにあるんだと思うんですが・・・。下調べをした後にGemini Cliに頼りつつ進め…

Open NotebookをollamaとさくらのAI Engineで試してみる。

GoogleのNotebook LMは大変有用なサービスです。しかし、利用しようにも利用できない事情が絡む場合があります。そこで、最近日本語の紹介文も増えてきたOpen Notebookを試してみます。 触った結果: ollamaでLLMとしてGemma3:4bでトライしましたが、回答精…

wsl2のubuntu環境をストレージ移動と再構築メモ

wsl2(ubuntu22.04)の環境が壊れ不具合が出てきたため、24.04への移行して再構築します。加えて、現環境を別ドライブであるHDDへと保存先を移動します。 最終的な構成: SSD: デフォルトのwslの環境置き場 → 24.04を新たに構築 HDD: バックアップ、サブ環境 →…

gpt-oss-safeguardをColabで普通に使ってみる

「oss-safeguard は、ポリシー(ルール)に従ってテキスト内容を分類・判断できる reasoning(推論)モデル」です。“harmony”フォーマットによって、違反の理由を出力するのが特徴。専門用語には、業界的には問題なくても一般的には俗的な言葉が使われる時が…

whooshとsudachiで日本語検索を試してみたが・・・。

大量のデータ・・・という訳でもなく、数千文程度のテキストを検索したい。調べてみると「Elasticsearch/Solr」や「Tantivy/Xapian」といったものがヒット。データ量も少ないので、やっぱりwhooshを利用することに・・・。他にお手軽な日本語検索ライブラリ…

Doclingを使って図入りmarkdownを作成してみる。#2

図入りmarkdownに手元の資料を整えておくと便利だなと思って、改めてmakdown化を見直し見ました。あっという間に進歩があるかもしれないので、PyMuPDF4LLMらと改めて比較しつつ試行錯誤しましたが、Doclingが良好でした。そのため、Doclingのラッパーに落ち…

ColabでAgentic Context Engineeringの論文を参考にRAGをやってみる。

bwgift.hatenadiary.jp 続きです。出来たColabコードを利用して、参考にRAGっぽく利用できるようにしてみました。LLMはollamaで動作させたgemma3:4bを利用します。フィードバックによってコンテキストと、PDFをチャンクしたデータをRAGとして放り込みます。 …

ColabでAgentic Context Engineeringの論文を参考にプロンプト最適化を考えてみる。

Agentic Context Engineeringは、プロンプト最適化手法の一種でgeneration, reflection, and curationの段階を踏んでプロンプトを最適化する手法です。興味深かったのは増分差分を暫時更新する手法( Incremental Delta Updates)です。こうした手法で繰り返し…

LSTMベースの時系列予測をColabで試してみる。

生成AIだとなんでもできると誤解されて困っちゃうことも多い最近です。生成AIに基本的な解析が加われば、活用の幅が広がると思います。解析のコーディング作成も生成AIに手伝ってもらうとしても、手法と得られたグラフの一定の理解は必要・・・ですよね。た…

GoogleさんのOpalでミニ?アプリを試してみる。

OpalはGoogleさんが発表したツールです。自然言語で入力すると、AIミニアプリができるというものです。しかも、それを共有できます。Difyのようにフローをノーコードで作ることだけではなく、自然言語でフローそのものを構築することができるものです。 簡単…

Qwe3-VL-30B-A3Bにmarioを見せてみる。 #6

Qwen3-VL-30B-A3B-InstructはMarioのゲーム画面を記述させてみます。Colab A100 環境で行いました。VRAM占有率は、66935MiB / 81920MiB でした。 huggingface.co 公式のQuickstartにそって準備します。flash_attentionは有効化し実行しました。 位置関係や状…

ibm-granite/granite-4.0-h-small-GGUFをollamaとcolabで試してみる。

地味なところを攻めている印象のIBM。granite-4.0-h-smallのGUFFをお試ししてみます。ColabのL4環境で実行しました。VRAM占有率は19443MiB / 23034MiBでした。 huggingface.co すっかり進歩したSLMの中で、32Bの多言語対応モデルとして突出した印象はありま…

Doclingを利用してpdfからmarkdownへの変換を見直してみる。

LLMでの文書ファイルを活用するためには、まだまだmarkdownをうまく活用する場面が多くあります。Pythonでコーディングする場合には、改めて調べるとPyMuPDF4LLMかDoclingあたりが候補になりそうでした。PyMuPDF4LLMも軽量で良好でしたが、今回はDoclingを手…

ColabでGEPAを参考にプロンプト最適化を考えてみる。

プロンプトを「Reflection(自然言語による自己反省)」と「Genetic-Pareto Optimization(進化的パレート最適化)」するという論文が紹介されてました。参考にしつつ、分かる部分範囲で試してみます。なお、論文の実装の検証目的ではありません。論文にはさ…

さくらのAI EngineをColabで試してみる。

SAKURA internetではGPUがある?ということで、(個人で設置は厳しいですが)gpt-oss-120bやQwen, llm-jpのモデルを利用できるAPIのサービスを始めました。さっそく、設定して、Chat Completionを呼び出してみます。 www.sakura.ad.jp こちらのサイトに従っ…

ModernBERTのEmbedding APIサーバーをつくってみる。

ModernBERTのembeddingモデルをAPI経由で利用できるように挑戦してみました。ollamaでは現在対応していないようだすし、複雑なプログラムにはならないだろうとチャレンジしてみます。ついでなのでrerankも組み入れてみます。利用しやすいようにOpenAI互換を…

K2-Think-ggufをollamaとColabで試してみる。

K2-Think-ggufをmmngaさんによるGUFF化されたモデルで試してみます。小型モデルで優秀とのこと。最近すっかり小型モデルが優秀でなので、びっくりする楽しみは減りましたが・・・。ColabのL4を利用します。VRAM占有率は20323MiB / 23034MiB でした。 結果: …