地平線まで行ってくる。

記録あるいは忘備録。時には検討事項。

LLM

ollamaでllama3.2-visionをためしてみる。

llama3.2-vision:11bを試してみます。ColabのL4環境です。動作時、VRAM占有割合は11865MiB / 23034MiBでした。このモデルでは、分かりやすい風景や人物の状況は読みとれている回答が生成されました。日本語で質問も英語が混在することありません。意地悪な質…

ArXivからPodcastを生成してみる。

ArXivで論文を検索して、ざっくりアブストラクトから論文の動向の情報を得て、NotebookLMに投入するところまで作りました。Podcast機能が面白かったので、NotebookLMに投入して調整しなくても、自分の好きな感じでPodcastに出来るようにしました。もちろん、…

メモ:ArXivで最近のトレンドをNotebookLMで眺める

先日、副産物で得られた論文のアブスト集をNotebookLMに入れてみたら快適でした。もともとデータセット作成のテストだった*1のですが、使えそうなのでそこだけ切り出します。今回の手順は、 ArXivから任意のキーワードで検索しアブストを入手する。 50000文…

grapevine-AI/aya-expanse-8b-ggufをcolabとollamaでおためし。

imatrix datasetを使って日本語能力を重視したGGUF変換バージョンのaya-expanse-8b-ggufを試してみます。aya-expanse-8bは、8Bレベルの多言語対応モデルとして高い性能を持ちます。極簡単なテストでの印象では、Q4_K_Mでの量子化を感じさせないモデルでロー…

aya-expanse 8Bと32Bをollamaとcolabでためしてみる。

aya-expanse 8Bと32Bをollamaでためします。評判もよいので期待しつつ。 このモデルはわりと饒舌なモデルで比較的長めの文章を生成していました。ただ、まとめに関しては、極端に短くなるものもあり、指示次第なのかもしれません。8Bでも自然な文章を生成し…

ColabでArXiv論文データを加工してNotebookLMで使ってみる。

ローカルLLMの性能が上がってくると、今まで課金が怖くてできなかったこともやっちゃえと思い切ってできるようになってきました。そこで、ある分野の論文の概要をArXivを利用して入手し、RAG用データセットへの加工もトライしてみました。 bwgift.hatenadiar…

CohereForAI/aya-expanse-8bをColabで試す。

aya-expanse-8bを4bit量子化してColabT4環境で試しました。CC-BY-NC 4.0 Licenseです。量子化しても日本語も大きな問題はありませんでしたが、日本の知識は限度がありそうです。計算もそつなくこなし、さすがCohere社のモデルです。進歩するOSSモデルの中で…

IBMのgranite3のMoEをcolabとollamaで試してみる。

colab(T4)上でollamaを用いて、IBMのgranite3のMoEバージョンを試します。オリジナルそのままのモデルではありませんが、応答速度の感触も見るためにセルの実行速度レベルで雑に比較しました。denseより結構早いんじゃないかと期待したのですが、ollamaでは…

IBMのgranite3-dense(2B/8B)ををColabでためしてみる

IBM発のLLMであるgranite-3.0が更新されていたので、ためしてみます。RAGやコード生成などのタスク向けとのこと。多言語に対応しているようで日本語も入っていました。さっそく試します。当初はモデルカードに書いてあったサンプルで動作させて試していたの…

babyagi-2oをcolabでollama(qwen2.5-code)と組み合わせてためしてみる。

ChatGPTが現れた当初、自立型エージェントとしてBabyAGIはインパクトがありました。シンプルな自己構築型エージェントとして「BabyAGI 2o - the simplest self-building autonomous agent.」が公開されていました。簡単なコードで実現されていて勉強にもなり…

whisper-webをdockerで動かす。

Whisperをブラウザ上で使えるwhisper-webをお試ししたくて、dockerで構築しました。利用するときには、デフォルトが日本語じゃないし、設定が分かりにくいかもしれません。現在のところ、whisper-large v3 turboを利用するためにはWebGPU版の実験ブランチ版…

Llama-3.1-Swallow-8B-Instruct-v0.1-Instruct-v0.1をColabでためす。

Llama-3.1-Swallow-8Bが公開されてたので試しました。楽しみです。 swallow-llm.github.io すっきりとした冗長の感じもない文章を生成しました。日本で二番目に高い山は不正解でしたが、計算は正解です。指示の効き具合も改善されたとのことでしたので、lang…

mistral-nemo-japanese-instruct-2408をColabでためす。

Cyveragent社のMistral-Nemo-Japanese-Instruct-2408が、なかなか強いということなので試してみました。ollamaで使えるようにLucas(@LucasChatGPT)さんが変換されていたので、ありがたく使います。環境はColab L4環境です。VRAMは 13935MiB / 23034MiBの占有…

gemma-2-baku-2b-it-Q8_0をColabで試す。

rinnaからもGemma2 2Bのチューニングが出ていました。本家も試したので、こちらも自分で試します。@alfredplplさんが、さっそくgguf版を出していただいているのでありがたく使います。 rinnaはGemma 2 2Bの日本語継続事前学習モデルと指示学習モデルからなる…

gemma-2-2b-jpn-it:q8_0をColabでためす。

gemma-2-2b-jpnが公開されました。すでに多くの方が味見していますが、やっぱり自分でも試してみないことには、はじまりません。 blog.google あっという間にOllamaでも動かせるものがアップロードされていました。早すぎます。感謝です。こちらを利用します…

AXCXEPT_llm-jp-3-3.7b-instruct-EZO-HumanitiesをColabで試してみる。

llm-jp/llm-jp-3-3.7b-instructとしたチューニングを施したllm-jp-3-3.7b-instruct-EZO-Humanitiesを試してみました。ColabのT4環境でVRAMぎりぎりで動作しました。日本語や日本関係の基礎知識は3.7bと思えないほどありそうな印象でした。ながながと文章を生…

llm-jp-3-1.8b-instruct-Q4_K_MをollamaとColabでうごかしてみる。

あるふ(@alfredplpl)さんが、早速、量子化バージョンを作成しアップロードされていたので、ありがたくお試しします。1.8Bです。せっかくなので、ローカルランタイムに接続して走らせてみました。RTX 3060(12GB)で、VRAMの占有も小さく(3767MiB)、コンパクト…

Llama-3.2-1B-Instructを少しだけファインチューニングしてColabでためす。

Llama-3.2が発表されました。LLMLlama-3.2-1B-Instructは小型のモデルでローカルで気軽に動作できそうです。ファインチューニングして遊んでみます。本格的なチューニングは専門家にお任せするとして、どんな感じなんだろう・・・と動かすのが狙いです。ロー…

llm-jp-3-1-8b-instructを少しだけファインチューニングしてColabでためす。

1.8Bでもなかなか良いのではないかと評判のLLM-jpをColabでチャレンジしました。浅い学習レベルですが、ファインチューニングして使ってみましたのでメモします。 llmc.nii.ac.jp ファインチューニングのパラメータは、特に最適化なぞ考えず、決め打ちです。…

LoRAでモデルを作ったので複数のモデルを同時にColabでためしてみる

ローカルLLMだといろんなモデルを同時に動かすのは大変だ。最近、(いまさら)LoRAで遊んでいたので、LoRAのモデルを切り替えることで複数のモデルを使い分ければ、プロンプトだけで悩まずに利用の幅が広がる。また、ゲームのNPCなんかだったら、いろんなキ…

RWKV-x060-Jpn-7BもColabで試してみる。

RWKV-6-Worldを試していたら、日本語版あるよ、とレスポンスいただいたので早速ためしてみます。 There are Japanese-tuned models in https://t.co/RrJ6RQWmxn And check https://t.co/7Ug0gvrMq1 — BlinkDL (@BlinkDL_AI) 2024年9月10日 モデルはこちらで…

rwkv-6-worldをColabで久しぶりに試してみる

RWKVはTransformerとRNNの両方を盛り込んだ少し変わったモデル。地道に継続学習させたり新しいモデルを出し続けている。 半年前にも試していた。面白い試みなので、時々どうなったんだろうと気になる存在です。 bwgift.hatenadiary.jp RWKV-6-WORLDというモ…

Tanuki-8B-dpo-v1.0をColabで試してみる。

期待の大規模言語モデルTanuki-8BをColabで試しました。最初8x8BをL4環境で動かしたのですが・・・最初の数語で諦めました。重すぎました。 zenn.dev まどか☆マギカで一番かわいいのは?「まどか☆マギカ」には多くの魅力的なキャラクターが登場しますが、一…

Colabでezo-common-gemma-2:9b-instruct-q4_K_Mをこころみる。

Gemma2は小型ながら高性能。その後も色んな方がGemma2ベースにモデルを公開されています。ollamaで公開されているモデルをColab T4環境でトライしてみました。 ollama.com 9b-instruct-q4_K_MモデルをT4で実施。英語優先の印象はありますが、生成速度も速く…

LLMでマリオをプレイ「Large Language Mario」に挑戦

Karaage0703さんがAIマリオ第二弾?としてLLMで遊ぶスーパーマリオを公開されていたので、早速遊んでみます。 プロンプト弄っても、なかなかここから進みません。 LLMで頑張るAIマリオ 基本的にはプロンプト芸でどうにかならないかなと弄ってみました*1。Ope…

長文生成が可能なlongwriter-glm4-9bをColabで

長文生成が可能で9Bの動作させやすいモデルのlongwriter-glm4-9bをColab有料のL4で動作をさせました。1万文字以上となれば、もう本や論文が一気に生成できるレベルですね。 huggingface.co github.com 例に倣って日本語の観光案内を書かせました。これが一…

Qwen2-Math-1B-InstructをColabで。

Qwen2の数学特化モデルQwen2-Mathを試して見ます。1.5Bでどこまでできるのか興味があったので、1.5B-Instructモデルを試します。英語しかサポートしていないようですが、Colab中では敢えて日本語の質問も入れ込んでいます。日本語の質問によっては、まともな…

Colabでfalcon-manba-7b-instructを動かして見る。

「メモリ容量を増やすことなく、任意の長さのシーケンスを処理」できるというfalcon-manba。頭から食べられそうな名前で怖いです。 huggingface.co というわけで、ColabのL4環境(bfloat16)で試します。システムプロンプトの記述が分かりませんでしたが、入れ…

sakana.aiが発表したAI-Scientistのレビューだけやってみる

sakana.aiが発表した「LLMを使って、研究開発プロセスそのものの自動化する」AIサイエンティストは、機械学習の研究開発を自動的に実施します。計算機実験の範囲でできる研究開発はある程度の自動化支援は進むのだろうなと思っていましたが、あっという間に…

メモ:Colabでgemma-2b-itをファインチューニング

これまた今更。メモとしてGemma2b-itのファインチューニングをColabでお試し。 データセットは定番のござるを利用させていただきます。ありがとうございます。 huggingface.co 特に特記することもなく完成。学習が効いているだろうくらいのところまで。後は…