AI
詳しい記事があったので、気になっていたHybrid Searchを試した。 参考記事 www.jiang.jp FAISSと同じだろうと思いつつChromaも評価用のコードに加えました。embeddingモデルはmultilingual-e5-largeを使いました。 from langchain.vectorstores import FAIS…
npakaさんの記事を参考にしてRecuurentGemmaを試してみる。 note.com 軽くてサクサク動く。ローカルで十分実用的に感じます。 質問: Create python code for plot stock price trend of APPL and META.答え:```pythonimport matplotlib.pyplot as pltimport …
Mistral7BベースとしたMoEモデルでなかなか流暢な日本語を生成するらしいので試して見ました。ColabでT4でトライしてみました。 モデルはこちら。作者に感謝。 huggingface.co 質問:まどか☆マギカでは誰が一番かわいいか名前と理由を教えてください。 答え…
command-R-plusが話題なのでcolabでお試し。非商用ライセンス。GPT4並みと言われるが、Q2量子化モデルだと23GBでも動くらしいので、先人の有難いトライを参考にcolabでチャレンジしてみた。colabでのコードは最後にgithubへのリンクで示した。 質問その1 …
Qwenの新しいモデルQwen1.5-MoE-A2.7Bを試して見ました。少し期待しつつ・・・。 モデルのページはこちら。 huggingface.co 質問:日本で2番目に高い山は?日本で2番目に高い山は富士山です。 なかなか正解は難しい。 質問:日本の観光地でおススメを教えて…
RakutenAI-7Bはいい感じだったので、ggufで速度やお家GPUで活用できるのかも、と期待しつつおためし。instructモデルです。 Colab T4環境で動かしてみた。 gist.github.com 以下のやり取りで、Wall timeで2.78s。 問い:日本の有名な観光地と名物は?詳しく…
楽天からもLLMモデルが発表された。日本語のモデルが沢山出てきてどんどんよくなるといいですね。 huggingface.co さっそく試して見ました。 まどか☆マギカで一番かわいいのは? まどか☆マギカには、個性豊かなキャラクターがたくさんいます。人それぞれ好み…
RWKVは、RNNとTransformerを組み合わせた推論が軽いという。継続して学習させているというので、時々チェックしていた。Eagle 7Bというモデルが出たので試してみる。翻訳性能も高くなっていて期待しつつ。 blog.rwkv.com というわけで、colabのメモリup+GPU…
オープンなモデルでかつ一歩進んでいる感じのあるSwallow。MS-7Bは7Bとしては高い性能があるらしいということで試して見ます。 huggingface.co npakaさんの記事を見ながらColabで構築します。 note.com gist.github.com ColabのGPU T4で動かせるようなのでT4…
Tinyllamaをお気軽に量産?できる、infinite-tinyllamaをcolabで動作させてみました。ファインチューニングがお手軽にできると、きっと楽しくなるのだろうと思ってローカルで動かそうとしたのだが、何かとめんどくさいのでColabで動かしてみた。 github.com …
alfred さんのコードを参考にcolabで動かして見ました。折角なので「OpenMathInstruct-1 を日本語に自動翻訳した商用利用可能な180万件の指示チューニングデータセット」を使ってみます。 github.com 参考: Gemma初心者ファインチューニングコードです。HF…
Qwenは優秀なモデルということらしいので、早速試して見た。 Qwen1.5-7B-Chat-GPTQ-Int8" Qwen1.5-7B-Chat-AWQ" Qwen/Qwen1.5-14B-Chat-AWQ" の順で試して見て・・・7Bだといまいちだったので、14Bまでcolab(無料)でお試し。 Qwen1.5-14B-Chat-AWQ 質問:日…
生成テキストに繰り返しが頻繁に行われるので、パラメータの影響かもしれないと思って弄っていた。 bwgift.hatenadiary.jp しかし、model cardにしっかり追記されてた。そこで改めてトライ。 github.com 生成される回答がかなりしっかりに。他の生成テキスト…
LLMのモデルをマージするのが流行っているらしい。そこで、nitky/Superswallow-7b-v0.1というモデルを試して見た。7Bなので、Colabの無料枠で実行できるかも・・・と思ってチャレンジ。 モデルはこちら。作成者に感謝。 huggingface.co 使ったColabはこちら…
バッチで高速なLLM処理を実現しているというvLLMを試して見た。Qwebも触ってみたかったので、colabの無料枠で動くか実験しました。 github.com vLLMは対応していモデルであればすぐに動く。動かしたときにはbugがあり、LLMで生成部分を2度実行するとエラー…
GGUF version の rinna/nekomata-7b-instructionをColabでお試ししました。 huggingface.co さっそく、colaboratoryで・・・。 github.com 結果。要約はもうちょっと頑張って欲しい気がしますが、7Bモデルでかつ量子化モデルがどんどん実用的になってきた感…
日本語に強いLlama2ベースのモデル。 日本語に強い大規模言語モデル「Swallow」を公開 英語が得意な大規模言語モデルに日本語を教える | 東工大ニュース | 東京工業大学 細かい工夫を積み重ねていて期待できそう。しかも、7Bモデルはcolabで動かせそうなので…
OpenAIのGPTsの発表で盛り上がっている今日この頃。思い立って、開発が続いていて楽しみなOpen Interpreterをlocal LLMで動かせないかとトライしてみました。Open-interpreterを見ると、Local LLMの動作にLM Studioを推奨していました。ただ、このあたりの組…
特に工夫することもなく、Colabで動作。簡単に試して見ました。 github.com 扱える文字数も多いし、7Bでコンパクト。速度もまずまず出そう。個人でも色々と試して見ることができるのは嬉しいし楽しい。youriといい、calm2といい、日本語のLLMが楽しくなって…
rinna.co.jp なんだか、凄そうな予感しかしないので、試して見ました。工夫することももなく、さくっと動作しました・・・。 github.com とりあえず、さくっと試して見ましたが・・・。7Bでこの性能まで来たのか・・・。 ### 入力:まどマギで一番かわいいの…
さっそく、LINE社が発表したinstructionモデルをColabで動かした。 huggingface.co パラメータは、Huggin Faceにのっていたものをそのまま採用。temperature=1.0すると、いまいちだったので、まずは、素直に公式を参考にする。 github.com レスポンスを見て…
評判のJapanese StableLM Alphaを試したくてColabの無料枠で動かしてみました。npakaさんのサイトを参考にしました。 note.com 動作させた結果です。 github.com 参考にしたnpakaさんの質問 質問:まどか☆マギカでは誰が一番かわいい? 答え:1. キュゥべえ2…
chatbot同士の会話の様に、キャラクターを付けて会話をLLMにさせるとどうなるのか。実験してみました。 司会役、前向きに考える役A、批判的に考える役B、を設定してお互いに会話をさせてみました。初めに司会役を設定せずに会話をさせると、あまり盛り上がら…
GPTモデルの使い方を学ぶ。 bwgift.hatenadiary.jp 引き続き、ちまちまと実験しつつ手を入れた。Agentのプロンプトもコツが要って難しい。説明不足でもダメだけど、シンプルに伝わらないと、意図する動作をしてくれない。なんとなく、使えそうなものが出来た…
Chat GPTで、おしゃべりも楽しいけれども、実用的に考えれば根拠のある回答ができるようが良い。そこで、PDFドキュメントを使った対話が可能だというのでお試しした。 qiita.com こちらを参考にさせていただきつつ、colabで動かしてみた。題材は、題材は産総…
自立エージェントのBabyAGIをお試し。コストの都合上、GPT-3.5-Turboで進めます。 note.com いつも、拝見しています。 ※Googleさんに翻訳してもらっています。 *****目的***** 日本の少子化問題を解決するための政策を提案してください。 初期タスク: タスク…
rinna社の「japanese-gpt-1b」を、日本語データセット「databricks-dolly-15k-ja」を使用して学習させたDolly-Japanese-GPT-1Bモデルを試してみる。今はすっかりGPT-3が話題ですが、GPT-2相当のモデルでどこまでできるのだろうとcolaboratoryで動作させてみ…
色々と纏めさせたり、コード書くのを手伝ったもらったりと、大変便利なOpenAIのGPT。気軽なお遊びはやっぱり、音声でのキャラクター会話だろうとおもって試してみた。 こちらでいい記事を発見! zenn.dev こちらのコードを元(fork)して手を加えてみた。 ・…
例に従って簡単に動かせました。 github.com 質問 Answer the following question step by step in the detail. Give the rationale before answeringWhat should be implemented to eliminate war from the world? 答え War is a state of armed conflict b…
自然な会話ができるChatGPTが話題ですが、SODA*1という、データセットで学習させたCOSMOというモデルがなかな優秀だというのをtwitterで見かけたので試してみる。 github.com 会話の状況は「最後の一葉」を参考にして投入した。 instructionは不要らしいが、…