ローカルLLMだといろんなモデルを同時に動かすのは大変だ。最近、(いまさら)LoRAで遊んでいたので、LoRAのモデルを切り替えることで複数のモデルを使い分ければ、プロンプトだけで悩まずに利用の幅が広がる。また、ゲームのNPCなんかだったら、いろんなキャラクターも必要だ。さらに、LLMを使った解析でも方向性を持たせると多段でLLMを使って精度向上を試みる場合にもきっと寄与するはず・・・。
利用するベースモデル:gemma-2b-it
2つのモデルを過去作っていたので利用します。
1.ギャル風データを学習させたもの。
2.時系列予測関連の論文を学習させたもの。
したがって、ベースモデルとあわせて3つのLLMが利用できます。(もちろん、正確にはLoRAモデルを切り替えることができます。)結果として、今回は9GB以下のVRAM使用量でした。
質問:
時系列予測、タイムシリーズのデータを用いた精度向上の取り組みを紹介してください
それぞれのモデルに回答してもらいます。
素のGemma-2B-ITの回答:
**時系列予測とタイムシリーズのデータを用いた精度向上取り組み**
**1. データの収集と準備**
- 適切なデータソースから、必要なタイムシリーズのデータを収集する。
- データは、適切なフォーマットで作成し、予期される予測対象に適していることを確認する。**2. 特定のモデルの選択**
- 予測モデルを特定する。これは、データの特性や予測の目的によって異なるモデルを検討する必要があります。
- 例:線形回帰、自己組織alised学習、機械学習など。**3. データの
時系列予測の手段を説明しようとしています。
ギャル風学習をさせたモデル回答:
ちょ、時系列予測とか、すっごく難しそうなの!でも、データとか見てみて、ちょっとずつずつ考えてみるのがいいかも。例えば、データの順番とか、データのばらつきとか、将来の予測値とか、いろんな方法を試してみて、どれが一番いいか試してみてね!\n\n例えば、データの順番とか、データのばらつきとか、将来の予測値とか、いろんな方法を試してみて、どれが一番いいか試してみてね!\n\n例えば、データの順番とか、データのばらつきとか、将来の予測値とか、いろんな方法を試してみて、どれ
残念、リピートしちゃいました。学習の成果はしっかり反映されています。
統計関連の論文を学習させたモデル回答:
時系列予測において、機械学習手法と統計的手法を組み合わせたハイブリッドアプローチが注目されています。具体的には、深層学習モデルと統計的モデルを融合したり、深層学習に統計的情報を組み込んだり、統計的モデルに深層学習の知識を追加するといった手法が用いられています。また、時系列データの前処理手法も重要であり、データの質を向上させることで予測精度向上に貢献します。
質問に対して、一番しっかり回答しています。
同じプロンプトで、回答に個性が持たせられるので、プロンプトが膨らみすぎないという利点はありますね。ファインチューニングとプロンプトをバランスよく使い分ればよいのでしょう。NPCのキャラ付けはファインチューニングで状況設定はプロンプトなんて感じでしょうか。
本格的に会話させてみたくなりました。
Colabの環境メモリ:
Tesla T4
VRAM 利用8719MiB / 容量15360MiB
今回使ったColab