今更感はあるのだが、LLMのファインチューニングにチャレンジ。ベースのモデルはphi3。なんとなくです。動作確認が目的です。きっとどこかに公開されているだろうと思います。しかし、探せなかったので挑戦しました。
Trainデータは、手ごろのものがなかったので、NERタスクのJSON出力で代用。spaCyを使って作成します。Flash-Attention-2が有効にならない問題が未解決。が、学習は走った。また、回答もJSON形式でそれらしい出力が得られました。
モデルの構造など一つ一つ分からないことを入れ込みながら完成。これならなんとかお家(or Colab)でファインチューニングができるかも。データセットを作ってお試ししたい。
そのまえにGemma 2Bのファインチューニングできないか・・・な。