地平線まで行ってくる。

記録あるいは忘備録。時には検討事項。

メモ:phi3をLoRaでColab上でファインチューニングしてみる。

今更感はあるのだが、LLMのファインチューニングにチャレンジ。ベースのモデルはphi3。なんとなくです。動作確認が目的です。きっとどこかに公開されているだろうと思います。しかし、探せなかったので挑戦しました。

 

Trainデータは、手ごろのものがなかったので、NERタスクのJSON出力で代用。spaCyを使って作成します。Flash-Attention-2が有効にならない問題が未解決。が、学習は走った。また、回答もJSON形式でそれらしい出力が得られました。

 

モデルの構造など一つ一つ分からないことを入れ込みながら完成。これならなんとかお家(or Colab)でファインチューニングができるかも。データセットを作ってお試ししたい。

 

そのまえにGemma 2Bのファインチューニングできないか・・・な。

 

gist.github.com