GGUF version の rinna/nekomata-7b-instructionをColabでお試ししました。
さっそく、colaboratoryで・・・。
結果。要約はもうちょっと頑張って欲しい気がしますが、7Bモデルでかつ量子化モデルがどんどん実用的になってきた感じがします。
※要約
大規模言語モデル(だいきぼげんごモデル、英: large language model、LLM)は、多数のパラメータ(数千万から数十億)を持つ人工ニューラルネットワークで構成されるコンピュータ言語モデルで、膨大なラベルなしテキストを使用して自己教師あり学習または半教師あり学習によって訓練が行われる。
答え
LLM(だいきぼげんごモデル、英: large language model、LLM)は、人工ニューラルネットワークで構成されるコンピュータ言語モデルで、多数のパラメータ(数千万から数十億)を持ちます。教師あり学習によって訓練が行われる。
※Q&A
質問
日本の有名な観光地を理由と共に数を多く答えてください。
答え
1.京都 - 日本有数の観光都市です。
2.広島平和記念公園 - 現存する原爆ドームとともに、世界遺産に登録されています。
3.宮崎市 - 神話や伝説の舞台である。