地平線まで行ってくる。

記録あるいは忘備録。時には検討事項。

さくらのAI EngineをColabで試してみる。

SAKURA internetではGPUがある?ということで、(個人で設置は厳しいですが)gpt-oss-120bやQwen, llm-jpのモデルを利用できるAPIのサービスを始めました。さっそく、設定して、Chat Completionを呼び出してみます。

 

www.sakura.ad.jp

 

こちらのサイトに従って設定していきます。

www.sakura.ad.jp

 

基盤モデル無料プランで、まずはお試しです。

会員IDは持っているので、さくらクラウドのプロジェクト作成から始めます。とりあえず、適当な名前で作ります。そのまま次にいけるかとおもったら、「さくらのAI Engine」のコントロールパネルに向かう必要があります。

 

「さくらのAI Engine」のコントロールパネル、「基盤モデル無料プラン」を選んでアクセストークンを入手します。

 

APIを調べるとOpenAIのAPIと互換性があるので、openaiのライブラリをそのまま使います。api_keyをさくらのAPIに、ベースURLは、https://api.ai.sakura.ad.jp/v1/です。

というわけでColabのノートです。

gist.github.com

 

"gpt-oss-120b", "Qwen3-Coder-480B-A35B-Instruct-FP8", "Qwen3-Coder-30B-A3B-Instruct", "llm-jp-3.1-8x13b-instruct4"のモデルなので使いやすいですね。Qwen3-Coder-30B-A3B-Instructは流石に知識は少ないですが、Code補完や他のモデルと併用することになるのでしょう。


今後、モデルが増えると良いですね。

LoRAを組み合わせられるとかできるようになると面白くなるのかも・・・。