PicoClawはOpenClawのGo実装版でコンパクトです。ローカルLLMやOpenAI互換の他のプロバイダで利用するとうまくいかなかったので、メモを書きました。答えは、vLLMで使おう・・・これだけです。もともと組み込み以外のプロバイダはOpenRouterへの設定に流れます。情報やドキュメントには、色々書いてあります。今の瞬間は、この仕様の様です。Bugに近い仕様なので近日訂正されるでしょう。
軽量なので、複数立てて会話させるのも良いかも。
OpenAI互換用設定
さくらのAIエンジンだと以下になります。
config.json
"agents": {
"defaults": {
略
"model": "vllm/gpt-oss-120b",略
}
(略)
"vllm": {
"api_key": "{secret api tokens}",
"api_base": "https://api.ai.sakura.ad.jp/v1/"
},
ポイントだけ。
Docker composeとollamaコンテナへの接続
docker composeでの起動もサポートされました。同じホストに立てたollamaで動作させる場合は、ネットワークにhost.docker.internalを入れ込みます。頻繁にupdateが繰り返されそうなので、overrideで追加します。以下のファイルをdocker-compose.ymlと同じディレクトリに入れておきます。
docker-compose.override.yml
services:
picoclaw-agent:
extra_hosts:
- "host.docker.internal:host-gateway"picoclaw-gateway:
extra_hosts:
- "host.docker.internal:host-gateway"
なお、api_baseもhost.docker.internal指定します。
回答例
明日の献立の例を考えてみました!
🔥 豚キムチ春雨献立(NHKニュース検索結果から)
猪肉キムチ(ピリ辛で野菜とのバランスが良い)
春雨の茶碗蒸し(温かい食感で一品目へスムーズ)
野菜スープ(体を温めつつ簡単に作れます)💡 他にも「お米+ささみ+ねぎの天」など簡単献立も可能です!
明日の献立に困ったら、ぜひお気軽にお知らせくださいね 😊