Raspi5 + Ollama + OpenClawでローカルLLMエージェントを試して失敗した話

Posted on 2026-05-03 by coffee

Raspberry Pi 5 上で Docker を使い、OpenClaw + Ollama でローカルLLMエージェントを試した。
モデルは qwen2.5 / 3.5 / gemma4(e2b / e4b)。

結論はシンプル:

«動くが、タスクは完遂しない»


■ 何が起きたか

軽量な qwen2.5 は一応動作した。
しかしエージェントとしては成立しなかった。

«小さな誤差が積み上がり、最終的に破綻する»

各ステップはそれっぽく進むが、

  • 判断がわずかにズレる
  • 解釈が少し外れる

この差がそのまま次のステップに引き継がれ、

«タスク未完了のままタイムアウトする»


■ キモ:火力不足

エージェントは「連続した意思決定」の積み重ね。

重要なのは、

«各ステップで局所的に正しい判断を出し続けること»

軽量モデルはここが弱く、

  • ツール選択のミス
  • 引数のズレ
  • 文脈解釈の誤り

といった小さな誤差が即座に状態へ影響し、修正できないまま蓄積する。

結果、

«誤差が積み上がって破綻する»


■ トレードオフ

  • 軽い → 動くが破綻する
  • 重い → 正しいが動かない(Raspiでは)

«実行可能性と精度はトレードオフ»


■ 結論

  • Dockerでの構築自体は問題なし
  • しかし支配的なのはモデル性能

«「動く」と「使える」は全く別物»


■ 次にやるなら

  • 安価な外部APIを使う
  • もしくはローカルで回る高性能モデルを待つ

現状では、

«ローカル環境でのエージェント実用化はまだ厳しい»