Raspi5 + Ollama + OpenClawでローカルLLMエージェントを試して失敗した話
Posted on 2026-05-03 by coffee
Raspberry Pi 5 上で Docker を使い、OpenClaw + Ollama でローカルLLMエージェントを試した。
モデルは qwen2.5 / 3.5 / gemma4(e2b / e4b)。
結論はシンプル:
«動くが、タスクは完遂しない»
■ 何が起きたか
軽量な qwen2.5 は一応動作した。
しかしエージェントとしては成立しなかった。
«小さな誤差が積み上がり、最終的に破綻する»
各ステップはそれっぽく進むが、
- 判断がわずかにズレる
- 解釈が少し外れる
この差がそのまま次のステップに引き継がれ、
«タスク未完了のままタイムアウトする»
■ キモ:火力不足
エージェントは「連続した意思決定」の積み重ね。
重要なのは、
«各ステップで局所的に正しい判断を出し続けること»
軽量モデルはここが弱く、
- ツール選択のミス
- 引数のズレ
- 文脈解釈の誤り
といった小さな誤差が即座に状態へ影響し、修正できないまま蓄積する。
結果、
«誤差が積み上がって破綻する»
■ トレードオフ
- 軽い → 動くが破綻する
- 重い → 正しいが動かない(Raspiでは)
«実行可能性と精度はトレードオフ»
■ 結論
- Dockerでの構築自体は問題なし
- しかし支配的なのはモデル性能
«「動く」と「使える」は全く別物»
■ 次にやるなら
- 安価な外部APIを使う
- もしくはローカルで回る高性能モデルを待つ
現状では、
«ローカル環境でのエージェント実用化はまだ厳しい»