密かに話題のDeerFlowを試してみた
GitHub 30k Star超のByteDance製AIエージェント基盤DeerFlow 2.0を実際にセットアップして検証。Claude Code CLIヘビーユーザーが出した結論とコスト試算。
コラム
kkm
Backend Engineer / AWS / Django
パーティ編成、悩んでませんか
RPGのパーティ編成って、永遠の悩みですよね。
万能キャラを入れるか、特化キャラで固めるか。「全部できます」と言い張る器用貧乏と、「これしかできないけど最強です」の職人肌。大体の場合、後者の方が頼りになる。
2026年のAIエージェント界隈が、まさにこれです。
CrewAI、AutoGen、LangGraph、そしてByteDanceのDeerFlow。毎月のように新しいフレームワークが出てきて、GitHub Trendingを眺めるたびに「今度こそ最強か?」と思わされる。
で、DeerFlowは「全部入り」を掲げてきた。サンドボックス、長期メモリ、サブエージェント、Web UI、Slack連携まで。フレームワークではなく「完成品」だと。
私はClaude Codeを月$100〜$200で使い倒している人間です。スキルファイルとサブエージェントをチューニングして、調査も実装もこれ一本でやっている。正直、他のツールに浮気する理由がない。
でも30k Star超は気になる。実際に触ってみました。
DeerFlowって何
DeerFlow(Deep Exploration and Efficient Research Flow)は、ByteDanceがオープンソースで公開しているAIエージェント基盤です。
v1はリサーチ特化のツールだったらしいんですが、2026年2月28日にリリースされたv2.0で完全にスクラッチから書き直されました。コードの共有ゼロ。思い切りがすごい。
GitHub Starは記事執筆時点で30.7k。リリースから2週間で達成しているので、勢いはかなりのものです。
フレームワークじゃない。すぐ使える完成品。
DeerFlowがCrewAIやAutoGenと違うのは、ここです。フレームワークは「部品を渡すから自分で組み立てて」というスタンス。DeerFlowは「もう組み立ててあるから使って」というスタンス。Web UI、サンドボックス、メモリ、Slack連携、全部入ってます。
技術スタックはこんな感じ。
| レイヤー | 技術 |
|---|---|
| フロントエンド | React 19 + Next.js |
| ゲートウェイ | Python 3.12+ / FastAPI + Uvicorn |
| エージェントランタイム | LangGraph + LangChain |
| パッケージ管理 | uv(Python)、pnpm(JS) |
| サンドボックス | Docker / Kubernetes / ローカル |
中を覗いてみる
DeerFlowはNginxリバースプロキシをエントリーポイントにして、4つのサービスにルーティングする構成になっています。
graph TB
subgraph Nginx["Nginx :2026"]
direction LR
end
subgraph Services["サービス群"]
FE["Next.js
フロントエンド
:3000"]
GW["FastAPI
Gateway
:8001"]
LG["LangGraph
Server
:2024"]
PV["Provisioner
:8002"]
end
Nginx --> FE
Nginx --> GW
Nginx --> LG
Nginx -.-> PV
11段ミドルウェアパイプライン
エージェントの実行は11段のパイプラインで制御されています。正直、ここが一番面白かった。
- 01 ThreadData生成
- 02 アップロード追跡
- 03 サンドボックス取得
- 04 ツールコールクリーンアップ
- 05 メッセージ要約
- 06 Todoリスト管理
- 07 会話タイトル生成
- 08 メモリファクト注入
- 09 画像準備
- 10 サブエージェント同時実行制御
- 11 明確化割り込み
注目は08のメモリファクト注入。DeerFlowは3種類の長期メモリを持っていて、信頼度スコア(0〜1)付きのファクトを上位15件、プロンプトに自動で注入します。30秒のデバウンスキューで非同期更新されるので、会話の流れを止めない。
サブエージェントはリードエージェントが最大3つまで並行で走らせられます。2秒間隔のポーリングで、5分タイムアウト。このあたりの設計はconfig.yamlで変更できます。
サンドボックス
ローカル、Docker、Kubernetesの3モードを切り替えられます。統一された仮想ファイルシステム(/mnt/user-data/workspace)の上で動くので、モードを切り替えてもコードの変更は不要。
他のフレームワークと何が違うのか
AIエージェントフレームワークは乱立していますが、ざっくり整理するとこうなります。
| 観点 | DeerFlow | CrewAI | AutoGen | LangGraph単体 |
|---|---|---|---|---|
| サンドボックス | Docker/K8s組み込み | なし | なし | なし |
| 長期メモリ | 3種類組み込み | 基本的 | 基本的 | なし(自前実装) |
| Web UI | フル機能 | CLI中心 | Studio | なし |
| IM連携 | Telegram/Slack/Feishu | なし | なし | なし |
| 対応LLM | OpenAI互換なら何でも | 主要LLM | 主要LLM | LangChain対応全て |
| 位置づけ | 完成品 | フレームワーク | フレームワーク | ライブラリ |
一番の違いは「位置づけ」の行。CrewAIやAutoGenは「パーツを渡すから好きに組め」で、DeerFlowは「全部入りで渡すからすぐ使え」。どちらが良いかは用途次第ですが、とりあえず動かしたいだけならDeerFlowが圧倒的に楽です。
macOSでセットアップしてみた
実際にmacOS(Apple Silicon)で動かしてみました。ハマりポイントも含めて書いておきます。
基本手順
git clone https://github.com/bytedance/deer-flow.git
cd deer-flow
# 設定ファイル生成
python3 ./scripts/configure.py
# .env にAPIキーを設定(後述)
# config.yaml にモデルを設定(後述)
# Docker起動
make docker-init
make docker-start
# http://localhost:2026 を開くハマりポイント①: python が見つからない
macOSでは python コマンドがデフォルトで存在しません。make config を実行すると python: No such file or directory で落ちます。
alias python=python3 は Makefile内では効きません。スクリプトを直接実行するのが確実です。
# NG: make config
# OK:
python3 ./scripts/configure.pyハマりポイント②: Geminiのモデル名
config.yaml のExampleに書かれているモデル名がそのまま使えるとは限りません。私の場合、gemini-2.5-flash-preview-05-20 ではエラーになり、gemini-2.5-flash で動きました。
使えるモデル名は以下で確認できます。
curl -s "https://generativelanguage.googleapis.com/v1beta/models?key=YOUR_API_KEY" \
| python3 -c "import sys,json;[print(m['name']) for m in json.load(sys.stdin).get('models',[]) if 'flash' in m['name']]"設定ファイル
.env に最低限必要なのは2つ。今回はGeminiを使いましたが、特別な理由はなくて直近で別件のAPI利用で発行済みのキーを持っていたからです。OpenAIでもClaudeでもDeepSeekでも、OpenAI互換のエンドポイントがあれば何でも使えます。
# .env
TAVILY_API_KEY=your-tavily-key # Web検索用(無料1,000回/月)
GEMINI_API_KEY=your-gemini-key # LLMconfig.yaml の models: セクションにモデル定義を追加。
# config.yaml(modelsセクション)
models:
- name: gemini-2.5-flash
display_name: Gemini 2.5 Flash
use: langchain_google_genai:ChatGoogleGenerativeAI
model: gemini-2.5-flash
google_api_key: $GEMINI_API_KEY
max_tokens: 8192
supports_vision: true触ってみた感想

調査は速い
Web検索(Tavily)とLLMを組み合わせた調査タスクはかなり速いです。「FastAPI vs Django vs Flaskを2026年時点で比較して」と投げたら、ベンチマークデータ付きで整理された回答が返ってきました。
「これがないと困る」はなかった
GUIはClaudeのデスクトップアプリとほぼ同じ操作感で、よくできてはいるけど目新しさはない。「このシーンではDeerFlowじゃないと!」みたいな機能は、今回の調査時点では見つかりませんでした。
そこそこ高いClaude Codeのサブスクを払っている身からすると、正直それで事足りている。そもそも困っていることがない。
ストリーミングが不安定
ここが一番きつかった。回答が途中で途切れる。消える。表示されない。
フレームワーク比較の回答は何度か試しましたが、毎回途中で切れました。最終的に「ファイルにアウトプットして」と頼んだら、ちゃんとMarkdownファイルに書き出してくれてダウンロードできた。回避策はあるけど、普通に使いたいだけなのにこの手間は厳しい。
コード生成はしたけど実行はしなかった
「HN APIからトップ10記事を取得するCLIツールを作って」と頼んだら、Pythonコードを生成して表示してくれました。コード自体はまとも。ただ、サンドボックスで実行して結果まで見せてくれることを期待していたので、そこはちょっと物足りない。
使い心地は悪くない。でも「これじゃないとダメ」という場面がない。それが正直なところです。
で、結局使うの?
私はClaude Codeのサブスクを$100で契約していて、ヘビーに使う月は$200に上げます。リポジトリ内でコーディングさせるならGUIよりCLI。なのでDeerFlowがコーディング用途でClaude Codeに勝つことは、私の使い方ではありません。そもそも困っていることがない。
でも、全員が月$100〜$200のサブスクを払っているわけじゃないですよね。
有料プランに入っていない人や、$20プランですぐ使い切っちゃう人が、追加$10くらいで調査系をDeerFlowに回す。その使い方だと、お得に使い心地も悪くないUIが手に入ると思います。
コスト試算
| 項目 | 単価 | 月間想定(10件/日) | 月額 |
|---|---|---|---|
| Gemini 2.5 Flash 入力 | $0.30/1M tokens | 1.5M tokens | $0.45 |
| Gemini 2.5 Flash 出力 | $2.50/1M tokens | 0.9M tokens | $2.25 |
| Tavily Web検索 | 無料1,000回/月 | ~900回 | $0 |
| 合計(軽い使い方) | $3〜7/月 | ||
| シナリオ | Claude Code のみ | Claude Code + DeerFlow | 差額 |
|---|---|---|---|
| 通常月 | $100 | $100(不要) | — |
| ヘビー月 | $200 | $103〜133 | -$67〜97 |
Gemini Flashの調査品質がClaude Opusと同等かは別の話で、そこは割り切りが必要。でも月$3〜10で調査エージェントが手に入ると考えると、悪くはない。
誰におすすめ?
Q1. 普段AIに何をさせている?
- → コーディングが中心 → Claude Code CLI 一択。リポジトリの中で動くCLIに勝てるGUIはない
- → 調査・リサーチが多い。ちょっとした開発もする → Q2へ
Q2. AIツールに月いくら使っている?
- → $100以上 → 正直DeerFlowは不要。Claude Codeで困ることがない
- → $20プランですぐ使い切る / 有料プランに入っていない → DeerFlow + Gemini Flash。月$3〜10で使い心地の良い調査UIが手に入る
- → $100〜$200で使い切りそうな月がある → 調査系だけDeerFlowに逃がすのはアリ
絶妙な立ち位置
ただ、非エンジニア向きかと言われると微妙で。Dockerが必要だったり、config.yamlを手で編集したり、APIキーを自分で取得したり。「全部入りの完成品」を掲げつつ、セットアップにはそれなりのリテラシーが要る。
結局のところ、ライトな開発をちょっとやりつつ、調査が多い人に一番ハマるツールだと思います。ガッツリ開発する人にはCLIの方が強いし、完全な非エンジニアにはDocker云々のハードルがある。その中間層にとっては、月$10以下でまともなAIエージェントUIが使えるのは魅力的です。
万能キャラが強い時代は、まだ来ていない。特化キャラを使いこなす方が、今はまだ強い。
と言いつつ、ストリーミングが直ったらもう一回試す気がしています。全部入りの完成品が本当に安定したら、話は変わるかもしれない。