ブログ/記事一覧/密かに話題のDeerFlowを試してみた
deerflow-cover

密かに話題のDeerFlowを試してみた

GitHub 30k Star超のByteDance製AIエージェント基盤DeerFlow 2.0を実際にセットアップして検証。Claude Code CLIヘビーユーザーが出した結論とコスト試算。

コラム
kkm-horikawa

kkm

Backend Engineer / AWS / Django

2026.03.155 min10 views

パーティ編成、悩んでませんか

RPGのパーティ編成って、永遠の悩みですよね。

万能キャラを入れるか、特化キャラで固めるか。「全部できます」と言い張る器用貧乏と、「これしかできないけど最強です」の職人肌。大体の場合、後者の方が頼りになる。

2026年のAIエージェント界隈が、まさにこれです。

CrewAI、AutoGen、LangGraph、そしてByteDanceのDeerFlow。毎月のように新しいフレームワークが出てきて、GitHub Trendingを眺めるたびに「今度こそ最強か?」と思わされる。

で、DeerFlowは「全部入り」を掲げてきた。サンドボックス、長期メモリ、サブエージェント、Web UI、Slack連携まで。フレームワークではなく「完成品」だと。

私はClaude Codeを月$100〜$200で使い倒している人間です。スキルファイルとサブエージェントをチューニングして、調査も実装もこれ一本でやっている。正直、他のツールに浮気する理由がない。

でも30k Star超は気になる。実際に触ってみました。

DeerFlowって何

DeerFlow(Deep Exploration and Efficient Research Flow)は、ByteDanceがオープンソースで公開しているAIエージェント基盤です。

v1はリサーチ特化のツールだったらしいんですが、2026年2月28日にリリースされたv2.0で完全にスクラッチから書き直されました。コードの共有ゼロ。思い切りがすごい。

GitHub Starは記事執筆時点で30.7k。リリースから2週間で達成しているので、勢いはかなりのものです。

フレームワークじゃない。すぐ使える完成品。

DeerFlowがCrewAIやAutoGenと違うのは、ここです。フレームワークは「部品を渡すから自分で組み立てて」というスタンス。DeerFlowは「もう組み立ててあるから使って」というスタンス。Web UI、サンドボックス、メモリ、Slack連携、全部入ってます。

技術スタックはこんな感じ。

レイヤー技術
フロントエンドReact 19 + Next.js
ゲートウェイPython 3.12+ / FastAPI + Uvicorn
エージェントランタイムLangGraph + LangChain
パッケージ管理uv(Python)、pnpm(JS)
サンドボックスDocker / Kubernetes / ローカル

中を覗いてみる

DeerFlowはNginxリバースプロキシをエントリーポイントにして、4つのサービスにルーティングする構成になっています。

graph TB
    subgraph Nginx["Nginx :2026"]
        direction LR
    end
    subgraph Services["サービス群"]
        FE["Next.js
フロントエンド
:3000"] GW["FastAPI
Gateway
:8001"] LG["LangGraph
Server
:2024"] PV["Provisioner
:8002"] end Nginx --> FE Nginx --> GW Nginx --> LG Nginx -.-> PV

11段ミドルウェアパイプライン

エージェントの実行は11段のパイプラインで制御されています。正直、ここが一番面白かった。

  1. 01 ThreadData生成
  2. 02 アップロード追跡
  3. 03 サンドボックス取得
  4. 04 ツールコールクリーンアップ
  5. 05 メッセージ要約
  6. 06 Todoリスト管理
  7. 07 会話タイトル生成
  8. 08 メモリファクト注入
  9. 09 画像準備
  10. 10 サブエージェント同時実行制御
  11. 11 明確化割り込み

注目は08のメモリファクト注入。DeerFlowは3種類の長期メモリを持っていて、信頼度スコア(0〜1)付きのファクトを上位15件、プロンプトに自動で注入します。30秒のデバウンスキューで非同期更新されるので、会話の流れを止めない。

サブエージェントはリードエージェントが最大3つまで並行で走らせられます。2秒間隔のポーリングで、5分タイムアウト。このあたりの設計はconfig.yamlで変更できます。

サンドボックス

ローカル、Docker、Kubernetesの3モードを切り替えられます。統一された仮想ファイルシステム(/mnt/user-data/workspace)の上で動くので、モードを切り替えてもコードの変更は不要。

他のフレームワークと何が違うのか

AIエージェントフレームワークは乱立していますが、ざっくり整理するとこうなります。

観点DeerFlowCrewAIAutoGenLangGraph単体
サンドボックスDocker/K8s組み込みなしなしなし
長期メモリ3種類組み込み基本的基本的なし(自前実装)
Web UIフル機能CLI中心Studioなし
IM連携Telegram/Slack/Feishuなしなしなし
対応LLMOpenAI互換なら何でも主要LLM主要LLMLangChain対応全て
位置づけ完成品フレームワークフレームワークライブラリ

一番の違いは「位置づけ」の行。CrewAIやAutoGenは「パーツを渡すから好きに組め」で、DeerFlowは「全部入りで渡すからすぐ使え」。どちらが良いかは用途次第ですが、とりあえず動かしたいだけならDeerFlowが圧倒的に楽です。

macOSでセットアップしてみた

実際にmacOS(Apple Silicon)で動かしてみました。ハマりポイントも含めて書いておきます。

基本手順

git clone https://github.com/bytedance/deer-flow.git
cd deer-flow

# 設定ファイル生成
python3 ./scripts/configure.py

# .env にAPIキーを設定(後述)
# config.yaml にモデルを設定(後述)

# Docker起動
make docker-init
make docker-start

# http://localhost:2026 を開く

ハマりポイント①: python が見つからない

macOSでは python コマンドがデフォルトで存在しません。make config を実行すると python: No such file or directory で落ちます。

alias python=python3 は Makefile内では効きません。スクリプトを直接実行するのが確実です。

# NG: make config
# OK:
python3 ./scripts/configure.py

ハマりポイント②: Geminiのモデル名

config.yaml のExampleに書かれているモデル名がそのまま使えるとは限りません。私の場合、gemini-2.5-flash-preview-05-20 ではエラーになり、gemini-2.5-flash で動きました。

使えるモデル名は以下で確認できます。

curl -s "https://generativelanguage.googleapis.com/v1beta/models?key=YOUR_API_KEY" \
  | python3 -c "import sys,json;[print(m['name']) for m in json.load(sys.stdin).get('models',[]) if 'flash' in m['name']]"

設定ファイル

.env に最低限必要なのは2つ。今回はGeminiを使いましたが、特別な理由はなくて直近で別件のAPI利用で発行済みのキーを持っていたからです。OpenAIでもClaudeでもDeepSeekでも、OpenAI互換のエンドポイントがあれば何でも使えます。

# .env
TAVILY_API_KEY=your-tavily-key    # Web検索用(無料1,000回/月)
GEMINI_API_KEY=your-gemini-key    # LLM

config.yamlmodels: セクションにモデル定義を追加。

# config.yaml(modelsセクション)
models:
  - name: gemini-2.5-flash
    display_name: Gemini 2.5 Flash
    use: langchain_google_genai:ChatGoogleGenerativeAI
    model: gemini-2.5-flash
    google_api_key: $GEMINI_API_KEY
    max_tokens: 8192
    supports_vision: true

触ってみた感想

deerflow-demo

調査は速い

Web検索(Tavily)とLLMを組み合わせた調査タスクはかなり速いです。「FastAPI vs Django vs Flaskを2026年時点で比較して」と投げたら、ベンチマークデータ付きで整理された回答が返ってきました。

「これがないと困る」はなかった

GUIはClaudeのデスクトップアプリとほぼ同じ操作感で、よくできてはいるけど目新しさはない。「このシーンではDeerFlowじゃないと!」みたいな機能は、今回の調査時点では見つかりませんでした。

そこそこ高いClaude Codeのサブスクを払っている身からすると、正直それで事足りている。そもそも困っていることがない。

ストリーミングが不安定

ここが一番きつかった。回答が途中で途切れる。消える。表示されない。

フレームワーク比較の回答は何度か試しましたが、毎回途中で切れました。最終的に「ファイルにアウトプットして」と頼んだら、ちゃんとMarkdownファイルに書き出してくれてダウンロードできた。回避策はあるけど、普通に使いたいだけなのにこの手間は厳しい。

コード生成はしたけど実行はしなかった

「HN APIからトップ10記事を取得するCLIツールを作って」と頼んだら、Pythonコードを生成して表示してくれました。コード自体はまとも。ただ、サンドボックスで実行して結果まで見せてくれることを期待していたので、そこはちょっと物足りない。

使い心地は悪くない。でも「これじゃないとダメ」という場面がない。それが正直なところです。

で、結局使うの?

私はClaude Codeのサブスクを$100で契約していて、ヘビーに使う月は$200に上げます。リポジトリ内でコーディングさせるならGUIよりCLI。なのでDeerFlowがコーディング用途でClaude Codeに勝つことは、私の使い方ではありません。そもそも困っていることがない。

でも、全員が月$100〜$200のサブスクを払っているわけじゃないですよね。

有料プランに入っていない人や、$20プランですぐ使い切っちゃう人が、追加$10くらいで調査系をDeerFlowに回す。その使い方だと、お得に使い心地も悪くないUIが手に入ると思います。

コスト試算

項目単価月間想定(10件/日)月額
Gemini 2.5 Flash 入力$0.30/1M tokens1.5M tokens$0.45
Gemini 2.5 Flash 出力$2.50/1M tokens0.9M tokens$2.25
Tavily Web検索無料1,000回/月~900回$0
合計(軽い使い方)$3〜7/月
シナリオClaude Code のみClaude Code + DeerFlow差額
通常月$100$100(不要)
ヘビー月$200$103〜133-$67〜97

Gemini Flashの調査品質がClaude Opusと同等かは別の話で、そこは割り切りが必要。でも月$3〜10で調査エージェントが手に入ると考えると、悪くはない。

誰におすすめ?

Q1. 普段AIに何をさせている?

  • コーディングが中心 → Claude Code CLI 一択。リポジトリの中で動くCLIに勝てるGUIはない
  • 調査・リサーチが多い。ちょっとした開発もする → Q2へ

Q2. AIツールに月いくら使っている?

  • $100以上 → 正直DeerFlowは不要。Claude Codeで困ることがない
  • $20プランですぐ使い切る / 有料プランに入っていない → DeerFlow + Gemini Flash。月$3〜10で使い心地の良い調査UIが手に入る
  • $100〜$200で使い切りそうな月がある → 調査系だけDeerFlowに逃がすのはアリ

絶妙な立ち位置

ただ、非エンジニア向きかと言われると微妙で。Dockerが必要だったり、config.yamlを手で編集したり、APIキーを自分で取得したり。「全部入りの完成品」を掲げつつ、セットアップにはそれなりのリテラシーが要る。

結局のところ、ライトな開発をちょっとやりつつ、調査が多い人に一番ハマるツールだと思います。ガッツリ開発する人にはCLIの方が強いし、完全な非エンジニアにはDocker云々のハードルがある。その中間層にとっては、月$10以下でまともなAIエージェントUIが使えるのは魅力的です。

万能キャラが強い時代は、まだ来ていない。特化キャラを使いこなす方が、今はまだ強い。

と言いつつ、ストリーミングが直ったらもう一回試す気がしています。全部入りの完成品が本当に安定したら、話は変わるかもしれない。

参考リンク