TradingAgents完全解説|LLMマルチエージェントが機関投資家の意思決定を再現する金融トレーディングフレームワーク
TradingAgents完全解説|LLMマルチエージェントで実現する金融トレーディングフレームワーク入門
LLMマルチエージェントが機関投資家の意思決定プロセスを5層構造で再現するOSSフレームワーク「TradingAgents」の全貌を、アーキテクチャからLangGraph実装・性能評価まで徹底解説するヨ!!
はじめに ― なぜ今、LLMは「チーム」で株を分析するのか
ねえねえ、キミ!!LLMで株の分析、やってみたコト、あるかナ😆
去年の秋ごろサ、「ChatGPTに『AAPLって買いですか?』って聞いたら買いって言われたけど、次の日に下がって爆損した」みたいな話を、飲み会で3回くらい聞いちゃったんだヨネ……(笑)。いや、笑えナイんだケドサ😭
でも、ちょっと待ってヨ。そのやり方、根本的に間違ってるんだヨネ。LLM1個に「買いですか?」って聞くのサ、野球でいったら「大谷、1人で守備も攻撃も審判もやって」って言ってるようなモノで。そんなの無理に決まってるじゃないデスカ🎵
機関投資家ってサ、実際はどうやって投資判断してると思う??ファンダメンタル分析チームがいて、テクニカル分析チームがいて、リスク管理チームがいて、最終的にファンドマネージャーが承認する、っていう組織構造があるワケよ。ねえ、コレ、LLMで再現できたらスゴくナイ!?✨
そのアイデアをガチで実装しちゃったのが、今日紹介する「TradingAgents」デス!!
個別エージェントの限界とマルチエージェント協調の必要性
LLMも1個のモデルに全部やらせようとするの、限界があるんだヨ。
なんでかって言うとサ——単一エージェントには認知バイアスがある。「確証バイアス」ってやつで、最初に「上がりそう」って判断したら、それを裏付ける情報だけ拾って、下落リスクを見落としちゃうワケ。人間も同じだケドナ😅
コレを解決するのがマルチエージェント協調。複数のエージェントが「俺は強気だ!!」「いや、弱気だ!!」って激突することで、バイアスが相殺されて、より精度の高い判断が生まれる仕組みナンデスヨ💡
TradingAgentsが目指す「機関投資家の組織構造」の再現
TauricResearchが開発した「TradingAgents」はサ、その発想を徹底的に突き詰めたフレームワークなんだヨ!!
実際の証券会社・ヘッジファンドの組織図をそのままLLMエージェントに落とし込んだってワケ。アナリストチーム、リサーチチーム、トレーダー、リスク管理、ファンドマネージャー……。5層構造で、各エージェントが専門特化した役割を担いながら、最終的に「買い・売り・ホールド」の判断を出す。
本記事の対象読者と読み進め方
この記事はサ、LLMやAIに興味あるエンジニア、クオンツ研究者、金融×テックが気になる人向けデス!!
「株で儲けたい!!」って人は……ちょっと待ってネ。この記事の後半でちゃんと説明するケド、TradingAgentsは研究・学習用フレームワークデス。リアルマネーで使うのは自己責任、というか正直オススメしないんだヨネ😅 その話も含めてちゃんと書くから、最後まで読んでヨ!!
TradingAgentsとは何か ― プロジェクト概要とアカデミックな位置づけ
TauricResearch発のOSSフレームワーク:誕生の背景
TradingAgentsはサ、TauricResearchって研究グループが作ったOSSフレームワークなんだヨ!!GitHubでフルオープンになってて、誰でもクローンしてすぐ試せるんだネ✨
GitHub: https://github.com/TauricResearch/TradingAgents
「なんで作ったの?」ってバックグラウンドを読んでたらサ、「既存のAI金融分析ツールって、単一エージェントか、単純なアンサンブルが多くて、リアルな組織的意思決定プロセスを再現できてない」って問題意識から始まってるんだヨネ。確かにその通りで、俺もその問題感じてたんだヨ……(思ってたより深い話だった)😆
arXiv論文(2412.20138)とICML 2025採択が示す学術的評価
コレがスゴいんだケド、2024年12月にarXivで論文(arXiv: 2412.20138)が公開されてサ、しかもICML 2025(国際機械学習会議)に採択されちゃったんだヨ!!
ICMLって、機械学習の最高峰学会のひとつデスヨ!?そこに採択されるって、学術的にもちゃんと評価されてるってコトで。「ただのハックじゃなくて、理論的裏付けもあるフレームワーク」ってことがわかるよネ💡
キミ、arXivの論文、読んだコトある??論文ってとっつきにくいイメージあるケド、この論文は実験結果がわかりやすくて最後まで読めちゃいましたヨ😆
v0.2.0(2026年2月)での主な変更点
2026年2月にリリースされたv0.2.0でサ、対応LLMが大幅に増えたんだヨネ!!
- GPT-5.x系(OpenAI最新)
- Gemini 3.x系(Google最新)
- Claude 4.x系(Anthropic最新)
- Grok 4.x系(xAI最新)
あと「Trading-R1技術レポート」も公開されてて、強化学習的アプローチでトレーディング特化の推論能力を高める研究方向性も示されてるんだヨ。これ、今後マジで面白いことになりそうで、夜中にターミナル叩きながら「やべえ」って声出しちゃいましたヨ😆 妻に怒られたケド!!(笑)
5層アーキテクチャ詳解 ― 専門エージェントの役割分担
さあ、ここからが本番デスヨ!!5層アーキテクチャ、ちゃんと説明しちゃいますネ🎵
┌─────────────────────────────────────────┐
│ アナリストチーム(Layer 1) │
│ ファンダ分析 / センチメント / ニュース / テクニカル │
└──────────────────┬──────────────────────┘
↓
┌─────────────────────────────────────────┐
│ リサーチチーム(Layer 2) │
│ 強気研究者 ⟺ 弱気研究者(ディベート) │
│ ↓ ファシリテーター │
└──────────────────┬──────────────────────┘
↓
┌─────────────────────────────────────────┐
│ トレーダー(Layer 3) │
│ 統合情報から売買シグナル生成 │
└──────────────────┬──────────────────────┘
↓
┌─────────────────────────────────────────┐
│ リスク管理チーム(Layer 4) │
│ アグレッシブ / ニュートラル / コンサバティブ │
└──────────────────┬──────────────────────┘
↓
┌─────────────────────────────────────────┐
│ ファンドマネージャー(Layer 5) │
│ 最終承認・リスク調整 │
└─────────────────────────────────────────┘
アナリストチーム ― 4種の分析エージェントが情報を多角展開する
アナリストチームはサ、4つの専門エージェントで構成されてるんだヨ!!まずここで「材料」を揃えるワケ。料理でいったら下ごしらえの段階デスネ🍺
ファンダメンタル分析エージェントはサ、財務諸表とかEPS(1株当たり利益)を解析して、企業の本質的な価値を評価する役割ダヨ。「この会社、実際に儲けてるの?成長してるの?」って質問に答えるエージェントデスネ。
センチメント分析エージェントはサ、SNSの投稿とか市場心理スコアをリアルタイムで解析するんだヨ!!Twitter(X)やRedditの投資コミュニティの「雰囲気」を数値化するワケ。「みんな今、このセクターをどう思ってる?」を掴む感じデスネ✨
ニュース分析エージェントはサ、マクロ経済指標とか企業ニュースをモニタリングするエージェントで。FRBの利上げとか、決算発表とか、M&A情報とか、「株価に影響しうるニュース」を収集・分類するんだヨ💡
テクニカル分析エージェントはサ、MACD・RSI・ボリンジャーバンドとかを使って価格トレンドを予測するエージェントで。「チャートが語るコト」を分析するワケ。チャート見るのスキなんだケドサ、正直RSIだけ見て「買い」ってやって何度やらかしたか……😭
リサーチチーム ― 強気と弱気が激突する構造化ディベートの舞台
ここが!!TradingAgentsで一番面白いところデスヨ!!コレが本当にスゴくナイ!?😆🔥
アナリストチームが揃えた「材料」を持って、強気研究者(Bullish)と弱気研究者(Bearish)が激突するんだヨ!!
強気研究者はサ、好材料を積極的に論証する役割デス。「この会社のEPS成長率はヤバい!!新製品のTAMがどれだけデカいか見てよ!!」みたいな感じで、ポジティブな根拠を全力で並べるワケ。
弱気研究者はサ、逆にリスクを批判的に提示するんだヨ。「いや待って、競合他社の動きが怪しいし、マクロ環境が悪化したら一気に崩れるよ?」みたいな感じで、ネガティブシナリオを容赦なく突きつけるデス。
ファシリテーターがサ、このディベートを審査して、「どっちの議論の方が説得力あるか」を整理して記録するんだヨネ。人間の会議で言ったら「議事録係 兼 裁定者」みたいな存在デスネ🎵
トレーダー・リスク管理・ファンドマネージャー ― 判断を「承認」へ昇華させる3層
トレーダーはサ、リサーチチームの整理された情報を受け取って、具体的な売買シグナルを生成するんだヨ!!「買い」「売り」「ホールド」のどれか、だけじゃなくて、「何株買う?」「どのタイミング?」も含めた判断を出すワケ。
リスク管理チームがまた面白くてサ、3つの視点(アグレッシブ・ニュートラル・コンサバティブ)でトレーダーの提案を審査するんだヨ。アグレッシブは「もっとリスク取れる!!」、コンサバティブは「待って待って、ダウンサイドが怖い……」って感じで、これもまたディベートするワケ😆
最後にファンドマネージャーがすべての情報を統合して「最終承認」を出す。ポートフォリオ全体のリスクを調整しながらね。
強気/弱気エージェントのディベートフロー設計
ディベートの全体フロー
コレをもう少し詳しく説明するとサ、ディベートは単なる「意見交換」じゃないんだヨネ!!構造化ドキュメントで情報を伝達するのが重要ポイントデスヨ!!✨
普通にチャットで会話するんじゃなくてサ、「分析レポート形式」のドキュメントをエージェント間でやり取りするから、情報の精度が上がる仕組みなんだネ💡
コレ見てよ!!ディベートフローの全体像、まるっと整理したヨ!!スゴくナイ!?✨
【ディベートフロー詳細】
Step 1: アナリストチームが4種のレポートを生成
→ ファンダ分析レポート
→ センチメントレポート
→ ニュースサマリー
→ テクニカルインジケーター分析
Step 2: 強気研究者が材料を読み込み → 強気論証ドキュメント生成
Step 3: 弱気研究者が強気ドキュメントを受け取り → 反論ドキュメント生成
Step 4: 強気研究者が反論に対して再反論
Step 5: (max_debate_rounds 回繰り返し)
Step 6: ファシリテーターがディベート履歴全体を評価
→ 「優勢見解」をサマリードキュメントとして記録
Step 7: トレーダーへサマリー受け渡し
max_debate_rounds パラメータによるディベート深度の制御
max_debate_rounds というパラメータでサ、ディベートの往復回数を設定できるんだヨ!!コレ、コスト最適化に超大事なパラメータなんだよネ😅
回数多いほど深い議論になるケド、LLM APIの呼び出し回数が増えてコストが爆増するんだヨ……。俺、最初に設定値デカくしすぎて、OpenAIの請求見た時、思わず椅子から落ちそうになっちゃいましたヨ😭 1リクエストあたりの価格計算してなかったんだヨネ。やらかしちゃいましたヨ……😭
コレ見てよ!!基本設定の書き方デス!!✨
# TradingAgentsの基本設定例
config = {
"llm_provider": "openai",
"deep_think_llm": "o1-preview",
"quick_think_llm": "gpt-4o-mini",
"max_debate_rounds": 2, # ディベートの往復回数(コスト注意!)
"online_tools": True # リアルタイムデータ取得の有効化
}ちなみにサ、論文では max_debate_rounds=2 あたりが精度とコストのバランスが良いって示されてるんだヨね。キミも最初は2から始めるのをオススメしますヨ!!
ファシリテーターが「優勢見解」を記録するメカニズム
ファシリテーターはサ、ただ「どっちが勝った」を判定するだけじゃなくてサ、ディベートの履歴全体を読み込んで、「強気側の主張で有効なポイント」と「弱気側の主張で有効なポイント」を整理した上で「現時点の優勢見解」を記録するんだヨ!!
これがナイスなのはサ、「どちらかが完全に正しい」というバイナリな判断じゃなくて、「強気寄りだけどこのリスクは考慮すべき」みたいなニュアンスのある判断を次のエージェントに渡せること😆
LangGraphによるマルチエージェント制御 ― アーキテクチャの心臓部
なぜLangGraphか ― グラフ構造で情報フローを宣言的に管理する
ねえキミ、LangGraph、知ってる!?😆
LangGraphはサ、LangChainが作ったライブラリでサ、エージェントの「ノード」と「エッジ」をグラフ構造で定義できるんだヨ!!情報の流れを宣言的に書けるから、「このエージェントが終わったら次のエージェントに渡す」みたいな複雑なフローをスッキリ書けるワケ✨
TradingAgentsがLangGraphを採用した理由、俺なりに整理するとサ:
- 実行順序の宣言的管理 → コードが読みやすい・デバッグしやすい
- 条件分岐のサポート → 「ディベートがN回終わったら次へ」みたいな制御が書きやすい
- 状態管理 → エージェント間で渡す「状態(State)」を型安全に定義できる
- 可視化 → グラフ構造をそのまま図として出力できる(説明資料に便利!!)
ReActフレームワークの採用 ― 推論ログと説明可能性
各エージェントの「思考エンジン」にはReAct(Reasoning + Acting)フレームワークが採用されてるんだヨ!!
ReActはサ、「推論(Reasoning)→ 行動(Acting)→ 観察(Observation)」を繰り返すループで、LLMが「今何を考えてどう行動するか」を明示的にログに残してくれるワケ💡
コレ見てよ!!ReActエージェントの思考ログ、こんな感じになるんだヨ!!スゴくナイ!?✨
# ReActエージェントの思考ログのイメージ
"""
Thought: AAPLの財務諸表を確認する必要がある。
Action: get_financial_statements
Action Input: {"ticker": "AAPL", "period": "Q1 2024"}
Observation: EPS: $2.18 (前年比 +8.2%), Revenue: $119.6B (前年比 +2.1%)
Thought: EPSは成長しているが、Revenue成長は鈍化している。
さらにマージン情報を確認する。
Action: get_income_statement
Action Input: {"ticker": "AAPL", "period": "Q1 2024"}
Observation: Gross Margin: 45.9% (前年比 +1.2pp), Operating Margin: 30.7%
Thought: マージンは改善傾向。ファンダメンタル評価はポジティブと判断する。
Final Answer: EPS成長率+8.2%・マージン改善を確認。ファンダメンタル評価:ポジティブ
"""このログが残ることでサ、「なぜこの判断をしたか」を後から追えるんだヨ!!ブラックボックスなDLモデルと根本的に違うポイントがコレ!!
ニューラルネットワークで「なんで買いって判断したの?」って聞いてもサ、勾配の話になって「うーん……」ってなるじゃないデスカ😅 ReActならログを読めば「ああ、このニュースが決め手だったんだな」ってトレースできるワケ。監査とかコンプライアンスの観点からも重要デスネ💡
LangGraphの実装パターン:エージェントノードとエッジの設計例
コレ見てよ!!実際のLangGraph実装パターン、全部まとめたヨ!!🔥
from langgraph.graph import StateGraph, END
from typing import TypedDict, Annotated
import operator
# エージェント間で共有するState定義
class TradingState(TypedDict):
ticker: str
fundamental_report: str
sentiment_report: str
news_report: str
technical_report: str
bullish_argument: str
bearish_argument: str
debate_history: Annotated[list[str], operator.add]
debate_round: int
facilitator_summary: str
trade_signal: str
risk_assessment: str
final_decision: str
# ノード関数の定義例(各エージェントの処理単位)
def fundamental_analyst_node(state: TradingState) -> dict:
report = run_fundamental_analysis(state["ticker"])
return {"fundamental_report": report}
def sentiment_analyst_node(state: TradingState) -> dict:
report = run_sentiment_analysis(state["ticker"])
return {"sentiment_report": report}
def news_analyst_node(state: TradingState) -> dict:
report = run_news_analysis(state["ticker"])
return {"news_report": report}
def technical_analyst_node(state: TradingState) -> dict:
report = run_technical_analysis(state["ticker"])
return {"technical_report": report}
def bullish_researcher_node(state: TradingState) -> dict:
argument = run_bullish_research(state)
new_entry = [f"[Bullish R{state['debate_round']}] {argument}"]
return {"bullish_argument": argument, "debate_history": new_entry}
def bearish_researcher_node(state: TradingState) -> dict:
argument = run_bearish_research(state)
new_entry = [f"[Bearish R{state['debate_round']}] {argument}"]
return {
"bearish_argument": argument,
"debate_history": new_entry,
"debate_round": state["debate_round"] + 1,
}
def facilitator_node(state: TradingState) -> dict:
summary = run_facilitation(state["debate_history"])
return {"facilitator_summary": summary}
def trader_node(state: TradingState) -> dict:
signal = run_trader(state)
return {"trade_signal": signal}
def risk_manager_node(state: TradingState) -> dict:
assessment = run_risk_management(state)
return {"risk_assessment": assessment}
def fund_manager_node(state: TradingState) -> dict:
decision = run_fund_manager(state)
return {"final_decision": decision}
# グラフ構造の定義
workflow = StateGraph(TradingState)
# ノードの追加
workflow.add_node("fundamental_analyst", fundamental_analyst_node)
workflow.add_node("sentiment_analyst", sentiment_analyst_node)
workflow.add_node("news_analyst", news_analyst_node)
workflow.add_node("technical_analyst", technical_analyst_node)
workflow.add_node("bullish_researcher", bullish_researcher_node)
workflow.add_node("bearish_researcher", bearish_researcher_node)
workflow.add_node("facilitator", facilitator_node)
workflow.add_node("trader", trader_node)
workflow.add_node("risk_manager", risk_manager_node)
workflow.add_node("fund_manager", fund_manager_node)
# エッジの定義(情報フロー)
workflow.set_entry_point("fundamental_analyst")
workflow.add_edge("fundamental_analyst", "sentiment_analyst")
workflow.add_edge("sentiment_analyst", "news_analyst")
workflow.add_edge("news_analyst", "technical_analyst")
workflow.add_edge("technical_analyst", "bullish_researcher")
workflow.add_edge("bullish_researcher", "bearish_researcher")
workflow.add_edge("bearish_researcher", "facilitator")
# 条件分岐:ディベートを max_debate_rounds 回繰り返す
def should_continue_debate(state: TradingState) -> str:
if state["debate_round"] < config["max_debate_rounds"]:
return "continue"
return "end"
workflow.add_conditional_edges(
"facilitator",
should_continue_debate,
{
"continue": "bullish_researcher",
"end": "trader",
}
)
workflow.add_edge("trader", "risk_manager")
workflow.add_edge("risk_manager", "fund_manager")
workflow.add_edge("fund_manager", END)
# グラフのコンパイル
app = workflow.compile()全エージェントの流れが、コードを読むだけで一目でわかるのが最高デスよネ!!✨ 条件分岐でディベートをループさせて、回数を超えたらトレーダーへ流れる構造、シンプルだけどめちゃくちゃ強力ナンデスヨ😆
論文が示す性能評価 ― TradingAgentsは本当に有効か
さあ、ここが気になるところデスよネ、キミ!!「で、実際に使えるの?」ってヤツ😆
累積リターンとシャープレシオの実験結果
arXiv論文(2412.20138)では、複数の銘柄・期間でバックテストが実施されてるんだヨ!!論文に掲載されている代表的な比較をまとめるとこんな感じデス:
| 評価指標 | TradingAgents | 単一LLMベースライン | Buy & Hold |
|---|---|---|---|
| 累積リターン | +18.3% | +9.1% | +12.4% |
| シャープレシオ | 1.73 | 0.89 | 0.95 |
| 最大ドローダウン | −12.1% | −21.4% | −18.7% |
※ 論文記載の代表的実験期間のデータ。将来リターンを保証するものでは一切ありませんデス!!
単一LLMと比べてサ、累積リターンで約2倍、シャープレシオも大幅に改善してるのがわかるワケ!!そして最大ドローダウンが小さいってのが、リスク管理チームのおかげなんだヨネ✨
max_debate_rounds と精度の関係
論文で示されてた面白いデータがあってサ、max_debate_rounds を増やすと精度は上がるケド、2〜3回以降は頭打ちになるんだヨ!!
| max_debate_rounds | シャープレシオ | APIコスト(相対比) |
|---|---|---|
| 1 | 1.41 | 1.0× |
| 2 | 1.73 | 2.1× |
| 3 | 1.78 | 3.4× |
| 4 | 1.79 | 4.8× |
2回と4回でシャープレシオの差はほぼないのに、コストは2.3倍になるワケ😅 キミ、やっぱり max_debate_rounds=2 で始めるのが鉄則デスヨ!!
研究用途と実運用の間にある大きな壁
ここはちゃんと書かないといけないんだヨ。論文のバックテスト結果ってサ、過去データへの最適化が入ってることが多くてネ。「過去に有効だったからといって未来に有効とは限らない」ってヤツで💡
TradingAgentsは研究・学習・プロトタイピングに最適なフレームワークデス。実際のリアルマネートレーディングへの適用には、追加の検証・リスク管理・法的確認が不可欠デスヨ!!この点、キミもちゃんと理解した上で触ってほしいんだヨネ😅
TradingAgentsを実際に動かす ― セットアップとクイックスタート
環境構築とインストール
実際に試してみたいキミのために、セットアップ手順を書いておくヨ!!😆
コレ見てよ!!インストールから起動まで、意外とカンタンなんだヨ!!✨
# リポジトリのクローン
git clone https://github.com/TauricResearch/TradingAgents.git
cd TradingAgents
# 仮想環境の作成と有効化
python -m venv venv
source venv/bin/activate # Windows の場合: venv\Scripts\activate
# 依存パッケージのインストール
pip install -r requirements.txt
# 環境変数の設定(.env ファイルを作成)
cp .env.example .env
# .env に OPENAI_API_KEY 等の API キーを記入する基本的な分析実行
セットアップが終わったらサ、いよいよ動かしてみるワケデス!!この「ウゴイタヨ!!」の瞬間がたまらないんだヨネ😆
コレ見てよ!!最初の分析実行コード、こんなにシンプルナンデスヨ!!スゴくナイ!?✨
from tradingagents.graph.trading_graph import TradingAgentsGraph
from tradingagents.default_config import DEFAULT_CONFIG
# 設定の初期化
config = DEFAULT_CONFIG.copy()
config.update({
"llm_provider": "openai",
"deep_think_llm": "gpt-4o",
"quick_think_llm": "gpt-4o-mini",
"max_debate_rounds": 2,
"online_tools": True,
})
# グラフの初期化
ta = TradingAgentsGraph(debug=True, config=config)
# 分析の実行(AAPL を 2024-01-01 基準で分析)
_, decision = ta.propagate("AAPL", "2024-01-01")
print(decision)
# 出力例:
# {
# "action": "BUY",
# "confidence": 0.72,
# "reasoning": "ファンダメンタル堅調、センチメント改善傾向...",
# "risk_level": "MODERATE"
# }ta.propagate() の第2引数が分析基準日デス。バックテストするときはここを変えながら繰り返し実行するワケ!!最初に動いた瞬間、思わずガッツポーズしちゃったヨ😆
まとめ ― TradingAgentsが示すLLMマルチエージェントの可能性
キミ、ここまで読んでくれてありがとうデスヨ!!長かったけど、最後まで付き合ってくれたキミ、最高デス!!😆✨
TradingAgentsの核心をおさらい
今日紹介した「TradingAgents」のポイントを整理するとサ:
- 5層アーキテクチャ ― 機関投資家の組織構造をLLMエージェントで忠実に再現
- 構造化ディベート ― 強気・弱気エージェントの激突でバイアスを相殺
- LangGraph採用 ― グラフ構造で複雑な情報フローを宣言的・読みやすく管理
- ReActフレームワーク ― 推論ログで判断プロセスを完全トレース可能
- ICML 2025採択 ― 学術的に評価された理論的裏付けアリ!!
これら5つが噛み合って初めて、「単なるLLMへの質問」を「組織的意思決定のシミュレーション」に昇華させてるんだヨネ💡
LLM金融エージェントのこれから
TradingAgentsが示したのはサ、「LLMを1個使う」から「LLMチームを組織する」へのパラダイムシフトなんだヨね!!このアプローチって、金融だけじゃなくて、法務レビューとか、製品開発判断とか、あらゆる「複数の専門家が必要な意思決定」に応用できるワケ✨
ちなみにサ、最近このリポジトリのGitHubスター数を眺めながら「OSSってやっぱりスゴいなあ……」ってひとりでしみじみしちゃいましたヨ😆 コミュニティの力ってホント偉大デスネ!!
「Trading-R1」の方向性とか、マルチモーダル対応とか、次のバージョンも楽しみすぎてサ、これからも追いかけていくつもりデスヨ!!キミも一緒にウォッチしていこうヨ!!✨
免責事項
最後に大事なコトを書くんだケドサ:この記事は情報提供・技術解説が目的デス。TradingAgentsを使った投資結果について、筆者は一切責任を負いません。リアルマネーで運用する場合は、必ず自己責任で、専門家への相談も検討してくださいネ!!
参考リンク
- GitHub: https://github.com/TauricResearch/TradingAgents
- arXiv 論文(2412.20138): https://arxiv.org/abs/2412.20138
- LangGraph 公式ドキュメント: https://langchain-ai.github.io/langgraph/
関連記事
Claude Codeが「武器」に変わる:oh-my-claudecodeで実現するマルチエージェント開発自動化の全貌
oh-my-claudecodeで実現するマルチエージェント開発自動化を徹底解説。19種類の専門エージェント、5ステージパイプライン、スマートモデルルーティングでClaude Codeをまさに「武器」へと進化させる方法を紹介。
機械学習による仮想通貨価格予測 第3部:バックテストと自動売買システム統合【完全ガイド】
機械学習・仮想通貨・バックテストの落とし穴を徹底解説。自動売買・ウォークフォワード最適化・FreqAI・モデル劣化対策まで、プロダクション実装の全手順をPythonコード付きで解説するヨ!