機械学習による仮想通貨価格予測(第1部):データ前処理&テクニカル指標の完全解説
機械学習で仮想通貨の価格予測をする方法【実践ガイド第1部】データ前処理&テクニカル指標の完全解説
ねえねえ、キミ!!「機械学習で仮想通貨の価格予測」って、ムズかしそうじゃナイ!?😭 僕もサ、最初は「どうせランダムウォークでしょ……無理無理」ってなってたんだケドネ。
きっかけはサ、深夜2時にBTCのチャートをぼーっと眺めてたら、妻に「またその時間まで何やってるの!!」って怒られたコトなんだヨネ(笑)「そうだ、機械にやらせればいい!!」って思い立ったのが始まりでしたヨ✨ 昭和生まれの発想ダヨネ、ほんと……📟
で、実際やってみたら、これがマジで奥が深くて面白いんですヨ!!💥 2025〜2026年の最新研究ではアンサンブルモデルでテスト精度**90.4%**を達成した事例まで出てきてましてネ🎉 もはや「ランダムじゃん」とか言ってる場合じゃないワケです!!
この記事は全3部シリーズの第1部ですヨ♪
- 第1部(本記事):データ前処理&テクニカル指標——予測の土台を作るヤツ
- 第2部:LSTM・GRU・XGBoostによるモデル構築——いよいよ予測モデルを作るヤツ(近日公開!!)
- 第3部:バックテストと実運用——本番で使えるか確認するヤツ(近日公開!!)
キミが本記事を読み終わる頃には、高品質な学習データが完成した状態になってますヨ✨ それではレッツゴー!!🦝
はじめに ― 機械学習×仮想通貨価格予測においてデータ前処理が精度を左右する理由
仮想通貨予測における機械学習の現在地(2025〜2026年トレンド)
ちょっと聞いてヨ!!最近の研究トレンドがマジでスゴくてサ😆
2025年あたりから、仮想通貨価格予測の世界はLSTMからアンサンブル・Transformerへのシフトが加速してますネ🎵 従来の定番だったLSTM(RMSE=0.0054)に加え、XGBoost・GRU・SVM・アンサンブルモデルの比較研究が一気に増えてきてますヨ。
特に注目なのはコレ💡
- GRUが分足レベルの高頻度予測でLSTMを上回る精度を示す論文が2025年に登場
- オンチェーンデータ×テクニカル指標の統合が主流に(取引数・ハッシュレートなども特徴量として活用)
- MDPI 2025の論文では、Bitcoin/Ethereum/XRPで多数のテクニカル指標を統合→アンサンブルモデルで**テスト精度90.4%**を達成!!🎉
- Boruta法+SVMで**F1スコア82%**を達成した事例も報告
「90%って、コインを投げて50%が期待値の世界で、どれだけスゴいか」ってことサ!!キミもわかるよネ!!😆
ただしネ、精度の高いモデルには必ず「丁寧なデータ前処理」と「適切な特徴量エンジニアリング」が土台にあるんですヨ💡 ズサンな前処理で複雑なモデルを動かすより、シンプルなモデルで前処理をキッチリやる方が圧倒的に良い結果が出ます。これは僕が何十時間も溶かして気づいた教訓ネ……😭
この記事でわかること・作るもの
本記事でキミが手に入れるものをまとめちゃいますネ♪
[データ取得] → [欠損値処理] → [外れ値除去] → [正規化・スケーリング]
↓
[テクニカル指標生成(SMA/EMA/RSI/MACD/BB/ATR/OBV)← 特徴量エンジニアリング]
↓
[データリーク防止チェック] → [時系列分割(ウォークフォワード法)] → [学習データ完成!!🎉]
第2部では、ここで作った学習データを使ってLSTM・GRU・XGBoostでモデルを構築しますヨ✨
機械学習環境の構築:使用する技術スタック
まずは武器を揃えちゃいましょう!!コレがナイと始まりませんからネ😆
コレ見てよ!!スゴくナイ!?✨ たったこれだけのコマンドで全部入るんですヨ!!
pip install ccxt pandas pandas-ta scikit-learn keras tensorflow matplotlib動作確認済みバージョンはこちらですネ♪
| ライブラリ | バージョン | 役割 |
|---|---|---|
ccxt |
4.x | 取引所APIからデータ取得 |
pandas |
2.x | データ操作全般 |
pandas-ta |
0.3.x | テクニカル指標の計算 |
scikit-learn |
1.4.x | 正規化・データ分割 |
keras / tensorflow |
3.x / 2.16.x | ニューラルネットワーク |
matplotlib |
3.8.x | 可視化 |
コレ全部入れれば準備OKデス!!✨
STEP 1 ― 仮想通貨価格予測のためのデータ取得と時系列データの理解
信頼できるデータソースの選び方
データはサ、「何を使うか」でその後の全てが決まっちゃうんだヨネ💡 主要ソースを比較してみましょう!!
| データソース | 更新頻度 | 取得可能期間 | 料金 | 特徴 |
|---|---|---|---|---|
Binance API (ccxt) |
リアルタイム | 〜数年分 | 無料 | 最もポピュラー・安定 |
Bybit API (ccxt) |
リアルタイム | 〜数年分 | 無料 | デリバティブも取得可 |
| CoinGecko API | 1分〜1日 | 最大365日(無料枠) | 無料/有料プランあり | 多通貨対応・使いやすい |
僕的イチオシは**ccxt経由のBinance**ですネ🎵 アカウント登録なしで公開APIが使えて、1時間足・15分足など柔軟に指定できますヨ!!
OHLCVデータとは何か:時系列分析の基本特徴量
機械学習の特徴量として「OHLCV」という時系列データを使いますヨ💡
- Open(始値):そのローソク足が始まった瞬間の値段
- High(高値):その期間で最も高かった値段
- Low(安値):その期間で最も低かった値段
- Close(終値):そのローソク足が終わった瞬間の値段
- Volume(出来高):その期間中の取引量
この5つが全ての始まりです✨ ここにテクニカル指標を足して「特徴量」を豊かにしていくワケですネ!!
Pythonで仮想通貨OHLCVデータを取得する実装
コレ見てよ!!スゴくナイ!?✨ ccxtを使えば、こんなにシンプルにデータが取れちゃいますヨ!!
import sys
import ccxt
import pandas as pd
# Python実行環境の確認
print(f"Python バージョン: {sys.version}")
# Binance取引所に接続
exchange = ccxt.binance({
'enableRateLimit': True,
'options': {
'defaultType': 'spot',
'adjustForTimeDifference': True,
},
'headers': {
'User-Agent': 'Mozilla/5.0',
},
})
def fetch_ohlcv(symbol: str, timeframe: str = '1h', limit: int = 1000) -> pd.DataFrame:
"""
Binance APIからOHLCVデータを取得する
Args:
symbol: 通貨ペア(例: 'BTC/USDT')
timeframe: 時間足('15m', '1h', '4h', '1d')
limit: 取得件数(最大1000)
Returns:
OHLCVデータのDataFrame
"""
try:
exchange.load_markets()
ohlcv = exchange.fetch_ohlcv(symbol, timeframe=timeframe, limit=limit)
except ccxt.BadSymbol as e:
raise ValueError(f"無効なシンボルです: {symbol}") from e
except ccxt.NetworkError as e:
raise ConnectionError(f"ネットワークエラー: {e}") from e
except ccxt.ExchangeError as e:
raise RuntimeError(f"取引所APIエラー: {e}") from e
df = pd.DataFrame(
ohlcv,
columns=['timestamp', 'open', 'high', 'low', 'close', 'volume']
)
df['timestamp'] = pd.to_datetime(df['timestamp'], unit='ms')
df.set_index('timestamp', inplace=True)
return df
# BTC/USDTの1時間足データを1000本取得
df = fetch_ohlcv('BTC/USDT', timeframe='1h', limit=1000)
print(df.head())
print(f"\nデータ件数: {len(df)}")
print(f"期間: {df.index[0]} 〜 {df.index[-1]}")DataFrameにズラーッとデータが入った瞬間ネ、思わず「おお!!」って声が出ちゃいましたヨ😆
よくあるエラーと対処法もまとめておきますネ💡
ccxt.BadSymbol:通貨ペアの表記ミス →'BTCUSDT'ではなく'BTC/USDT'と書くccxt.NetworkError:ネット接続・VPN・ファイアウォールを確認JSONDecodeError:load_markets()を必ず先に呼ぶことで回避できる場合が多い
STEP 2 ― 機械学習に向けた仮想通貨データ前処理パイプラインの構築
ここからが本記事の核心ですヨ!!😆🔥 前処理をサボると、どれほど優れたモデルを使っても精度が出ません。断言しますネ!!
欠損値の検出と処理
仮想通貨の時系列データにはサ、取引所のメンテナンスやAPI障害でポツンと欠損が入ることがあるんですヨ💦 これを放置すると、モデルが「NaN」に引きずられてとんでもない予測をしちゃいます😭
仮想通貨データで最も標準的な手法は**forward-fill(前の値で補完)**ですネ♪ 「前の価格がそのまま続いていた」と仮定するのが、時系列データの連続性を保つ上で最も自然なんです💡
コレ見てよ!!スゴくナイ!?✨ たった数行で欠損をキレイに処理できちゃいますヨ!!
import numpy as np
import pandas as pd
def handle_missing_values(df: pd.DataFrame) -> pd.DataFrame:
"""
欠損値の検出と処理
Args:
df: OHLCVデータのDataFrame
Returns:
欠損値処理済みのDataFrame
"""
missing_count = df.isnull().sum()
print("=== 欠損値の確認 ===")
print(missing_count)
missing_ratio = df.isnull().mean()
for col in df.columns:
if missing_ratio[col] == 0:
continue
elif missing_ratio[col] < 0.05:
# 欠損率5%未満 → forward-fill(pandas 2.x対応)
df[col] = df[col].ffill().bfill()
else:
# 欠損率が高い場合 → 線形補間
df[col] = df[col].interpolate(method='linear')
print(f"\n処理後の欠損値: {df.isnull().sum().sum()} 件")
return df
df = handle_missing_values(df)外れ値の除去 ― フラッシュクラッシュへの対処
仮想通貨にはフラッシュクラッシュ(瞬間的な異常価格変動)があって、それが外れ値として混入すると、モデルが「急落 → 急騰」というパターンばかり学習しちゃうんですヨ💦 これを知らずに3時間くらいモデルを動かし続けてたことがありましてネ……やらかしちゃいましたヨ……😭
IQR法での外れ値検出がオススメですネ♪ コレ見てよ!!スゴくナイ!?✨
def remove_outliers_iqr(df: pd.DataFrame, columns: list, threshold: float = 3.0) -> pd.DataFrame:
"""
IQR法による外れ値の除去
Args:
df: 対象のDataFrame
columns: 外れ値チェック対象の列名リスト
threshold: IQRの何倍を外れ値とするか(デフォルト3.0)
Returns:
外れ値処理済みのDataFrame
"""
df_clean = df.copy()
for col in columns:
Q1 = df_clean[col].quantile(0.25)
Q3 = df_clean[col].quantile(0.75)
IQR = Q3 - Q1
lower = Q1 - threshold * IQR
upper = Q3 + threshold * IQR
outlier_count = ((df_clean[col] < lower) | (df_clean[col] > upper)).sum()
print(f"{col}: 外れ値 {outlier_count} 件を検出")
# 外れ値はNaNに置換してからforward-fill
df_clean.loc[(df_clean[col] < lower) | (df_clean[col] > upper), col] = np.nan
df_clean[col] = df_clean[col].ffill().bfill()
return df_clean
df = remove_outliers_iqr(df, columns=['close', 'volume'])注意点:仮想通貨特有の「急落後の正常な回復」は外れ値ではありませんヨ💡 閾値を厳しくしすぎると本物のトレンド転換まで除去しちゃうので、threshold=3.0あたりが安全圏ですネ🎵
正規化・スケーリングの選び方:機械学習モデル別ベストプラクティス
「どの正規化を使えばいいの!?」って迷うヤツですネ😅 目的別に選び方をまとめちゃいますヨ♪
| 手法 | 特徴 | 最適なケース |
|---|---|---|
| Min-Max正規化 | [0,1]に圧縮 | ニューラルネットワーク(LSTM・GRU等) |
| RobustScaler | 中央値・IQRベース | 外れ値が多い仮想通貨データ全般 |
| 対数リターン変換 | ln(Close_t / Close_{t-1}) |
方向分類(上昇/下降)を目指す場合 |
| log1p(Volume) | 出来高専用 | 出来高のスケール差が大きい場合 |
コレ見てよ!!スゴくナイ!?✨ 全パターンを1関数でさばけるようにしましたヨ!!
from sklearn.preprocessing import MinMaxScaler, RobustScaler
import numpy as np
def scale_features(df: pd.DataFrame, method: str = 'minmax') -> tuple:
"""
特徴量のスケーリング
Args:
df: 特徴量のDataFrame
method: 'minmax' / 'robust' / 'log_return'
Returns:
(スケーリング済みDataFrame, scalerオブジェクト)
"""
df_scaled = df.copy()
if method == 'minmax':
scaler = MinMaxScaler(feature_range=(0, 1))
price_cols = ['open', 'high', 'low', 'close']
df_scaled[price_cols] = scaler.fit_transform(df[price_cols])
# 出来高は対数変換してからMin-Maxスケーリング
vol_scaler = MinMaxScaler(feature_range=(0, 1))
df_scaled['volume'] = vol_scaler.fit_transform(
np.log1p(df[['volume']])
)
return df_scaled, scaler
elif method == 'robust':
scaler = RobustScaler()
feature_cols = ['open', 'high', 'low', 'close', 'volume']
df_scaled[feature_cols] = scaler.fit_transform(df[feature_cols])
return df_scaled, scaler
elif method == 'log_return':
df_scaled['log_return'] = np.log(df['close'] / df['close'].shift(1))
df_scaled = df_scaled.dropna()
return df_scaled, None
else:
raise ValueError(f"未対応のメソッドです: {method}")
# LSTMを使う場合はminmax推奨
df_scaled, scaler = scale_features(df, method='minmax')
print(f"スケーリング完了!! shape: {df_scaled.shape}")キレイに[0,1]に収まったデータが完成ですヨ!!✨ これでモデルへの入力準備が整いましたネ🎵
STEP 3 ― テクニカル指標による特徴量エンジニアリング
ここが!!最高に楽しいところですヨ!!😆🔥 テクニカル指標を追加することで、価格の「文脈」を機械に伝えられるようになりますネ✨ ただの数字の羅列が、意味ある特徴量に変身するワケです!!
使用するテクニカル指標の選び方と根拠
仮想通貨価格予測の特徴量エンジニアリングで使うテクニカル指標は、大きく4カテゴリに分けられますヨ💡
| カテゴリ | 指標 | 何を表すか |
|---|---|---|
| トレンド系 | SMA, EMA | 価格の方向性・強さ |
| モメンタム系 | RSI, MACD | 過熱感・転換点 |
| ボラティリティ系 | ボリンジャーバンド, ATR | 値動きの激しさ |
| 出来高系 | OBV | 売買の積極性 |
MDPI 2025の研究でも、これらを組み合わせることで予測精度が大幅に向上することが確認されてますヨ!!🎉 指標を増やせばいいってワケじゃナイけど、この7種はまず押さえておきたいやつらですネ♪
全テクニカル指標を一括生成する実装
コレ見てよ!!スゴくナイ!?✨ pandas-taを使えば、複雑な計算式を書かずに一発でテクニカル指標が生成できちゃいますヨ!!
import pandas_ta as ta
def add_technical_indicators(df: pd.DataFrame) -> pd.DataFrame:
"""
テクニカル指標の一括生成(特徴量エンジニアリング)
Args:
df: OHLCVデータのDataFrame
Returns:
テクニカル指標を追加したDataFrame
"""
df_ind = df.copy()
# --- トレンド系:SMA(単純移動平均)---
df_ind['sma_7'] = ta.sma(df['close'], length=7)
df_ind['sma_25'] = ta.sma(df['close'], length=25)
df_ind['sma_99'] = ta.sma(df['close'], length=99)
# --- トレンド系:EMA(指数移動平均)---
df_ind['ema_12'] = ta.ema(df['close'], length=12)
df_ind['ema_26'] = ta.ema(df['close'], length=26)
# --- モメンタム系:RSI(相対力指数)---
# 70超 → 買われすぎ、30未満 → 売られすぎ
df_ind['rsi_14'] = ta.rsi(df['close'], length=14)
# --- モメンタム系:MACD ---
macd = ta.macd(df['close'], fast=12, slow=26, signal=9)
df_ind['macd'] = macd['MACD_12_26_9']
df_ind['macd_signal'] = macd['MACDs_12_26_9']
df_ind['macd_hist'] = macd['MACDh_12_26_9']
# --- ボラティリティ系:ボリンジャーバンド ---
bb = ta.bbands(df['close'], length=20, std=2)
df_ind['bb_upper'] = bb['BBU_20_2.0']
df_ind['bb_middle'] = bb['BBM_20_2.0']
df_ind['bb_lower'] = bb['BBL_20_2.0']
# バンド幅(ボラティリティの大きさを数値化)
df_ind['bb_width'] = (
(df_ind['bb_upper'] - df_ind['bb_lower']) / df_ind['bb_middle']
)
# --- ボラティリティ系:ATR(平均真の値動き)---
df_ind['atr_14'] = ta.atr(df['high'], df['low'], df['close'], length=14)
# --- 出来高系:OBV(オンバランスボリューム)---
df_ind['obv'] = ta.obv(df['close'], df['volume'])
# 最長ウィンドウ(SMA99)分のNaN行を削除
df_ind.dropna(inplace=True)
print(f"特徴量数: {len(df_ind.columns)} 列")
print(f"有効データ件数: {len(df_ind)}")
print(df_ind.tail())
return df_ind
df_with_features = add_technical_indicators(df)指標がズラーッと並んだDataFrameが完成ですヨ!!😆 コレが機械学習モデルへの「インプット」になりますネ✨
テクニカル指標の可視化で異常がないか確認する
コードを動かしたら、そのままモデルに突っ込まないことですヨ!!💡 まず目視で「変な値になってないか」を確認するクセをつけますネ♪
コレ見てよ!!スゴくナイ!?✨ matplotlibで一気に確認できちゃいますヨ!!
import matplotlib.pyplot as plt
def plot_indicators(df: pd.DataFrame, n: int = 200) -> None:
"""
主要テクニカル指標を可視化する
Args:
df: テクニカル指標付きのDataFrame
n: 直近何本分を表示するか
"""
df_plot = df.tail(n)
fig, axes = plt.subplots(4, 1, figsize=(14, 12), sharex=True)
# 価格 + ボリンジャーバンド
axes[0].plot(df_plot['close'], label='Close', color='black', linewidth=1.0)
axes[0].plot(df_plot['bb_upper'], label='BB Upper', color='blue', linestyle='--', alpha=0.6)
axes[0].plot(df_plot['bb_lower'], label='BB Lower', color='blue', linestyle='--', alpha=0.6)
axes[0].fill_between(df_plot.index, df_plot['bb_lower'], df_plot['bb_upper'], alpha=0.1)
axes[0].set_title('Close Price + Bollinger Bands')
axes[0].legend()
# RSI
axes[1].plot(df_plot['rsi_14'], label='RSI(14)', color='purple')
axes[1].axhline(70, color='red', linestyle='--', alpha=0.7)
axes[1].axhline(30, color='green', linestyle='--', alpha=0.7)
axes[1].set_title('RSI (14)')
axes[1].legend()
# MACD
axes[2].plot(df_plot['macd'], label='MACD', color='blue')
axes[2].plot(df_plot['macd_signal'], label='Signal', color='orange')
axes[2].bar(df_plot.index, df_plot['macd_hist'], label='Histogram', color='gray', alpha=0.5)
axes[2].set_title('MACD')
axes[2].legend()
# 出来高 + OBV
axes[3].bar(df_plot.index, df_plot['volume'], label='Volume', color='teal', alpha=0.5)
ax3b = axes[3].twinx()
ax3b.plot(df_plot['obv'], label='OBV', color='red', linewidth=0.8)
axes[3].set_title('Volume + OBV')
axes[3].legend(loc='upper left')
ax3b.legend(loc='upper right')
plt.tight_layout()
plt.savefig('indicators_check.png', dpi=150)
plt.show()
plot_indicators(df_with_features)チャートがバーッと出てきた瞬間ネ、「おお、RSIがちゃんと動いてる!!」ってテンション上がりますヨ😆✨
STEP 4 ― データリーク防止と時系列分割(ウォークフォワード法)による過学習対策
さあ、最後の関門ですヨ!!😤 ここを間違えると、「テストでは精度90%なのに本番では全然当たらない……」という過学習の罠にハマります!!💦 落ち着いてついてきてくださいネ!!
データリークとは何か:時系列分析における最大の落とし穴
「データリーク」とは、未来の情報がモデルの学習に混入してしまう現象ですネ💡
仮想通貨の時系列データでよくあるリークパターンはコレです!!
- スケーリングを全データに対して
fitしてから分割する(❌ NGパターン) - シャッフルしてからtrain/test分割する(❌ 時系列では絶対NG)
- テストデータの統計量が訓練データの前処理に混入する
正しくは、**「分割してから、訓練データだけでfitし、テストデータはtransformのみ」**ですヨ✨ コレを守るだけで精度評価の信頼性がガラッと変わりますネ!!
ウォークフォワード法による時系列分割の実装
通常のtrain_test_splitは時系列に使っちゃダメなんですヨ!!😭 時系列データには**ウォークフォワード法(TimeSeriesSplit)**を使いますネ💡 過学習を防ぐための鉄則ですヨ!!
コレ見てよ!!スゴくナイ!?✨ scikit-learnのTimeSeriesSplitを使えば、データリークなしの時系列分割が一発でできちゃいますヨ!!
from sklearn.model_selection import TimeSeriesSplit
from sklearn.preprocessing import MinMaxScaler
import numpy as np
def walk_forward_split(
df: pd.DataFrame,
n_splits: int = 5,
target_col: str = 'close'
) -> list:
"""
ウォークフォワード法による時系列分割(データリーク・過学習防止済み)
Args:
df: 特徴量DataFrame
n_splits: 分割数(デフォルト5)
target_col: 目的変数の列名
Returns:
(X_train, X_test, y_train, y_test, scaler) のリスト
"""
tscv = TimeSeriesSplit(n_splits=n_splits)
feature_cols = [col for col in df.columns if col != target_col]
X = df[feature_cols].values
y = df[target_col].values
splits = []
for fold, (train_idx, test_idx) in enumerate(tscv.split(X)):
X_train, X_test = X[train_idx], X[test_idx]
y_train, y_test = y[train_idx], y[test_idx]
# ポイント:訓練データのみでfit → テストはtransformのみ
scaler = MinMaxScaler(feature_range=(0, 1))
X_train_scaled = scaler.fit_transform(X_train)
X_test_scaled = scaler.transform(X_test)
splits.append((X_train_scaled, X_test_scaled, y_train, y_test, scaler))
print(f"Fold {fold + 1}: 訓練={len(train_idx)}件 / テスト={len(test_idx)}件")
return splits
splits = walk_forward_split(df_with_features, n_splits=5)
print(f"\n時系列分割完了!! {len(splits)} folds 準備OKデス✨")分割が完了した瞬間ネ、「これで過学習とおさらばだ!!」ってなりますヨ😆🎉 第2部ではこのsplitsをそのまま使ってモデルを回しますネ!!
データリークチェックリスト
念のため、出発前の確認リストをまとめておきますヨ💡
- スケーラーを訓練データだけで
fitしているか - テストデータに
transformのみ適用しているか - 時系列の順序を保ってデータを分割しているか(シャッフル禁止!!)
- テクニカル指標の計算に未来の値が使われていないか
-
dropna()でNaN行を除去した後に分割しているか
全部チェックできたら完璧ですネ!!✨
まとめ ― 仮想通貨価格予測の土台が完成!第2部へのバトンタッチ
お疲れ様でしたヨ、キミ!!✨ 長い道のりだったケド、ここまでで仮想通貨価格予測の土台となるデータ前処理パイプラインが完成しましたネ🎉
ちなみにサ、この記事を書いてる途中でローカル環境のPythonが壊れまして……依存関係の解決に半日溶かしちゃいましたヨ……仮想環境はちゃんと分けましょう!!って身をもって学んだやつです😅 キミは僕みたいな失敗をしないようにネ!!
本記事でやったこと・作ったもの
本記事でキミが実装したパイプラインをまとめちゃいますネ♪
| ステップ | 内容 | 完了!! |
|---|---|---|
| データ取得 | ccxtでBTC/USDTのOHLCV時系列データ取得 |
✅ |
| 欠損値処理 | forward-fill・線形補間で補完 | ✅ |
| 外れ値除去 | IQR法でフラッシュクラッシュを除去 | ✅ |
| 正規化・スケーリング | Min-Max・Robust・対数リターンを選択式で完全実装 | ✅ |
| 特徴量エンジニアリング | SMA/EMA/RSI/MACD/BB/ATR/OBVを一括生成 | ✅ |
| データリーク防止 | 分割後にfitする正しい手順を実装 | ✅ |
| 時系列分割 | ウォークフォワード法(TimeSeriesSplit)で5-fold | ✅ |
次のステップ:第2部ではLSTM・GRU・XGBoostで過学習に強いモデルを構築
ここで完成した高品質な学習データを使って、第2部ではいよいよ予測モデルを構築しますヨ!!🚀
第2部で扱う内容:
- LSTM(Long Short-Term Memory):時系列の長期依存関係を学習するニューラルネット
- GRU(Gated Recurrent Unit):LSTMより軽量で高頻度予測に強いモデル
- XGBoost:勾配ブースティングで過学習に強いアンサンブル手法
- ハイパーパラメータチューニング:Optunaで最適設定を自動探索
- モデル評価:RMSE・MAE・方向性精度で正しく評価する方法
「第1部がしっかりできてれば、第2部はスムーズに進むはずデス!!✨」ってのが僕の確信ですネ🎵
→ 第2部:LSTM・GRU・XGBoostによる仮想通貨価格予測モデルの構築(近日公開!!)
関連キーワードで理解を深めたい方へ
本記事で扱ったトピックをさらに掘り下げたい場合は、以下のキーワードで調べてみてくださいネ💡
- 時系列分析・時系列予測:時間的に並んだデータの統計的扱い方
- 特徴量エンジニアリング:生データから予測に役立つ特徴を作り出す技術
- 過学習・正則化:モデルが訓練データに特化しすぎる問題とその対策
- ウォークフォワード最適化:時系列専用の検証手法
- アンサンブル学習:複数モデルを組み合わせて精度を上げる技術
それじゃあネ、キミ!!第2部でまた会いましょう!!✨🦝
本記事に誤り・改善点があればコメントで教えてくださいネ!!一緒に良い記事を作っていきましょう!!😆