実践 GBDTの気持ちになって考える特徴量エンジニアリング XGBoostをはじめとするGBDT(勾配ブースティング決定木)は、数多くのタスクで高い予測性能を発揮する強力なモデルです。しかし、その真のポテンシャルを引き出すためには、適切な特徴量エンジニアリングが不可欠です。ここでは、私の経験をもとに、GBDTが効果的に活用できる特徴量の作り方や評価方法について解説します。 2025.03.02 実践
実践 実装しながら学ぶGBDT(マルチクラス分類器) 本記事では、勾配ブースティング(Gradient Boosting)を用いたマルチクラス分類器、GBDT(Gradient Boosting Decision Tree)の仕組みについて実装コードとともに解説します。ここでは、回帰木を基本ブロックとして用い、各ブースティングステップで残差(疑似勾配)を学習することで、多クラスのロジスティック損失を最小化する方法について説明します。 2025.02.28 実践
実践 実装しながら学ぶランダムフォレスト 本記事では、決定木を基礎とした ランダムフォレスト (Random Forest) の仕組みと、その実装方法について詳しく解説します。決定木の基本概念から、ランダムフォレストがどのように複数の決定木を組み合わせることで高い汎化性能を実現しているのか説明していきます。また、実装コード(カスタムの決定木およびランダムフォレストの実装)も合わせて提示するので、実際に動作を確認しながら学習を進めることができます。 2025.02.28 実践
実践 決定木 (分類)(DecisionTreeClassifier) のしくみと実装解説 本記事では、XGBoostをはじめとするGBDTモデルの基礎にある、決定木(分類) (Decision Tree Classifier) の仕組みについて、初学者にもわかりやすいように実装コードとともに説明していきます。 2025.02.28 実践
実践 【初学者向け】LGBM/CatBoost版 パラメータ – ベースライン付ガイド LGBM/CatBoostで、まずはこれだけ覚えておけば間違いないハイパーパラメータをご紹介します。ベースライン値とどのように調整していけばいいのか、コード例付きで解説しています。 2025.02.27 実践
実践 【初学者向け】XGBoostのパラメータ – ベースライン付ガイド XGBoostは、言わずと知れたKaggleや実務で広く利用される強力な機械学習ライブラリです。今回は、初心者の方向けに、実践的にパラメータをどのように調整していけば良いのかを、優先度の高いパラメータを中心に分かりやすく解説します。 2025.02.25 実践
実践 【Kaggle】テーブルデータコンペで活躍するモデル 勾配ブースティング木(GBDT)系モデル、つまりXGBoost、LightGBM、CatBoostは非常に強力なモデルですが、それ以外にも有力な選択肢が存在します。ここでは、数理的な詳細には踏み込まずに、上位入賞者によく使われるモデルについて網羅的に解説します。 2025.02.25 実践