La théorie face à la pratique#
- 2A.ml - Tree, hyperparamètres, overfitting
- Données générées
- Différents arbres de décision
- Random Forest
- Base d’apprentissage et et base de test
- Exercice 1 : déterminer les paramètres optimaux pour cet exemple
- Exercice 2 : ajouter quelques points aberrants
- Intervalles de confiance
- XGBoost
- Exercice 3 : optimiser les hyperparamètres pour XGBoost et scikit-learn et comparer
- 2A.ml - Features ou modèle
- 2A.ml - Problèmes classiques de machine learning illustrés
- 2A.ml - Boosting, random forest, gradient - les features qu’ils aiment
- 2A.ml - Interprétabilité et corrélations des variables
- 2A.data - Classification, régression, anomalies - correction
- Gradient Boosting