RSS session - 1/3 ==> Blog session (23)


session - 1/3#

Plan séance 5#

2022-02-25

Voici le plan prévu pour la première séance du cours de machine learning pour l’économie et la finance.

article

Plan séance 4#

2022-02-18

Voici le plan prévu pour la première séance du cours de machine learning pour l’économie et la finance.

article

Plan séance 3#

2022-02-11

Voici le plan prévu pour la première séance du cours de machine learning pour l’économie et la finance.

article

Plan séance 2#

2022-02-04

Voici le plan prévu pour la première séance du cours de machine learning pour l’économie et la finance.

article

Plan séance 1#

2022-01-28

Voici le plan prévu pour la première séance du cours de machine learning pour l’économie et la finance.

article

Plan des séances#

2021-01-28

Voici le plan prévu pour les cinq séances du cours de machine learning pour l’économie et la finance.

article

Plan pour la session du 23#

2020-03-23

Scrapping

Séries temporelles

Le module standard est statsmodels qui implémente tous les modèles linéaires associés aux séries temporelles. Récemment, le module prophet l’a supplanté avec plus d’options pour prédire, extraire la tendance, lissé, extraire la saisonnalité. Une approche assez nouvelle consiste à décomposer la série pour extraire les changements de tendance : changement de tendances, le module peut tenir compte des jours fériés. Trois notebooks extraits de la page Timeseries - Séries temporelles.

article

Plan pour la session du 21#

2020-02-21

Importance des variables

  • feature importance
    • When training a tree we can compute how much each feature contributes to decreasing the weighted impurity.

    • que dire des variables corrélées ?

  • permutation importance
    • On permute les valeurs dans une colonne de features, on mesure la perte en performance par rapport au score sans permutation.

    • Random Forest

  • Dépendances partielles
    • Partial dependence of a feature (or a set of features) corresponds to the average response of an estimator for each possible value of the feature.

    • Partial dependance plots

Interprétation locales

  • LIME (Local Interpretable Model-Agnostic Explanations)
    • Approximer localement la prédiction d’un modèle par un modèle interprétable (comme une régression Lasso), cela revient en quelque sorte à calculer le gradient du modèle en chaque feature pour un point donnée.

    • blog/lime.png
    • Simplifier l’analyse en groupant les variables (pixels) si trop de variables

  • SHAP (SHapley Additive exPlanations)
    • Value d’une variable : on calcule l’espérance de la prédiction en tirant aléatoirement des valeurs pour cette variable (loi marginal),

    on fait la différence avec la prédiction moyenne.

  • CounterFactual
    • Dérivées partielles

    • La prédiction est Y, on souhaite Z, quelle est le plus petit changement dans X pour avoir Z ?

article

Plan pour la session du 14#

2020-02-14

article

Régression Lasso, Ridge#

2020-02-07

Le notebook Régression Ridge, Lasso et nouvel estimateur reprend ce qui a été développé durant la dernière session, à savoir la régression Ridge, Lasso qui permet de sélectionner les variables, puis l’API de scikit-learn et une façon de créer ses propres modèles.

article


RSS session - 1/3 ==> 2020-02 (3) 2020-03 (1) 2021-01 (1) 2022-01 (1) 2022-02 (4)