:orphan: |rss_image| **2018-11 - 1/1** :ref:`Blog ` :ref:`article (8) ` :ref:`articles (3) ` :ref:`cours (6) ` :ref:`module (7) ` :ref:`paper (3) ` .. |rss_image| image:: feed-icon-16x16.png :target: ../_downloads/rss.xml :alt: RSS ---- .. index:: 2018-11 .. _ap-month-2018-11-0: 2018-11 - 1/1 +++++++++++++ .. blogpostagg:: :title: Quelques modules intéressants :date: 2018-11-30 :keywords: pyFFTW,fftw3,DTW,kNN,Flt-SNE :categories: modules :rawfile: 2018/2018-11-30_module_interessent.rst * `pyFFTW `_ (`fftw3 `_) * `K Nearest Neighbors & Dynamic Time Warping `_ * `FFT-accelerated Interpolation-based t-SNE (FIt-SNE) `_ * `py-spy `_ * `kalman-filter `_ Depuis le site `Awesome Functional Python `_ : ... .. blogpostagg:: :title: Machine et sécurité :date: 2018-11-15 :keywords: security,machine learning :categories: machine learning :rawfile: 2018/2018-11-15_malware.rst Recommandation depuis `PyParis `_ : `Malware Data Science: Attack Detection and Attribution `_, Joshua Saxe with Hillary Sanders. .. blogpostagg:: :title: KBinsDiscretizer :date: 2018-11-15 :keywords: KBinsDiscretizer,modèle interprétable :categories: machine learning :rawfile: 2018/2018-11-15_kbins.rst Le modèle linéaire est facilement interprétable mais ne marche pas aussi bien qu'une random forest. Pourquoi le pas utiliser des modèles linéaires par morceaux. Il suffit juste de découper l'espace des features en morceaux ce que fait le `KBinsDiscretizer `_. Et ça marche plutôt bien, particulièrement lorsque les données sont peu nombreuses. .. blogpostagg:: :title: dirty-cat(égories) :date: 2018-11-15 :keywords: dirty-cat,variable catégorielle :categories: machine learning :rawfile: 2018/2018-11-15_dirtycat.rst Je suis assis à côté de Gaël Varoquaux qui me raconte son dernier papier sur :epkg:`dirty-cat` pour traiter des colonnes catégorielles avec beaucoup de catégories et qui se ressemblent : ... ---- |rss_image| **2018-11 - 1/1** :ref:`2022-10 (1) ` :ref:`2022-12 (2) ` :ref:`2023-01 (1) ` :ref:`2023-02 (1) ` :ref:`2023-04 (1) `