.. blogpost:: :title: Ajout de références modules :keywords: nmt :date: 2018-04-05 :categories: biblio Dans :ref:`l-nmt-traduction-auto` : * `Neural Machine Translation `_ * `marian-nmt `_ * `NMT-Keras `_ Dans :ref:`l-ml2a-object-detection` : * `Pascal VOC Dataset `_ Dans :ref:`l-ml2a-reconstruction-image` : * `Deep Image Prior `_ Dans :ref:`l-td2a-reinforcement-learning-marl` : * `A reinforcement learning algorithm for building collaboration in multi-agent systems `_ Dans :ref:`l-ml2a-communities` : * `Discovering the hidden community structure of public transportation networks `_ Dans :ref:`l-ml2a-autolearning`: * `Generating Neural Networks with Neural Networks `_ Dans :ref:`l-ml2a-reddim` : * `mQAPViz: A divide-and-conquer multi-objective optimization algorithm to compute large data visualizations `_ Dans :ref:`l-td2a-ml-extensions` : * `Generalized Random Forests `_ * `Gradient Boosting With Piece-Wise Linear Regression Trees `_, ils affirment être meilleur que :epkg:`xgboost` et :epkg:`lightgbm` (implémentation `GBDT-PL `_) Dans :ref:`l-ml2a-graph-embedding` : * `Graph2Seq: Graph to Sequence Learning with Attention-based Neural Networks `_ Dans :ref:`l-ml2a-seqlearn` : * `A ten-minute introduction to sequence-to-sequence learning in Keras `_ * `Translation with a Sequence to Sequence Network and Attention `_ * `Neural Machine Translation in Linear Time `_ * `Attention Is All You Need `_ Dans :ref:`l-ml2a-testab` : * `Should We Condition on the Test for Pre-trends in Difference-in-Difference Designs? `_ Dans :ref:`l-td2a-reinforcement-learning` : * `Renewal Monte Carlo: Renewal theory based reinforcement learning `_ * `Universal Planning Networks `_ : utilisation de l'apprentissage par renforcement pour caler la progression du bras d'un robot vers la saisie d'une pièce lorsque le chemin est obstrué. Dans :ref:`l-ml2a-selvar` : * `Variable selection using pseudo-variables `_ : l'article utilise la pénalisation pour classer les variables par importance, plus le modèle est pénalisé (type :epkg:`Lasso`), plus il réduit le nombre de variables. Dans :ref:`l-interpretabilite-ml` : * `Interpretable Policies for Reinforcement Learning by Genetic Programming `_ Dans :ref:`l-ml2a-resolu-detobj3d` : * `PointNet++: Deep Hierarchical Feature Learning on Point Sets in a Metric Space `_ * `3DContextNet: K-d Tree Guided Hierarchical Learning of Point Clouds Using Local and Global Contextual Cues `_ Inclassables : * `Robust Fusion Methods for Structured Big Data `_ * `A Method for Finding Trends in Software Research `_ * `Near-Optimality Recovery of Linear and N-Convex Functions on Unions of Convex Sets `_ * `Minimax Filter: Learning to Preserve Privacy from Inference Attacks `_ : l'article se pose la question de savoir comment empêcher qu'un modèle complexe soit utilisée pour une autre tâche. L'exemple choisi est celui d'un modèle de reconnaissance d'émotions dans un visable, comment éviter que celui-ci ne soit utilisé à l'identification des visages ? * `Knowledge Graph Completion via Complex Tensor Factorization `_ : l'article s'intéresse aux graphes, sociaux, savoir. Comment classer une relation en relation hiérarchique ? Un module : * :epkg:`thorpy` qui implémente des fenêtres façon :epkg:`tkinter` pour :epkg:`pygame` Et d'autres que je n'ai pas encore triés : * `3DContextNet: K-d Tree Guided Hierarchical Learning of Point Clouds Using Local and Global Contextual Cues `_ * `Automatic Salient Object Detection for Panoramic Images Using Region Growing and Fixation Prediction Model `_ * `Prediction and Localization of Student Engagement in the Wild `_