RSS 2020-10 - 1/1 Blog


2020-10 - 1/1#

Infinite dans une conversion de float64 en float32#

2020-10-25

C’est le genre de petits détails numériques qui font qu’un calcul échoue sans qu’on se doute le plus souvent qu’une erreur s’est glissée quelque part. Le type float32 est très utilisé dans le cas des réseaux de neurones profonds car le calcul peut alors être fait sur CPU et GPU. Dans le cas du machine learning classique, avec scikit-learn, c’est le type float64 est qui le plus souvent utilisé. Dès lors, il arrrive qu’on doivent convertir des réels d’un type à l’autre.

article


RSS 2020-10 - 1/1 2017-07 (1) 2018-03 (1) 2018-04 (1) 2018-10 (1) 2020-10 (1)