optimisation

Gradient descent – l’algorithme du gradient

Gradient descent ou algorithme du gradient est un processus itératif qui permet de calculer le minimum d’une fonction. Cet algorithme est beaucoup utilisé en Machine Learning. Dans cet article, nous présenterons l’algorithme du gradient, comment il fonctionne et un exemple pratique. Qu’est-ce que le gradient descent ? Le gradient descent est un algorithme d’optimisation qui …

Gradient descent – l’algorithme du gradient Lire la suite »

Problème du sac à dos

Programmation linéaire – Problème du sac à dos

L’optimisation consiste à trouver le minimum d’une fonction objectif qui décrit mathématiquement un problème. La programmation linéaire n’est rien de plus que de l’optimisation sur des fonctions objectifs décrites par les équations linéaires. Dans cet article nous verrons comment résoudre un problème d’optimisation linéaire. À travers, le très célèbre problème du sac à dos que …

Programmation linéaire – Problème du sac à dos Lire la suite »