Les méthodes plus avancées d'optimisation avec ou sans contraintes nécessitent le calcul des dérivées de la fonction. En ce sens, la différentiation automatique est devenue un outil primordial. Malgré le fait qu'il soit omniprésent, cet outil est encore en développement et en recherche. Il ne présente pas les inconvénients classiques des méthodes habituelles de dérivation mais reste complexe à utiliser. Ce travail consiste à utiliser un outil de différentiation permettant de calculer des dérivées d'ordres supérieurs afin d'obtenir des directions améliorées. Nous définirons d'abord de manière générale un type d'algorithme d'optimisation à l'aide des directions suffisamment descendantes. Leurs caractéristiques seront analysées pour modifier des méthodes de type Newton afin d'avoir une meilleure fiabilité de convergence. Nous étudierons les opérations critiques et l'ordre du coût de ces méthodes. Dans une deuxième partie, nous verrons les calculs d'algèbre linéaire requis pour nos algorithmes. Ensuite, nous présenterons le fonctionnement de la différentiation automatique et en quoi c'en est un outil indispensable à ce genre de méthode. Puis, nous expliquerons pourquoi nous avons choisi l'outil Tapenade pour la différentiation automatique et la librairie de Moré, Garbow, Hillstrom pour la collection de fonctions tests. Enfin, nous comparerons les méthodes de type Newton.
Identifer | oai:union.ndltd.org:usherbrooke.ca/oai:savoirs.usherbrooke.ca:11143/4884 |
Date | January 2010 |
Creators | Cotte, Romain |
Contributors | Dussault, Jean-Pierre |
Publisher | Université de Sherbrooke |
Source Sets | Université de Sherbrooke |
Language | French |
Detected Language | French |
Type | Mémoire |
Rights | © Romain Cotte |
Page generated in 0.0018 seconds