Spelling suggestions: "subject:"algorithme""
691 |
Méthodes de Monte Carlo en Vision StéréoscopiqueSenegas, Julien 13 September 2002 (has links) (PDF)
Cette thèse a pour objet l'étude de l'incertitude attachée à l'estimation de la géometrie d'une scène à partir d'un couple stéréoscopique d'images. La mise en correspondance des points homologues d'un couple suppose la similarité locale des deux images et nécessite une information radiométrique discriminante. Dans de nombreuses situations cependant (déformations géométriques, bruit d'acquisition, manque de contraste, ....), ces hypothèses sont mises en défaut et les erreurs d'appariemment qui en résultent dépendent fortement de l'information contenue dans le couple et non du sytème stéréoscopique lui-meme. <br />Afin d'aborder ce problème, nous proposons un cadre bayésien et l'application de méthodes de Monte Carlo par chaînes de Markov. Celles-ci consistent à simuler la distribution conditionnelle du champ de disparité connaissant le couple stéréoscopique et permettent de déterminer les zones où des erreurs importantes peuvent apparaitre avec une probabilité éventuellement faible. Différents modèles stochastiques sont comparés et testés a partir de scènes stéréoscopiques SPOT, et nous donnons quelques pistes pour étendre ces modèles à d'autres types d'images. Nous nous intéressons également au probleme de l'estimation des paramètres de ces modèles et proposons un certain nombre d'algorithmes permettant une estimation automatique. Enfin, une part importante du travail est consacrée à l'étude d'algorithmes de simulation reposant sur la théorie des chaînes de Markov. L'apport essentiel réside dans l'extension de l'algorithme de Metropolis-Hastings dans une perspective multi-dimensionnelle. Une application performante reposant sur l'utilisation de la loi gaussienne est donnée. De plus, nous montrons comment le recours à des techniques d'échantillonnage d'importance permet de diminuer efficacement le temps de calcul.
|
692 |
Optimisation numérique et contrôle optimal : applications en chimie moléculaireBen Haj Yedder, Adel 13 December 2002 (has links) (PDF)
Ce travail porte, pour l'essentiel, sur l'application des méthodes de contrôle et d'optimisation au contrôle par laser des systèmes moléculaires. La partie principale (Chapitre 1 à 6) est consacrée à l'étude du contrôle par laser de l'orientation moléculaire. Il s'agit de trouver un champ laser capable d'orienter une molécule linéaire le long de l'axe de ce laser. Le premier chapitre présente une introduction générale et passe en revue l'ensemble des méthodes d'optimisation utilisées pour le résoudre. Les chapitres suivants présentent avec plus de détails les différentes méthodes utilisées pour le problème de contrôle par laser (Chapitres 2 et 3) et les principaux résultats obtenus (Chapitres 4,5 et 6).<br />Dans le Chapitre 7, on présente des résultats préliminaires sur un autre problème de contrôle par laser utilisant les mêmes outils que ceux présentés dans le premier chapitre. Ce problème concerne l'optimisation de la génération d'harmoniques hautes (HHG) par un atome d'hydrogène excité par un champ laser dans le but de favoriser la création d'un champ laser ultra-court (laser attoseconde).<br />Dans le Chapitre 8, on présente des outils numériques développés spécifiquement pour traiter des problèmes d'optimisation de géométrie pour la chimie moléculaire.<br />Dans ce problème on cherche à optimiser la position de N particules dont l'énergie d'interaction est donnée (entre autres) par le potentiel de Lennard-Jones.<br />Enfin, le chapitre 9 est consacré à des résultats théoriques sur le problème Optimized Effective Potential (OEP) pour la minimisation de l'énergie de Hartree-Fock.<br />Dans ce problème on se pose la question de la validité de la simplification qui consiste à remplacer les équations de Hartree-Fock par des équations aux valeurs propres plus simples.
|
693 |
Méthodologie de partitionnement logiciel/matériel pour plateformes reconfigurables dynamiquementBen Chehida, Karim 30 November 2004 (has links) (PDF)
On parle de plus en plus de systèmes (ou plateformes) reconfigurables qui intègrent sur un même substrat un ou plusieurs cœurs de processeurs et une matrice programmable (ex: Excalibur d'Altera, Virtex 2-Pro et Virtex 4-Fx de Xilinx). Par ailleurs, tout un champ technologique émerge actuellement dans le domaine de la reconfiguration dynamique. Le concepteur se retrouve face à des choix d'implantations logicielles (spécifiques ou génériques) et matérielles (figées ou reconfigurables) pour les différentes parties de l'application. Pour les prochaines générations de systèmes, la complexité croissante nécessite de faire appel à des méthodes et outils d'aide à la prise de décisions. Il est donc nécessaire d'étendre ou de repenser les approches de conception actuelles afin de les adapter aux possibilités offertes par les technologies reconfigurables.<br />Cette thèse propose une méthode automatique de partitionnement logiciel/matériel qui cible des systèmes mixtes logiciel et matériel reconfigurable dynamiquement et a pour objectif de minimiser le temps d'exécution global sous contrainte de surface maximale. Elle offre un flot complet à partir de la spécification au niveau système de l'application (écrite en SSM : formalisme graphique du langage synchrone Esterel) jusqu'à son raffinement vers les outils de niveau RTL. La méthode, basée sur un algorithme génétique, prend en compte les spécificités de l'architecture reconfigurable en ajoutant au partitionnement spatial (ou affectation) classique une étape de partitionnement temporel afin de distribuer dans le temps les configurations successivement implantées sur le reconfigurable. Les performances sont évaluées par une étape d'ordonnancement qui prend en compte les temps de communication et ceux dus aux changements de configurations.
|
694 |
Incidence de la régulation d'un carrefour à feux sur le risque des usagers; Apprentissage d'indicateurs par sélection de données dans un fluxSaunier, Nicolas 08 April 2005 (has links) (PDF)
Dans le cadre de la régulation des carrefours à feux et du développement d'outils intégrés de gestion du trafic, notre recherche consiste à construire un système d'analyse des données d'observation d'un carrefour. Nous utilisons un dispositif expérimental d'observation automatique d'un carrefour réel basé sur des capteurs vidéo et une base d'enregistrements de scènes de trafic, qui nous permet de comparer l'incidence relative de deux stratégies, une stratégie de référence et une stratégie adaptative temps-réel, appelée CRONOS et développée à l'INRETS. <br /><br />Nous nous intéressons aux interactions entre véhicules et à leur relation à l'accident, appelée sévérité. Nous proposons une modélisation des interactions entre les véhicules dans un carrefour, et étudions particulièrement la zone de conflit. Nous mesurons les durées d'interactions et qualifions à chaque instant la sévérité des interactions détectées selon deux indicateurs, un indicateur de proximité et un indicateur de vitesse. Notre système modulaire détecte les interactions à l'aide de règles expertes explicites. Pour les indicateurs de sévérité, nous développons une méthode d'apprentissage générique, par sélection de données dans un flux. Cette méthode est testée sur l'apprentissage de l'indicateur de vitesse, et sur d'autres problèmes classiques. <br /><br />Nous utilisons le système développé pour traiter une partie des données de la base. Nous étudions les distributions des durées d'interaction selon les indicateurs de sévérité et mettons en évidence des différences entre les stratégies comparées.
|
695 |
Théorèmes limites fonctionnels pour des U-statistiques échantillonnéees par une marche aléatoire. Étude de modèles stochastiques de repliement des protéinesLadret, Véronique 02 July 2004 (has links) (PDF)
Cette thèse se décompose en deux parties indépendantes. Notre objectif dans la première partie est d'étudier le comportement asymptotique des $U$-statistiques, basées sur des noyaux d'ordre 2, échantillonnées par une marche aléatoire. Plus précisément, on se donne $(S_n)_(n \in \N)$ une marche aléatoire sur $\Z^d$, $d \geq 1$ et $(\xi_x)_(x \in \Z^(d))$ une collection de variables aléatoires indépendantes, identiquement distribuées, indépendante de $(S_n)_(n \in \N)$. On note $\mu$ la loi de $\xi_0$ et l'on désigne par $h : \R^2\ra \R$, une fonction mesurable, symétrique, telle que $h \in L^2(\mu\otimes\mu)$. On s'intéresse au comportement asymptotique de la suite de processus, $$ \cU_n(t)=\sum_(i,j=0)^([nt])h(\xi_(S_i), \xi_(S_j)), \quad t\in[0,1], \quad n=0,1,\ldots, $$ à valeurs dans $\cD([0,1])$, l'espace des fonctions c.à.l.à.g. définies sur $[0,1]$, muni de la topologie de Skorohod. Cabus et Guillotin ont obtenu la distribution asymptotique de ces objets, dans le cas où la marche aléatoire, $(S_n)_(n \in \N)$, est récurrente sur $\Z^2$, ainsi que dans le cas où elle est transiente sur $\Z^d$, pour $d\geq3$. Elles ont également conjecturé la forme de la distribution limite, dans le cas de la marche aléatoire simple, symétrique, sur $\Z$. Dans le cas où $\Sn$ appartient au domaine d'attraction d'une loi stable d'indice $1<\alpha\leq2$, nous prouvons deux théorèmes limites fonctionnels, décrivant le comportement asymptotique de $\(\cU_n, n=1,2,\ldots\)$. Nous démontrons ainsi, la conjecture de Cabus et Guillotin. Par ailleurs, nous donnons une nouvelle preuve de leurs résultats.\\ Dans une seconde partie, nous étudions le comportement asymptotique du temps d'atteinte de deux versions d'un algorithme d'évolution simplifié, modélisant le repliement d'une protéine : le $(1+1)$-EA sur le problème LeadingOnes. Pour chaque algorithme nous donnons une loi des grands nombres, un théorème central limite et nous comparons la performance des deux modèles.\\
|
696 |
Contribution à l'identification récursive des systèmes par l'approche des sous-espacesMercère, Guillaume 07 December 2004 (has links) (PDF)
Le travail présenté dans ce mémoire concerne l'étude et le développement de méthodes d'identification récursive. Le chapitre 2 présente une synthèse des principaux algorithmes adaptatifs classiques fondés sur les moindres carrés. Les difficultés rencontrées lors de l'utilisation de telles approches dans certaines situations pratiques motivent la création de techniques récursives employant la forme d'état. Ce type de représentation a démontré son efficacité en identification grâce à l'émergence des méthodes hors ligne des sous-espaces. Ainsi, le chapitre 3 propose une description des algorithmes MOESP. Ces derniers sont en effet considérés comme le point de départ des techniques récursives des sous-espaces. Bien que robuste, la décomposition en valeurs singulières (DVS) employée par ces méthodes les rend inapplicables en ligne de par sa charge calculatoire. Le chapitre 4 est dédié à un état de l'art des algorithmes récursifs des sous-espaces énoncés jusqu'en 2003. Ces méthodes ont en commun d'adapter un critère particulier de traitement d'antennes conduisant à des techniques alternatives à la DVS. Une description de ces algorithmes dans un contexte unifié est plus précisément présentée. Ces techniques présentent néanmoins un certain nombre de limitations principalement liées à la fonction coût utilisée. Afin de remédier à ces inconvénients, nous développons, au sein du chapitre 5, de nouvelles méthodes récursives des sous-espaces. L'approche proposée consiste à adapter un opérateur particulier du traitement d'antennes jusqu'alors inexploité en identification : le propagateur. L'ajustement de ce dernier au problème d'identification récursive permet d'obtenir des critères quadratiques sans approximation et sans contrainte. Le problème des perturbations est traité en introduisant une variable instrumentale. L'étude expérimentale sur des données réelles et simulées est réalisée dans le chapitre 6.
|
697 |
Modélisation des processus émotionnel dans la prise de décisionMahboub, Karim 22 November 2011 (has links) (PDF)
L'émotion est indissociable des processus cognitifs et joue par conséquent un rôle majeur dans la prise de décision. De ce fait, elle occupe une place de plus en plus importante dans la recherche scientifique actuelle. L'objectif de cette thèse est de révéler l'intérêt que peut présenter une approche émotionnelle, et de prouver que des modèles informatiques dotés d'émotions artificielles peuvent dans certains cas s'avérer plus performants que leurs équivalents purement cognitifs. Partant de ce constat, deux modèles de l'émotion ont été réalisés sous différentes perspectives d'étude. Ils soulignent l'impact de l'ajout d'une dimension émotionnelle dans l'élaboration d'une décision rapide, efficace et adaptée. Le premier modèle développé utilise un graphe de représentation de stratégies afin de résoudre un exercice de mathématiques proposé à des élèves de CM2, intitulé "problème des Cascades". L'émotion y est représentée en tant que valuation des arêtes au sein du graphe, la dynamique de ce dernier étant assurée par un algorithme fourmi. Les tests effectués sur deux versions, l'une émotionnelle et l'autre purement cognitive, montrent que l'utilisation d'un modèle émotionnel permet une résolution plus efficace et adaptative. Par ailleurs, un second modèle, nommé GAEA vise à simuler un robot équipé de capteurs et effecteurs, et plongé dans un environnement proie-prédateurs au sein duquel il doit survivre. Son comportement est déterminé par son programme interne, évoluant grâce à un algorithme de programmation génétique linéaire manipulant une population d'individus-programmes. Les résultats sont prometteurs et indiquent une évolution de la population vers des individus au comportement de plus en plus adapté, et dont l'activité interne est analogue à l'émergence de réactions émotionnelles pertinentes.
|
698 |
IMPACT DE LA GENERATION D'ENERGIE DISPERSEE DANS LES RESEAUX DE DISTRIBUTIONCanard, Jean-François 12 December 2000 (has links) (PDF)
Les réseaux électriques sont actuellement en pleine mutation du fait de la dérégulation du secteur électrique. L'une des conséquences de la dérégulation est l'apparition de génération d'énergie dispersée dans les réseaux de distribution. Cette introduction de production d'énergie au sein des réseaux de distribution existants n'est pas sans effet sur ceux-ci. Le travail réalisé dans le cadre de cette thèse a permis d'identifier et d'étudier les principaux impacts de la génération d'énergie dispersée sur les réseaux de distribution (impact sur le plan de tension, sur les courants de courtcircuit, sur la stabilité, sur les temps d'élimination critique de défaut, etc.). Ces impacts sont mis en évidence par des simulations numériques et des outils de la théorie petits signaux (valeurs propres et facteurs de participation). De ce travail d'identification, des algorithmes d'optimisation sont utilisés afin d'insérer au mieux cette génération d'énergie dispersée dans les réseaux de distribution. Les algorithmes d'optimisation (algorithme du Minimax, génétique, simplexe et recuit simulé) sont mis en oeuvre pour améliorer le profil de tension des réseaux de distribution en présence de génération d'énergie dispersée. Certains de ces algorithmes sont aussi utilisés pour coordonner les gains contenus dans les régulations des générations d'énergie dispersées afin d'améliorer la stabilité des réseaux. Des indices d'influence sont aussi définis afin d'identifier les zones d'influence de la génération d'énergie dispersée sur les réseaux de distribution.
|
699 |
Analyse des produits lourds du pétrole par spectroscopie vibrationnelleLaxalde, Jérémy 16 January 2012 (has links) (PDF)
L'objectif de cette thèse est le développement d'une analyse rapide pour la caractérisation des produits lourds du pétrole. Des modèles de prédiction de propriétés des produits lourds ont été développés à partir des spectroscopies moyen infrarouge (MIR) et proche infrarouge (PIR). Ce travail a principalement porté sur l'optimisation des modèles prédictifs des teneurs en composés saturés, aromatiques, résines et asphaltènes (SARA). Une optimisation simultanée par algorithmes génétiques du choix des prétraitements des données spectrales et des variables à sélectionner a été évaluée. Cette approche a permis de conduire au meilleur pouvoir prédictif des modèles PIR et a montré le potentiel d'interprétation des variables sélectionnées. Une étude de comparaison des modèles développés séparément à partir des spectres MIR et PIR a ensuite été réalisée. La spectroscopie PIR s'est révélée être globalement plus performante dans le cadre de notre application. Il a également été démontré que la fusion de données spectroscopiques pouvait améliorer la qualité des prédictions. Au vu des résultats, il semble nécessaire que les modèles développés séparément à partir de ces spectroscopies conduisent à des performances similaires pour espérer une amélioration lors de la fusion des données spectrales. Le potentiel de l'interprétation des techniques de régression à blocs multiples a également été confirmé pour identifier les informations spectrales spécifiques contenues dans les spectres MIR et PIR. Enfin, les modèles de prédiction de la densité, des teneurs en SARA, en carbone Conradson, en hydrogène, en soufre et en azote ont été jugés satisfaisants pour une utilisation au laboratoire.
|
700 |
Optimisation de forme en forgeage 3DDo, Tien Tho 04 July 2006 (has links) (PDF)
Ce travail de thèse a pour but l'optimisation de forme en forgeage 3D. Les problèmes à résoudre consistent à chercher la forme optimale du lopin initial ou des outils de préforme afin de minimiser une fonction coût F qui représente une mesure de non-qualité définie par les industriels. Ce sont souvent des problèmes multi optima, et le temps nécessaire pour une évaluation de la fonction coût est très élevé (de l'ordre de la journée). L'objectif de cette thèse est de construire un module d'optimisation automatique qui permet de localiser l'extremum global à un coût raisonnable (moins de 50 calculs de la fonction coût à chaque optimisation). La simulation du procédé est effectuée avec le logiciel éléments finis FORGE3®. Les formes axisymétrique des pièces initiales ou des outils de préforme (dans le cadre du forgeage multi-passes) sont paramétrées en utilisant des polygônes quadratiques ou des courbes Bsplines. Différentes fonctions coûts sont considérées, comme l'énergie totale de forgeage ou la mesure non-qualité de la surface (défaut de repli). Le gradient de ces fonctions coûts est obtenu par la méthode de l'Etat Adjoint combinée avec la méthode de différentiation semi-analytique. Dans ce travail, afin d'aborder une famille de procédés de forgeage plus vaste, ce calcul du gradient (initié dans la thèse de M. Laroussi) a été étendu aux paramètres de forme des outils de préformes dans le cadre du forgeage multi passes.Différents algorithmes d'optimisation ont été étudiés : un algorithme BFGS standard, un algorithme de type asymptotes mobiles, une stratégie d'évolution couplée avec une surface de réponse basée sur le Krigeage et deux nouveaux algorithmes hybrides proposés dans le cadre de ce travail. Cette approche hybride consiste à coupler un algorithme génétique avec une méthode de surface de réponse pour réduire le nombre d'évaluations de la fonction coût. Tous les algorithmes étudiés sont comparés sur deux problèmes caractéristiques de forgeage 3D, respectivement l'optimisation de la géométrie de la préforme et celle des outils de préforme. Les résultats obtenus montrent la faisabilité de l'optimisation de forme en forgeage 3D, c'est-à-dire l'obtention de résultats satisfaisant en moins de 50 simulations 3D et la robustesse des algorithmes à base de méta-modèle.
|
Page generated in 0.07 seconds