• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 49
  • 12
  • 6
  • Tagged with
  • 67
  • 67
  • 24
  • 23
  • 22
  • 21
  • 18
  • 17
  • 17
  • 15
  • 13
  • 11
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Tomographie électrique: Développements Méthodologiques et Applications.

Pessel, Marc 27 October 2000 (has links) (PDF)
La tomographie électrique est une méthode géophysique permettant d'obtenir la répartition de la conductivité des roches à partir de mesures de potentiel électrique. Une large partie de cette thèse est constituée d'un développement méthodologique concernant l'interprétation des données électriques. ~interprétation des données se décompose en deux problèmes : le problème direct et le problème inverse. Le problème direct permet d'obtenir le champ de potentiel électrique en fonction de la distribution de conductivité. Il permet donc de tester les modèles de conductivité fournis par le problème inverse qui explorent l'espace des solutions afin de converger vers le meilleur modèle. Le problème direct est résolu numériquement via une méthode mu Itigrille qui permet de résoudre rapidement de larges systèmes linéaires. Une paramétrisation multi-échelle et adaptative est utilisée pour la résolution du problème inverse. Cette paramétrisation évolue pendant le processus d'inversion afin d'aboutir à une paramétrisation optimale. Ceci rend le problème fortement non-linéair e et donc seules des méthodes inverses pleinement non-linéaires comme le reouit simulé sont envisageables. Le couplage du recuit simulé et de la descente du simplexe permet d'obtenir une méthode inverse hybride. Les tests synthétiques ont permis de montrer l'intérêt d'une paramétrisation multi-échelle adaptative. Effectivement lorsque cette paramétrisation devient optimale pour le modèle considéré, la décroissance de la fonction coût est relativement brutale, l'inversion converge alors rapidement vers le meilleur modèle. L'interprétation de données électriques réelles a été réalisée sur un terrain relativement simple et bien documenté. La distribution de résistivité obtenue a été comparée avec les résultats d'une analyse en ondelettes continue et des données de carottage. On a alors abouti à une bonne cohérence entre les différentes sources d'informations, permettant de valider la méthode inverse.
42

Reconstruction stochastique 3D d'un matériau céramique poreux à partir d'images expérimentales et évaluation de sa conductivité thermique et de sa perméabilité

Arab, Mohamed Raed 05 July 2010 (has links) (PDF)
La reconstruction tridimensionnelle d'un échantillon représentatif d'un matériau céramique biphasique à partir d'une image de structure bidimensionnelle est proposée. L'algorithme préconisé est de nature stochastique fondé sur une minimisation par recuit simulé. La méthode statistique de Boltzmann sur réseau est présentée pour simuler les phénomènes de transport de matière afin d'estimer la perméabilité de l'échantillon reconstruit par un modèle BR D3Q19. La conductivité thermique « effective » du même domaine 3D est évaluée par la méthode des différences finies dans un schéma Dufort-Frankel. Les exemples étudiés montrent l'aptitude de l'outil de la reconstruction associé aux outils de simulations des phénomènes de transport de chaleur et de masse à synthétiser numériquement un matériau hétérogène ou poreux et à déterminer ses paramètres physiques.
43

Contribution à l'étude des problèmes de ré-ordonnancement en cas de perturbation dans un système de transport de voyageurs dans une ville.

Nguyen Duc, Khoat 17 November 2007 (has links) (PDF)
Ce travail de thèse sur les problèmes de ré-ordonnancement dans un système de transport de bus concerne la mise en oeuvre d'un système d'aide (SAD) pour les régulateurs des exploitants dans leurs tâches de prise de décision lorsque se produisent des perturbations dans le fonctionnement du réseau de transport. Dans ce contexte, nous avons développé un SAD qui repose sur un module de dimensionnement et un module des stratégies de régulation pour aider les régulateurs dans le processus de planification en temps réel et pour diminuer les influences des perturbations. Les approches par l'algorithme génétique et l'algorithme du recuit simulé sont utilisées pour la régulation en tenant compte des diverses contraintes imposées au système et en particulier des contraintes de capacité des autobus. Un nouveau codage et de nouveaux opérateurs de croisement et de mutation ont été proposés pour permettre de respecter les contraintes du problème. Ainsi, nous avons construit une application en Visual C Sharp du SAD proposé afin de prouver son efficacité en cas de perturbation sur le réseau de transport public d'autobus.
44

Modélisation de signaux fortement non stationnaires à phase et à amplitude locales polynomiales.

Jabloun, Meryem 10 July 2007 (has links) (PDF)
Ce travail de recherche est consacré à l'élaboration et le développement d'une nouvelle méthode d'estimation<br />et de reconstruction de signaux fortement non-stationnaires, modulés non-linéairement à la fois<br />en amplitude et en fréquence. L'estimation de tels signaux dans un contexte trés bruité est un problème<br />délicat et les méthodes existantes de la littérature présentent plusieurs inconvénients dans ce cas.<br />Nous avons montré comment une approche locale permet une meilleure adaptabilité du modèle à la<br />nature des variations locales des amplitudes et des fréquences instantanées. Les résultats de l'estimation<br />sont par conséquent améliorés. L'originalité de la méthode proposée tient à l'application de modèles paramétriques bien adaptés sur des segments temporels de courtes durées extraits du signal étudié. Nous<br />avons proposé une stratégie de segmentation puis une stratégie de fusion des segments estimés permettant<br />la reconstruction du signal dans la totalité de sa durée. L'approche proposée permet de s'affranchir d'un<br />modèle global du signal requérant un ordre d'approximation élevé.<br />La validation de l'efficacité de l'estimation a été effectuée au préalable sur un segment temporel court.<br />Le modèle considéré localement consiste en une approximation polynomiale de la fréquence et de l'amplitude<br />exprimée dans une base polynomiale discrète et orthonormale que nous avons calculée. Cette base<br />permet de réduire le couplage entre les paramètres du modèle. Nous proposons et comparons deux techniques<br />différentes pour estimer ces derniers. La première est fondée sur la maximisation de la fonction<br />de vraisemblance en utilisant la technique d'optimisation stochastique le recuit simulé. Tandis que la<br />deuxième se base sur une approche Bayésienne employant les méthodes MCMC simulées par l'algorithme<br />de Metroplois-Hastings.<br />Nous montrons, sur des simulations et également sur des signaux réels, que l'approche proposée fournit<br />de bons résultats d'estimation par comparaison à celles de la HAF.
45

Détection de changements et classification sous-pixelliques en imagerie satellitaire. Application au suivi temporel des surfaces continentales.

Robin, Amandine 21 May 2007 (has links) (PDF)
Dans cette thèse, nous nous intéressons à l'analyse et au suivi temporel des surfaces continentales à partir de séquences d'images satellitaires. L'exploitation de données de différentes résolutions est alors cruciale pour bénéficier à la fois d'une bonne discrimination et d'une bonne localisation des objets d'intérêt. Dans ce contexte, nous proposons deux approches probabilistes pour la classification et la détection de changements capables d'accéder à une information sous-pixelique, avec très peu d'information a priori. La premire repose sur la définition d'une fonction d'énergie dans un cadre bayésien. Etant donné un nombre de classes, elle permet d'estimer la classification de manière non-supervisée en tant que minimum de cette fonction d'énergie, à travers un algorithme de recuit simulé. La seconde repose sur un modèle de détection a-contrario couplé à un algorithme stochastique d'échantillonnage aléatoire. Elle permet de détecter automatiquement les pixels de l'image qui représentent le plus vraisemblablement des changements. Une analyse théorique et expérimentale des méthodes proposées a permis d'en cerner les limites et, en particulier, de montrer leur capacité à traîter de forts rapports de résolution. Des cas réels d'applications sont présentés sur une scène agricole de la Plaine du Danube (base de donnes ADAM).
46

Optimisation de forme des structures électromagnétiques

Vasconcelos, Joao 04 July 1994 (has links) (PDF)
Ce travail présente des méthodes d'optimisation de forme associées à un programme de calcul de champ dans des structures électrostatiques bidimensionnelles ou axisymétriques. Dans un premier chapitre, la méthode numérique utilisée pour le calcul du champ ; à savoir la méthode des équations intégrales de frontières ; est exposée en détail. Quelques améliorations, en particulier une technique efficace d'intégration adaptative, sont présentées. Le second chapitre est consacré au calcul numérique de la sensibilité des solutions aux paramètres géométriques ayant servi à décrire la structure. Les deux chapitres suivants sont consacrés aux méthodes d'optimisation, déterministes (s'appuyant sur le calcul des gradients) ou aléatoires (recuit simulé, génétique) Les variantes choisies sont testées sur des fonctions analytiques. Le dernier chapitre montre l'application des méthodes d'optimisation sur des structures électrostatiques réelles (forme d'électrodes, profils diélectriques), et démontre leur efficacité en particulier par des comparaisons avec des résultats trouvés dans la littérature.
47

Optimisations en Electrotechnique par Algorithmes Génétiques

Saludjian, Lucas 27 June 1997 (has links) (PDF)
Dans ce rapport nous décrivons les nouvelles possibilités offertes par les algorithmes d'optimisation génétiques dans le domaine de l'électrotechnique. Après avoir analysé les différentes méthodes d'optimisation existantes, nous mettons en évidence leur points forts et leurs points faibles en les comparant sur différents cas tests. Les conclusions et les constations issues de ces confrontations nous ont guidé pour développer un algorithme d'optimisation perfonnant c'est-à-dire à la fois capable de localiser l'optimum global et peu coûteux en nombre d'évaluations de la fonction à optimiser. L'introduction d'infonnations supplémentaires concernant la "nature" des paramètres du problème traité s'est avérée fondamentale pour les algorithmes génétiques et ce point a été abordé car nous n'avons pas voulu limiter nos optimisations à un domaine bien particulier de l'électrotechnique. Les algorithmes d'optimisation mis au point ont été validés sur trois applications distinctes: - Optimisation de la forme d'un refroidisseur pour composant de puissance. - Optimisation de maillages tridimensionnels pour des logiciels éléments fInis . - Optimisation de la forme d'un dispositif électromagnétique composé de bobines supraconductrices.
48

Optimisation de stratégies de fusion pour la reconnaissance de visages 3D.

Ben Soltana, Wael 11 December 2012 (has links) (PDF)
La reconnaissance faciale (RF) est un domaine de recherche très actif en raison de ses nombreuses applications dans le domaine de la vision par ordinateur en général et en biométrie en particulier. Cet intérêt est motivé par plusieurs raisons. D'abord, le visage est universel. Ensuite, il est le moyen le plus naturel par les êtres humains de s'identifier les uns des autres. Enfin, le visage en tant que modalité biométrique est présente un caractère non intrusif, ce qui le distingue d'autres modalités biométriques comme l'iris ou l'emprunte digitale. La RF représente aussi des défis scientifiques importants. D'abord parce que tous les visages humains ont des configurations similaires. Ensuite, avec les images faciales 2D que l'on peut acquérir facilement, la variation intra-classe, due à des facteurs comme le changement de poses et de conditions d'éclairage, les variations d'expressions faciales, le vieillissement, est bien plus importante que la variation inter-classe.Avec l'arrivée des systèmes d'acquisition 3D capables de capturer la profondeur d'objets, la reconnaissance faciale 3D (RF 3D) a émergé comme une voie prometteuse pour traiter les deux problèmes non résolus en 2D, à savoir les variations de pose et d'éclairage. En effet, les caméras 3D délivrent généralement les scans 3D de visages avec leurs images de texture alignées. Une solution en RF 3D peut donc tirer parti d'une fusion avisée d'informations de forme en 3D et celles de texture en 2D. En effet, étant donné que les scans 3D de visage offrent à la fois les surfaces faciales pour la modalité 3D pure et les images de texture 2D alignées, le nombre de possibilités de fusion pour optimiser le taux de reconnaissance est donc considérable. L'optimisation de stratégies de fusion pour une meilleure RF 3D est l'objectif principal de nos travaux de recherche menés dans cette thèse.Dans l'état d'art, diverses stratégies de fusion ont été proposées pour la reconnaissance de visages 3D, allant de la fusion précoce "early fusion" opérant au niveau de caractéristiques à la fusion tardive "late fusion" sur les sorties de classifieurs, en passant par de nombreuses stratégies intermédiaires. Pour les stratégies de fusion tardive, nous distinguons encore des combinaisons en parallèle, en cascade ou multi-niveaux. Une exploration exhaustive d'un tel espace étant impossible, il faut donc recourir à des solutions heuristiques qui constituent nos démarches de base dans le cadre des travaux de cette thèse.En plus, en s'inscrivant dans un cadre de systèmes biométriques, les critères d'optimalité des stratégies de fusion restent des questions primordiales. En effet, une stratégie de fusion est dite optimisée si elle est capable d'intégrer et de tirer parti des différentes modalités et, plus largement, des différentes informations extraites lors du processus de reconnaissance quelque soit leur niveau d'abstraction et, par conséquent, de difficulté.Pour surmonter toutes ces difficultés et proposer une solution optimisée, notre démarche s'appuie d'une part sur l'apprentissage qui permet de qualifier sur des données d'entrainement les experts 2D ou 3D, selon des critères de performance comme ERR, et d'autre part l'utilisation de stratégie d'optimisation heuristique comme le recuit simulé qui permet d'optimiser les mélanges des experts à fusionner. [...]
49

Contribution à l’ordonnancement d’ateliers agroalimentaires utilisant des méthodes d’optimisation hybrides / Using hybrid optimization methods for the agro-food industry scheduling problem

Karray, Asma 05 July 2011 (has links)
Nos travaux concernent la mise en œuvre de méthodologies pour la résolution de problèmes d’ordonnancement en industries agroalimentaires. Trois nouvelles approches basées sur les algorithmes génétiques, sont proposées pour la résolution de problèmes d’ordonnancement multi-objectifs : les algorithmes génétiques séquentiels (SGA), les algorithmes génétiques parallèles (PGA) et les algorithmes génétiques parallèles séquentiels (PSGA). Deux approches coopératives multi-objectifs en mode relais, SH_GA/TS et SH_GA/SA, hybridant toutes les deux des métaheuristiques de haut niveau, sont par la suite proposées. Un algorithme évolutionnaire et un algorithme de recherche locale sont, dans ce cas exécutés séquentiellement / The purpose of our works is the implementation of methodologies for the resolution of the agro-food industry scheduling problem. Three new approaches based on genetic algorithms are proposed to solve multi-objectives scheduling problems: sequential genetic algorithms (SGA), parallel genetic algorithms (PGA) and parallel sequential genetic algorithms (PSGA). Two high-level hybrid algorithms, SH_GA/TS et SH_GA/SA, are also proposed. The purpose in this hybridization is to benefit the exploration of the solution space by a population of individuals with the exploitation of solutions through a smart search of the local search algorithm
50

Trafic aérien : détermination optimale et globale des trajectoires d'avion en présence de vent / Generating optimal and global aircraft trajectories with respect to weather conditions

Girardet, Brunilde 02 December 2014 (has links)
Dans le contexte du futur système de gestion du trafic aérien, un des objectifs consiste à réduire l’impact environnemental du trafic aérien. Pour respecter ce but, le concept de “free-route”, introduit dans les années 1990, semble bien adapté aujourd’hui. Les avions ne seraient plus contraints à voler le long de routes aériennes, mais pourraient suivre des trajectoires optimales en terme de consommation. L’objectif de cette thèse est d’introduire une nouvelle méthode de planification du trafic à l’horizon pré-tactique avec des objectifs quelques fois contradictoires, c’est-à-dire avec pour but de minimiser la consommation ou de façon équivalente la durée de trajet en tenant compte des conditions météorologiques et de minimiser l’encombrement de l’espace aérien.La méthode a été mise au point en deux étapes. La première étape a été consacrée au calcul d’une seule trajectoire optimale en terme de temps de vol en tenant compte du vent et de contraintes celles des zones interdites de survol. Cette optimisation est basée sur une adaptation de l’algorithme Ordered Upwind. La deuxième étape introduit un algorithme hybride développé, basé sur un algorithme de recuit simulé et sur l’algorithme déterministe développé dans la première étape, afin de minimiser un compromis entre la congestion et la consommation. L’algorithme combine ainsi la capacité d’atteindre la solution optimale globale via une recherche locale qui permet d’accélérer la convergence.Des simulations numériques avec des prévisions de vent sur du trafic européen donnent des résultats encourageants qui démontrent que la méthode globale est à la fois viable et bénéfique en terme du temps de vol total comme de la congestion globale donc de la diminution des conflits / In the context of the future Air Traffic Management system (ATM), one objective is to reduce the environmental impact of air traffic. With respect to this criterion, the “freeroute” concept, introduced in the mid 1990’s, is well suited to improve over nowadays airspace based ATM. Aircraft will no longer be restricted to fly along airways and may fly along fuel-optimal routes. The objective of this thesis is to introduce a novel pretactical trajectory planning methodology which aims at minimizing airspace congestion while taking into account weather conditions so as to minimize also fuel consumption.The development of the method was divided in two steps. The first step is dedicated to compute a time-optimal route for one aircraft taking into account wind conditions. This optimization is based on an adaptation of the Ordered Upwind Method on the sphere.The second step introduces a hybrid algorithm, based on simulated annealing and on the deterministic algorithm developed in the first step, in order to minimize congestion. Thus the algorithm combines the ability to reach a globally-optimal solution with a local-search procedure that speeds up the convergence.

Page generated in 0.422 seconds