• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 59
  • 16
  • 8
  • Tagged with
  • 82
  • 67
  • 31
  • 26
  • 24
  • 22
  • 20
  • 19
  • 19
  • 16
  • 13
  • 12
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Etude du couvert forestier par processus ponctuels marqués

Perrin, Guillaume 02 October 2006 (has links) (PDF)
Cette thèse aborde le problème de l'extraction d'arbres à partir d'images aériennes InfraRouge Couleur (IRC) de forêts. Nos modèles reposent sur l'utilisation de processus objets ou processus ponctuels marqués. Il s'agit de variables aléatoires dont les réalisations sont des configurations d'objets géométriques. Une fois l'objet géométrique de référence choisi, nous définissons l'énergie du processus par le biais d'un terme a priori, modélisant les contraintes sur les objets et leurs interactions, ainsi qu'un terme image. Nous échantillonnons le processus objet grâce à un algorithme de type Monte Carlo par Chaînes de Markov à sauts réversibles (RJMCMC), optimisé par un recuit simulé afin d'extraire la meilleure configuration d'objets, qui nous donne l'extraction recherchée.<br /><br />Dans ce manuscrit, nous proposons différents modèles d'extraction de houppiers, qui extraient des informations à l'échelle de l'arbre selon la densité du peuplement. Dans les peuplements denses, nous présentons un processus d'ellipses, et dans les zones de plus faible densité, un processus d'ellipsoïdes. Nous obtenons ainsi le nombre d'arbres, leur localisation, le diamètre de la couronne et leur hauteur pour les zones non denses. Les algorithmes automatiques résultant de cette modélisation sont testés sur des images IRC très haute résolution fournies par l'Inventaire Forestier National (IFN).
42

Estimation des caractéristiques du mouvement humain en station debout. Mise en œuvre d'observateurs flous sous forme descripteur

GUELTON, Kevin 16 December 2003 (has links) (PDF)
La neurophysiologie et la biomécanique constituent deux approches complémentaires à la compréhension globale de la régulation posturale. Le corps humain est considéré comme un système mécanique poly-articulé régulé par le système nerveux central. Ses entrées sont les couples articulaires et ses sorties les positions des segments corporels. Au vu des stratégies posturales employées en station debout, un modèle non linéaire en double pendule inversé est adopté. Il dépend de paramètres pouvant être estimés par des tables anthropométriques standards. Pour ajuster le modèle à un individu particulier, un recuit simulé est utilisé. Les couples articulaires sont classiquement estimés par des techniques de dynamique inverse sensibles aux incertitudes de mesure. Une méthode alternative issue du domaine de l'automatique, basée l'utilisation d'observateurs à entrées inconnues, est proposée. L'étude d'une classe d'observateurs flous de type Takagi-Sugeno basés sur une forme descripteur est proposée. Les conditions de convergence sont obtenues par une fonction de Lyapunov quadratique et peuvent être conservatives. Quatre approches, admettant une écriture sous la forme de problèmes LMI ou BMI, sont alors proposées afin de relâcher ces conditions. La mise en œuvre d'un observateur flou à entrées inconnues dans le cas de l'homme en station debout est proposée. Les résultats obtenus sont confrontés à ceux des différentes approches de la dynamique inverse. L'observateur flou semble mieux adapté à l'estimation des caractéristiques du mouvement en station debout. De plus son caractère temps réel est souligné et conduit à de nombreuses perspectives en rééducation.
43

Imagerie de Réflecteurs Electromagnétiques en Régime Diffusif : Méthode et Applications en Géophysique

Tournerie, Benoît 01 December 1995 (has links) (PDF)
L'imagerie électromagnétique basses fréquences développée actuellement essaie de reconstruire, à partir de données de terrain, la loi de conductivité s(r) de la zone étudiée. On montre que cette approche est similaire à l'imagerie des vitesses sismiques. Ces méthodes n'offrent généralement pas la possibilité de cartographier précisément les limites des objets étudiés. L'objet de cette étude a été de développer une méthode d'imagerie permettant de visualiser des interfaces séparant deux milieux de conductivité différente. Afin de benéficier des connaissances du domaine sismique, nous avons abordé le problème par l'étude de la transformation d'un champ diffusif en un dual propagatif. Ce lien est réalisé via une équation intégrale de Fredholm de première espèce que l'on doit inverser. Deux approches ont été suivies. La première consiste à trouver une solution à cette équation par décomposition en fonctions et valeurs propres de l'opérateur d'intégration. Celle-ci nous ci permis de rendre compte du caractère mal posé de l'inversion face à des données bruitées et/ou incomplètes,et ainsi, de préciser l'importance d'introduire des informations a priori sur le modele pour régulariser le problème inverse. Dans la seconde approche, nous avons développé une inversion numérique de l'équation intégrale. Nous avons utilisé un algorithme de recuit simulé couplé avec la méthode de descente du simplexe. La réunion de ces deux méthodes nous permet d'explorer le domaine continu des solutions. Des données synthétiques 10 et 20 ont été traitées (l'inversion 20 se fait par juxtaposition d'inversions 10). Les résultats de ces inversions montrent que la position des réflecteurs est résolue correctement (tout du moins pour les premiers d'entre eux). Ceci est très important pour le développement futur d'une migration des images obtenues. La loi de conductivité s(r) peut être estimée approximativement à partir des amplitudes des réflecteurs. Une application de cette méthode d'imagerie a été réalisée sur des données enregistrées au Canada (données Coprod2 fournies par A. Jones (Geological Survey of Canada)). L'inversion séparée des données des deux modes de polarisations TE et TM nous montre la présence d'un premier réflecteur s'interprétant comme la limite entre le Paléozoïque supérieur et inférieur, et d'un second, plus profond, représentant le sommet d'un bloc conducteur sans doute à l'origine de l'anomalie de conductivité NACP (North American Central Plain) préalablement identifiée par des données GDS (Geomagnetic Oeep Sounding). Une seconde application traite des données que nous avons recueillies sur le terrain le long d'un profil de sismique réflexion en Bretagne (France). Les résultats préliminaires de l'analyse des résistivités apparentes et des phases de la partie nord du profil met en évidence deux zones situées de part et d'autre du contact de la Baie de la Fresnaye avec des contrastes en conductivité opposés: Résistant sur Conducteur (R/C) au nord du contact et Conducteur sur Résistant (C/R) au sud.
44

Tomographie électrique: Développements Méthodologiques et Applications.

Pessel, Marc 27 October 2000 (has links) (PDF)
La tomographie électrique est une méthode géophysique permettant d'obtenir la répartition de la conductivité des roches à partir de mesures de potentiel électrique. Une large partie de cette thèse est constituée d'un développement méthodologique concernant l'interprétation des données électriques. ~interprétation des données se décompose en deux problèmes : le problème direct et le problème inverse. Le problème direct permet d'obtenir le champ de potentiel électrique en fonction de la distribution de conductivité. Il permet donc de tester les modèles de conductivité fournis par le problème inverse qui explorent l'espace des solutions afin de converger vers le meilleur modèle. Le problème direct est résolu numériquement via une méthode mu Itigrille qui permet de résoudre rapidement de larges systèmes linéaires. Une paramétrisation multi-échelle et adaptative est utilisée pour la résolution du problème inverse. Cette paramétrisation évolue pendant le processus d'inversion afin d'aboutir à une paramétrisation optimale. Ceci rend le problème fortement non-linéair e et donc seules des méthodes inverses pleinement non-linéaires comme le reouit simulé sont envisageables. Le couplage du recuit simulé et de la descente du simplexe permet d'obtenir une méthode inverse hybride. Les tests synthétiques ont permis de montrer l'intérêt d'une paramétrisation multi-échelle adaptative. Effectivement lorsque cette paramétrisation devient optimale pour le modèle considéré, la décroissance de la fonction coût est relativement brutale, l'inversion converge alors rapidement vers le meilleur modèle. L'interprétation de données électriques réelles a été réalisée sur un terrain relativement simple et bien documenté. La distribution de résistivité obtenue a été comparée avec les résultats d'une analyse en ondelettes continue et des données de carottage. On a alors abouti à une bonne cohérence entre les différentes sources d'informations, permettant de valider la méthode inverse.
45

Reconstruction stochastique 3D d'un matériau céramique poreux à partir d'images expérimentales et évaluation de sa conductivité thermique et de sa perméabilité

Arab, Mohamed Raed 05 July 2010 (has links) (PDF)
La reconstruction tridimensionnelle d'un échantillon représentatif d'un matériau céramique biphasique à partir d'une image de structure bidimensionnelle est proposée. L'algorithme préconisé est de nature stochastique fondé sur une minimisation par recuit simulé. La méthode statistique de Boltzmann sur réseau est présentée pour simuler les phénomènes de transport de matière afin d'estimer la perméabilité de l'échantillon reconstruit par un modèle BR D3Q19. La conductivité thermique « effective » du même domaine 3D est évaluée par la méthode des différences finies dans un schéma Dufort-Frankel. Les exemples étudiés montrent l'aptitude de l'outil de la reconstruction associé aux outils de simulations des phénomènes de transport de chaleur et de masse à synthétiser numériquement un matériau hétérogène ou poreux et à déterminer ses paramètres physiques.
46

Contribution à l'étude des problèmes de ré-ordonnancement en cas de perturbation dans un système de transport de voyageurs dans une ville.

Nguyen Duc, Khoat 17 November 2007 (has links) (PDF)
Ce travail de thèse sur les problèmes de ré-ordonnancement dans un système de transport de bus concerne la mise en oeuvre d'un système d'aide (SAD) pour les régulateurs des exploitants dans leurs tâches de prise de décision lorsque se produisent des perturbations dans le fonctionnement du réseau de transport. Dans ce contexte, nous avons développé un SAD qui repose sur un module de dimensionnement et un module des stratégies de régulation pour aider les régulateurs dans le processus de planification en temps réel et pour diminuer les influences des perturbations. Les approches par l'algorithme génétique et l'algorithme du recuit simulé sont utilisées pour la régulation en tenant compte des diverses contraintes imposées au système et en particulier des contraintes de capacité des autobus. Un nouveau codage et de nouveaux opérateurs de croisement et de mutation ont été proposés pour permettre de respecter les contraintes du problème. Ainsi, nous avons construit une application en Visual C Sharp du SAD proposé afin de prouver son efficacité en cas de perturbation sur le réseau de transport public d'autobus.
47

Modélisation de signaux fortement non stationnaires à phase et à amplitude locales polynomiales.

Jabloun, Meryem 10 July 2007 (has links) (PDF)
Ce travail de recherche est consacré à l'élaboration et le développement d'une nouvelle méthode d'estimation<br />et de reconstruction de signaux fortement non-stationnaires, modulés non-linéairement à la fois<br />en amplitude et en fréquence. L'estimation de tels signaux dans un contexte trés bruité est un problème<br />délicat et les méthodes existantes de la littérature présentent plusieurs inconvénients dans ce cas.<br />Nous avons montré comment une approche locale permet une meilleure adaptabilité du modèle à la<br />nature des variations locales des amplitudes et des fréquences instantanées. Les résultats de l'estimation<br />sont par conséquent améliorés. L'originalité de la méthode proposée tient à l'application de modèles paramétriques bien adaptés sur des segments temporels de courtes durées extraits du signal étudié. Nous<br />avons proposé une stratégie de segmentation puis une stratégie de fusion des segments estimés permettant<br />la reconstruction du signal dans la totalité de sa durée. L'approche proposée permet de s'affranchir d'un<br />modèle global du signal requérant un ordre d'approximation élevé.<br />La validation de l'efficacité de l'estimation a été effectuée au préalable sur un segment temporel court.<br />Le modèle considéré localement consiste en une approximation polynomiale de la fréquence et de l'amplitude<br />exprimée dans une base polynomiale discrète et orthonormale que nous avons calculée. Cette base<br />permet de réduire le couplage entre les paramètres du modèle. Nous proposons et comparons deux techniques<br />différentes pour estimer ces derniers. La première est fondée sur la maximisation de la fonction<br />de vraisemblance en utilisant la technique d'optimisation stochastique le recuit simulé. Tandis que la<br />deuxième se base sur une approche Bayésienne employant les méthodes MCMC simulées par l'algorithme<br />de Metroplois-Hastings.<br />Nous montrons, sur des simulations et également sur des signaux réels, que l'approche proposée fournit<br />de bons résultats d'estimation par comparaison à celles de la HAF.
48

Détection de changements et classification sous-pixelliques en imagerie satellitaire. Application au suivi temporel des surfaces continentales.

Robin, Amandine 21 May 2007 (has links) (PDF)
Dans cette thèse, nous nous intéressons à l'analyse et au suivi temporel des surfaces continentales à partir de séquences d'images satellitaires. L'exploitation de données de différentes résolutions est alors cruciale pour bénéficier à la fois d'une bonne discrimination et d'une bonne localisation des objets d'intérêt. Dans ce contexte, nous proposons deux approches probabilistes pour la classification et la détection de changements capables d'accéder à une information sous-pixelique, avec très peu d'information a priori. La premire repose sur la définition d'une fonction d'énergie dans un cadre bayésien. Etant donné un nombre de classes, elle permet d'estimer la classification de manière non-supervisée en tant que minimum de cette fonction d'énergie, à travers un algorithme de recuit simulé. La seconde repose sur un modèle de détection a-contrario couplé à un algorithme stochastique d'échantillonnage aléatoire. Elle permet de détecter automatiquement les pixels de l'image qui représentent le plus vraisemblablement des changements. Une analyse théorique et expérimentale des méthodes proposées a permis d'en cerner les limites et, en particulier, de montrer leur capacité à traîter de forts rapports de résolution. Des cas réels d'applications sont présentés sur une scène agricole de la Plaine du Danube (base de donnes ADAM).
49

Optimisation de forme des structures électromagnétiques

Vasconcelos, Joao 04 July 1994 (has links) (PDF)
Ce travail présente des méthodes d'optimisation de forme associées à un programme de calcul de champ dans des structures électrostatiques bidimensionnelles ou axisymétriques. Dans un premier chapitre, la méthode numérique utilisée pour le calcul du champ ; à savoir la méthode des équations intégrales de frontières ; est exposée en détail. Quelques améliorations, en particulier une technique efficace d'intégration adaptative, sont présentées. Le second chapitre est consacré au calcul numérique de la sensibilité des solutions aux paramètres géométriques ayant servi à décrire la structure. Les deux chapitres suivants sont consacrés aux méthodes d'optimisation, déterministes (s'appuyant sur le calcul des gradients) ou aléatoires (recuit simulé, génétique) Les variantes choisies sont testées sur des fonctions analytiques. Le dernier chapitre montre l'application des méthodes d'optimisation sur des structures électrostatiques réelles (forme d'électrodes, profils diélectriques), et démontre leur efficacité en particulier par des comparaisons avec des résultats trouvés dans la littérature.
50

Optimisations en Electrotechnique par Algorithmes Génétiques

Saludjian, Lucas 27 June 1997 (has links) (PDF)
Dans ce rapport nous décrivons les nouvelles possibilités offertes par les algorithmes d'optimisation génétiques dans le domaine de l'électrotechnique. Après avoir analysé les différentes méthodes d'optimisation existantes, nous mettons en évidence leur points forts et leurs points faibles en les comparant sur différents cas tests. Les conclusions et les constations issues de ces confrontations nous ont guidé pour développer un algorithme d'optimisation perfonnant c'est-à-dire à la fois capable de localiser l'optimum global et peu coûteux en nombre d'évaluations de la fonction à optimiser. L'introduction d'infonnations supplémentaires concernant la "nature" des paramètres du problème traité s'est avérée fondamentale pour les algorithmes génétiques et ce point a été abordé car nous n'avons pas voulu limiter nos optimisations à un domaine bien particulier de l'électrotechnique. Les algorithmes d'optimisation mis au point ont été validés sur trois applications distinctes: - Optimisation de la forme d'un refroidisseur pour composant de puissance. - Optimisation de maillages tridimensionnels pour des logiciels éléments fInis . - Optimisation de la forme d'un dispositif électromagnétique composé de bobines supraconductrices.

Page generated in 0.0449 seconds