• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 100
  • 75
  • 13
  • 1
  • Tagged with
  • 183
  • 183
  • 91
  • 76
  • 47
  • 40
  • 39
  • 36
  • 33
  • 32
  • 29
  • 29
  • 25
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Reconstruction d'images astronomiques en interférométrie optique

Meimon, Serge 21 November 2005 (has links) (PDF)
* La résolution d'un télescope est inversement proportionnelle à son diamètre,<br /> limité par la technologie actuelle à une dizaine de mètres pour des télescopes au sol, et par des contraintes d'encombrement et de poids pour des télescopes embarqués sur satellite. L'interférométrie Optique (IO) est une technique permettant de dépasser cette limite ; elle consiste à faire interférer un réseau de télescopes dits élémentaires et à enregistrer des données dont la résolution peut atteindre celle d'un « grand » télescope contenant tous ces télescopes élémentaires.<br /><br /> Cette technique observationnelle ne conduit pas directement à des images, mais à des observables interférométriques qui doivent faire l'objet d'un traitement numérique pour fournir des informations sur la source observée. Lorsque les données sont en nombre et en qualité suffisante, on peut faire réellement de l'imagerie interférométrique, c'est-a-dire produire une image de l'objet. L'imagerie interférométrique s'est considérablement développée dans le domaine des ondes radio, dans lequel de nombreuses données sont disponibles depuis les années 70, et des méthodes de traitement efficaces ont été mises au point. L'interférométrie optique conduit à des difficultés expérimentales supplémentaires et les données nécessaires a l'imagerie ne sont disponibles que depuis quelques années.Cependant, les méthodes de traitement de la radio ne peuvent être réemployées sans une évolution importante. En optique, dans le cadre de l'observation de l'espace depuis la Terre, les interférogrammes produits sont affectés par la turbulence, qui rend inexploitable les mesures de phase. Les seules informations en phase sur l'objet d'intérêt disponibles sont les clôtures de phase, qui sont indépendantes de la turbulence. Aux longueurs d'onde radio, par contre, les observables sont directement les visibilités complexes. Enfin, le nombre de données (quelques centaines de milliers) que l'on peut mesurer sur une source est en général bien plus important qu'en optique (quelques centaines de mesures).Ces travaux de thèse ont eu pour objectif de concevoir une méthode de reconstruction d'image adaptée au contexte optique, et de la valider sur des données expérimentales. Ils ont abouti à l'algorithmeWISARD (Weak-phase Interferometric Sample Alternating Reconstruction Device), qui s'appuie notamment sur :<br /> - une modélisationmyope des effets turbulents : de façon à prendre en compte le manque d'information en phase, nous introduisons des paramètres de calibration en phase qui seront estimés conjointement avec l'objet dans un cadre bayésien <br /> - une structure d'estimation alternée (inspirée des algorithmes d'autocalibration en radio-astronomie) <br /> - une modélisation fine du bruit constaté sur les observables interférométriques optiques<br /> - un choix judicieux d'a priori, permettant notamment de préserver les pics ou les bords francs de l'image.<br /><br /> Après validation sur simulations, et confrontation aux méthodes concurrentes lors d'un concours international de reconstruction d'image en aveugle, WISARD a permis de reconstruire une image de l'étoile Chi du Cygne à partir de données recueillies sur l'interféromètre IOTA.
22

Télédétection de la surface terrestre par un radiomètre imageur à synthèse d'ouverture : principes de mesure, traitement des données interférométriques et méthodes de reconstruction régularisées

Picard, Bruno 19 November 2004 (has links) (PDF)
Dans le but d'obtenir les premières mesures globales d'humidité des sols et de salinité des océans, <br />l'Agence Spatiale Européenne, à travers son programme «Exploration de la Terre» finance <br />la mission spatiale SMOS (Soil Moisture and Ocean Salinity). <br />Elle repose, pour la première fois dans le cadre de l'observation de la Terre, <br />sur l'utilisation d'un radiomètre imageur à synthèse d'ouverture, technologie initialement développée <br />en radioastronomie.<br />Cette thèse est axée sur l'étude des méthodes de reconstruction régularisée permettant, à partir des données <br />interférométriques fournies par l'instrument, d'obtenir des cartes de températures de brillance. <br /> <br />Le principe de mesure diffère de celui des instruments habituellement utilisés pour l'observation <br />de la surface terrestre. Une première partie est donc consacrée à une introduction des mécanismes <br />fondamentaux de l'interférométrie passive, à travers une étude de la chaîne de mesure, d'un rappel <br />de l'expérience des trous d'Young et des propriétés de la transformée de Fourier à deux dimensions. <br /> <br />Le traitement des données interférométriques demande un cadre géométrique et algébrique rigoureux, <br />décrit dans une seconde partie. De plus, les radiomètres à synthèse d'ouverture étant des instruments <br />à bande passante limitée, il est nécessaire de faire appel à l'apodisation pour réduire les oscillations <br />apparaissant dans les cartes reconstruites. Les fenêtres d'apodisation sont donc caractérisées pour deux <br />configurations possibles du réseau d'antennes. L'estimation des paramètres géophysiques demandant <br />le traitement de cartes de températures de brillance définies sur des grilles régulières et <br />à résolution spatiale constante, nous avons introduit dans ce but des techniques de rééchantillonnage <br />et la possibilité d'utiliser le multi-fenêtrage.<br /> <br />Le problème inverse à résoudre étant mal posé, il est important de s'assurer de l'existence <br />d'une solution unique. C'est là l'objet de l'utilisation de méthodes de reconstruction régularisées. <br />Elles sont définies et comparées dans une troisième partie. Elles sont ensuite utilisées pour caractériser <br />plusieurs problèmes intervenant dans la reconstruction d'image pour les radiomètres imageurs à synthèse d'ouverture. <br />Ainsi, l'erreur systématique, qui intervient alors même qu'aucune erreur sur les données ou sur <br />la modélisation de l'instrument n'est introduite, est expliquée et quantifiée pour deux méthodes <br />de reconstruction régularisées et pour différentes scènes observées. La propagation du bruit radiométrique <br />sur les données fait l'objet d'un travail spécifique, ainsi que l'impact des erreurs de modélisation <br />subsistant suite à une auto-caractérisation, méthode présentée ici et permettant une calibration en vol <br />des paramètres instrumentaux. L'impact de la pollution des données interférométriques par le <br />rayonnement solaire sur la télédétection des océans est ensuite étudié. Enfin, la faisabilité et <br />la robustesse de la reconstruction en mode de polarisation totale à l'aide des méthodes de <br />reconstruction régularisées sont démontrées.
23

Optimisation pour l'apprentissage et apprentissage pour l'optimisation

Van Grieken, Milagros 19 April 2004 (has links) (PDF)
Dans de nombreux problèmes industriels, une simple évaluation de la fonction objectif est coûteuse en temps de calcul et son gradient peut ne pas être disponible. Il est alors utile de construire un modèle, rapide à évaluer et facilement dérivable, qui approche le problème étudié. En apportant de nombreuses améliorations à l'apprentissage, nous avons montré que les réseaux de neurones peuvent répondre à ces exigences. En particulier, là où des méthodes neuronales classiques introduisent des oscillations pour approcher une fonction lisse,notre méthode donne un résultat satisfaisant. Mieux encore, notre méthode permet d'approcher des fonctions oscillantes (par exemple le résultat d'un programme entaché d'erreurs numériques), par un modèle lisse. Nous parvenons à ces résultats par le concours de nombreuses méthodes de régularisation : la méthode de Tikhonov, la stratégie d'arrêt de l'apprentissage, la taille du modèle et pour terminer l'utilisation de la méthode de Gauss-Newton (GN). Cette approche de régularisation permet en plus d'éviter les minima locaux (qui posent un serieux problème pour les méthodes classiques), en augmentant la taille du modèle pour assurer l'apprentissage et en la réduisant ensuite pour la régularisation. Pour les problèmes de grande taille, l'application de la méthode de Gauss-Newton est très " gourmande " en place mémoire. Cependant, en combinant les modes adjoint et direct de la différentiation automatique, nous avons proposé une implémentation " zéro-mémoire " qui nous permet d'appliquer cette méthode. Ce procéde, présenté dans le cadre des réseaux neuronaux peuvent, a priori, être adaptés à tout problème inverse. Dans le littérature récente, mais riche sur le sujet, les fonctions définies par un réseau neuronal classique sont optimisées par des techniques globales très coûuteuses. Dans notre cas, nous profitons des qualités du modèle obtenu (régularité, rapidité d'évaluation et disponibilité du gradient pour un coût supplémentaire négligeable) pour utiliser des méthodes d'optimisation efficaces. Nous illustrerons la pertinence de la méthode proposée par différents exemples académiques, reconnus par leur difficulté, et par des exemples issus de l'industrie automobile et l'ingénierie pétrolière.
24

Localisation de défauts et applications pour les milieux inhomogènes en propagation d'ondes acoustiquesDefects localization and applications to inhomogeneous media in acoustic scattering

Grisel, Yann 07 December 2011 (has links) (PDF)
Cette thèse traite de problèmes inverses en propagation d'ondes acoustiques pour des milieux inhomogènes avec des mesures en champ lointain. Dans la première partie nous nous intéressons à la localisation de défauts, c'est-à-dire à la recherche du lieu où l'indice effectif est différent d'un indice de référence. Nous obtenons une caractérisation du support des défauts à partir des mesures par une extension de la "Factorization Method" d'A. Kirsch. Nous proposons plusieurs méthodes numériques permettant de déterminer la localisation des défauts dont une permettant de traiter le cas de directions d'émission et de réception distinctes. Ces algorithmes sont validés numériquement. Dans une seconde partie, nous considérons la reconstruction des valeurs d'un indice inconnu. A partir de la méthode de localisation de défauts introduite précédemment, nous proposons deux stratégies pour déterminer des zones d'intérêt sur lesquelles la reconstruction est focalisée. Enfin, nous introduisons un nouveau type de fonction coût pour la reconstruction, qui exploite les propriétés établies dans la première partie.
25

Méthodes variationnelles et séquentielles pour l'étude de la contraction cardiaque

Moreau-Villéger, Valérie 15 December 2005 (has links) (PDF)
L'utilisation de l'imagerie médicale et de mesures électrophysiologiques pour l'étude du cœur permet de mieux comprendre son fonctionnement et les pathologies cardiaques, de fournir des outils d'aide au diagnostic et à la planification de thérapies. Dans cette thèse, nous nous intéressons à l'exploitation de ces données sous deux angles différents. La première partie du travail concerne l'estimation de mouvements dans des séquences d'images échocardiographiques à l'aide de l'imagerie par Doppler tissulaire (TDI). La deuxième partie de ce travail concerne l'analyse de mesures de l'activité électrique du cœur en estimant des paramètres d'un modèle électrophysiologique du cœur. La modalité TDI fournit une information quantitative sur la vitesse des tissus dans la direction de la sonde échographique. Le but de ce travail est d'étudier la déformation du muscle cardiaque en utilisant conjointement le TDI et l'échographie classique. Notre approche combine des calculs de flot optique par la méthode de Horn et Schunck sur la séquence classique d'images échographiques, la mesure partielle de vitesse issue de l'imagerie par Doppler tissulaire (TDI) et une régularisation spatio-temporelle pour estimer les champs de vitesse dans un cadre variationnel. Nous validons cette méthode sur des données synthétiques puis nous l'utilisons sur des séquences réelles. Dans la deuxième partie de cette thèse, nous nous intéressons à l'estimation de paramètres du modèle d'Aliev et Panfilov de propagation du potentiel d'action dans les ventricules en utilisant des mesures électrophysiologiques. Grâce à une collaboration avec le ''National Institutes of Health'', nous disposons des temps de dépolarisation mesurés sur l'épicarde de plusieurs cœurs de chiens. Les méthodes classiques ne permettent pas de minimiser l'écart entre le modèle et les données dans ce cas spécifique. Après une étape d'ajustement global, nous proposons de minimiser l'écart quadratique entre les données et le modèle en fonction d'un des paramètres que nous faisons varier localement. Le paramètre choisi est le coefficient de diffusion que nous appelons conductivité apparente car ses variations reflètent à la fois les variations de conductivité et les variations des paramètres de réaction. En utilisant la causalité de la propagation modélisée, nous ramenons le problème à des minimisations unidimensionnelles successives par la méthode de Brent. Nous appliquons cette approche à des données réelles dans des cas normaux et aussi dans des cas de cœurs infarcis. Dans ce dernier cas, nous trouvons une forte corrélation entre les zones de faibles conductivités apparentes et l'infarctus. A l'issue de ce travail, nous envisageons l'utilisation de ces méthodes avec des mesures moins invasives telles que celles obtenues par des systèmes intracavitaires sans contact ou même des électrocardiogrammes. Une autre perspective pour ce travail est l'estimation de paramètres d'un modèle du fonctionnement électromécanique du cœur à partir d'images de déplacement comme celles obtenues grâce à l'IRM marquée.
26

Modélisation électromagnétique basse fréquence, identification de sources équivalentes et métrologie en champs magnétiques faibles.

Chadebec, Olivier 17 October 2011 (has links) (PDF)
Le premier objectif de ces recherches vise à étendre les capacités de calcul pour la modélisation des champs électromagnétiques basses fréquences. Cette activité repose sur le développement de méthodes numériques dédiées (méthode éléments finis, méthodes intégro-différentielles,...), implémentées dans un soucis de performance (compressions matricielles, calcul parallèle,..) et hybridées (couplages, modélisations multi niveaux,..). Le deuxième axe présenté s'intéresse à l'identification de sources électromagnétiques équivalentes par mesure du champ proche. Il combine très étroitement et indissociablement développement de formulations électromagnétiques inverses et création de systèmes de métrologie magnétique en champs faibles innovants. Un domaine applicatif important est le diagnostic
27

Problèmes inverses et simulations numériques en viscoélasticité 3D.

De Buhan, Maya 22 November 2010 (has links) (PDF)
Dans cette thèse, nous abordons plusieurs problèmes mathématiques et numériques relatifs aux équations de la viscoélasticité en trois dimensions. Dans la première partie, nous considérons le système linéaire et nous nous intéressons au problème inverse de récupération d'un coefficient viscoélastique. Pour ce système, nous démontrons une inégalité de Carleman (Chapitre 1) et un résultat de stabilité dans le prolongement unique (Chapitre 2). Nous utilisons ensuite ces résultats pour prouver deux inégalités de stabilité pour le problème inverse, l'une relative à une unique mesure interne et l'autre à une unique mesure sur une partie arbitrairement petite de la frontière (Chapitre 3). Finalement, nous proposons une méthode pour résoudre ce problème numériquement et présentons une application en imagerie médicale (Chapitre 4). Dans la deuxième partie, nous étudions le système de la viscoélasticité non linéaire. Nous présentons des méthodes numériques pour le résoudre et l'implémentation de ces dernières en trois dimensions sur des géométries complexes (Chapitre 5). Une application biomédicale à la simulation des déformations des structures cérébrales est ensuite décrite (Chapitre 6). Enfin, nous abordons une question de modélisation en proposant un modèle couplé viscoélastique/viscoplastique en grandes déformations (Chapitre7).
28

Déconvolution impulsionnelle multi-source. Application aux signaux électro- myographiques

Di, G. 04 December 2009 (has links) (PDF)
Cette thèse s'inscrit dans le cadre d'une collaboration entre l'IRCCyN (UMR 6597) et le laboratoire SMI (Sensory-Motor Interaction, Université d'Aalborg, Dane- mark). L'objectif est de développer des méthodes de décomposition de signaux élec- tromyographiques (EMG). Les applications sont multiples, e.g., l'aide au diagnostic. De tels signaux peuvent être modélisés comme une somme bruitée de I composantes, chacune étant la réponse d'un système linéaire excité par un train d'impulsions. Les paramètres du modèle sont estimés par une technique bayésienne. Les lois a priori des paramètres continus sont choisies de sorte que les lois marginales a posteriori sont analytiques. Dans un premier temps est proposée une méthode déterministe par maxi- misation de la distribution a posteriori. La difficulté majeure consiste en l'estimation des trains d'impulsions. Ceux-ci (paramètres discrets) constituent un espace combinatoire ; la recherche du maximum est traitée par l'algorithme Tabou. Dans un deuxième temps, on souhaite éviter le réglage des paramètres associés à l'algorithme Tabou : l'approche bayésienne couplée aux techniques MCMC fournit un cadre d'étude très efficace. Un algorithme de Gibbs hybride est proposé, dans lequel une étape Metropolis-Hastings sur les trains d'impulsions permet d'éviter un calcul de complexité exponentielle, tout en garantissant l'irréductibilité de la chaîne de Markov. Les techniques issues de l'al- gorithme MCMC pour la déconvolution d'un processus Bernoulli-gaussien sont ap- pliquées. En particulier, le rééchantillonnage d'échelle et la marginalisation des ampli- tudes sont adaptés au modèle physique en tenant compte de la variabilité d'amplitudes des impulsions. Les algorithmes sont validés sur des signaux EMG simulés et expérimentaux.
29

Méthodes innovantes en contrôle non destructif des structures: applications à la détection de fissures

Boukari, Yosra 20 January 2012 (has links) (PDF)
L'application des problèmes inverses de diffraction à la détection de fissures via l'utilisation d'ondes acoustiques, électromagnétiques ou élastiques s'élargit dans de nombreux domaines. Des exemples d'application incluent le contrôle non destructif, la prospection géophysique... Cette thèse a pour objectif d'identifier des fissures en utilisant des méthodes d'échantillonnage bien connues. Dans ce travail, nous utilisons la Linear Sampling Method et la méthode de Factorisation pour reconstruire la géométrie de fissures à partir de plusieurs données statiques de champs lointains dans le cas de conditions d'impédance sur les deux bords de la fissure se trouvant dans un domaine homogène. Par ailleurs, une application de la méthode de la Reciprocity Gap Linear Sampling Method est proposée pour la reconstruction de la géométrie de fissures dans un domaine hétérogène avec les mêmes conditions au bord. Dans le but d'élargir l'application de cette dernière méthode, une méthode de complétion de données pour le problème de Cauchy associé à l'équation de Helmholtz a été proposée. La performance des méthodes proposées est montrée à travers de tests numériques pour différentes formes de fissures et pour différentes valeurs de l'impédance.
30

Resolution improvement in fluorescence and phase optical microscopy

Mudry, Emeric 25 September 2012 (has links) (PDF)
La microscopie optique est une technique essentielle pour de nombreuses disciplines des sciences expérimentales qui nécessitent des résolutions sans cesse plus petites. Dans ce travail de thèse sont présentés plusieurs travaux pour l'amélioration de la résolution en microscopie de fluorescence et en microscopie tomographique par diffraction (MTD), une récente technique de microscopie de phase. Dans un premier temps, il est montré que déposer l'échantillon sur un miroir permet d'augmenter la résolution axiale en MTD et en microscopie confocale de fluorescence. En microscopie confocale, il faut pour cela mettre en forme le faisceau incident grâce à un modulateur spatial de lumière. En MTD, il suffit d'adapter le programme de reconstruction. La deuxième partie présente des algorithmes pour reconstruire des images haute résolution à partir de mesures en éclairement structuré avec de champs d'illumination inconnus, à la fois en microscopie de fluorescence (algorithme blind-SIM) et en MTD. En microscopie de fluorescence, ces algorithmes permettent de simplifier drastiquement les montages expérimentaux produisant l'éclairement structuré et en MTD, d'obtenir des images d'échantillons à fort indice.

Page generated in 0.0686 seconds