• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 64
  • 28
  • 9
  • Tagged with
  • 98
  • 36
  • 34
  • 31
  • 27
  • 26
  • 24
  • 23
  • 19
  • 18
  • 17
  • 16
  • 15
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Méthodes de traitement de données géophysiques par transformée en ondelettes.

Moreau, Frédérique 20 October 1995 (has links) (PDF)
Cette thèse concerne le développement de nouvelles méthodes de traitement et d'interprétation de données de champs de potentiel. Dans un premier temps, nous avons élaboré un algorithme rapide de débruitage de données géophysiques par transformée en ondelettes orthogonales. La méthode proposée permet de tenir compte des non-stationnarités du rapport signal/bruit. Elle est basée sur quelques tests statistiques qui permettent de séparer les coefficients d'ondelettes dus au signal de ceux dus au bruit. Le signal est alors reconstruit par transformée inverse sur les coefficients conservés. L'idée directrice de la deuxième méthode est d'effectuer une imagerie structurale du soussol à partir d'un champ mesuré en surface. Nous avons d'abord intégré la théorie du potentiel dans la théorie des ondelettes, par l'intermédiaire de l'homogénéité des champs dus à des sources multipolaires. L'introduction d'ondelettes définies à partir du noyau de Poisson permet alors de déterminer précisément la localisation et le degré d'homogénéité des sources présentes. L'utilisation des lignes d'extréma de la transformée rend la méthode robuste vis-à-vis du bruit. Nous avons ensuite généralisé la méthode au cas des sources étendues, ce qui nous permet de localiser et de caractériser des bords d'objets. L'inclinaison des structures peut être déterminée par l'utilisation d'ondelettes complexes. En dernier lieu, cette formulation du problème inverse nous a permis de développer une méthode de filtrage par critères structuraux (type et profondeurs des sources). Nous donnons quelques exemples d'applications sur des données gravimétriques. Les possibilités de la méthode sont illustrées sur des zones de fractures ou de subduction.
72

Imagerie de contraste ionique térahertz Physique statistique des plasmons polaritons de surface.

Masson, Jean-Baptiste 20 July 2007 (has links) (PDF)
La physiologie et le fonctionnement de cellules nerveuses ainsi que de cellules présentant une différence conséquente de molarité entre différents compartiments, restent des questions très actuelles à l'interface de la physique et de la biologie. Ainsi la possibilité d'échanges d'eau lors du fonctionnement de neurones pourrait changer de manière assez radicale la façon dont leur activité est modélisée. Afin de chercher a visualiser ces échanges une technique: la microscopie de contraste ionique térahertz a été développée. Elle est basée sur la grande sensibilité du rayonnement térahertz aux concentrations ioniques dans l'eau. Ainsi un système de génération et de mesure de rayonnement basées sur des antennes semi-conductrices fut construit. Le problème de la limite de diffraction, qui réduit les mesures par rayonnement térahertz à une résolution de l'ordre de 300 µm, fut résolu par le couplage d'imagerie de champ proche avec ouverture avec une technique d'analyse permettant de visualiser des variations spatiales avec une résolution dépassant ?/100. Cette technique d'analyse qui est aussi une configuration expérimentale fut nommée le contraste de champ proche. La microscopie de contraste ionique térahertz a permis de confirmer les échanges d'eau lors d'un ensemble d'activités biologique liés aux neurones. De plus il a permis de quantifier de manière précise les volumes d'eau déplacés. Ceci ayant pour conséquence majeure que l'eau ne peut être négligée dans l'activité biologique neuronale. De plus cette technique a pu être étendue à d'autres systèmes biologiques, comme des cellules cardiaques et a ainsi permis la mesure résolue en temps des flux d'ions à l'intérieure de celles-ci. Le positionnement énergétique du rayonnement térahertz fait de lui un outil puissant dans l'étude de processus de transformations sur de longues molécules biologiques. Cependant un rehaussement du signal parait indispensable. C'est ainsi que son couplage possible avec de la plasmonique fut envisagé. L'absence d'activité spécifique de l'immense majorité des métaux dans cette zone du spectre a poussé l'étude vers des matériaux présentant des structures de taille inférieure à la longueur d'onde. Les réseaux de trous d'Ebbesen furent le système principal étudié. L'étude se focalisa sur la modélisation des phénomènes physiques ayant lieu lors de l'interaction du rayonnement térahertz avec celle-ci. Ainsi un modèle de Fano modifié s'est montré capable de modéliser la transmission des plaques ainsi que la dépendance en taille et en forme des trous, du signal transmis. De plus il fut montré que les plasmons polaritons générés à la surface de ces plaques peuvent interagir entre eux. Enfin une modélisation inhabituelle a vu décrire un certain nombre d'expériences sur ces plaques par! des transitions de phases et de la résonance stochastique. Les travaux sur ce sujet montrent qu'il reste encore beaucoup de phénomène non compris sur la nature des interactions entre la lumière et les réseaux de trous de taille inférieure à la longueur d'onde.
73

Une approche problèmes inverses pour la reconstruction de données multi-dimensionnelles par méthodes d'optimisation.

Soulez, Ferréol 11 December 2008 (has links) (PDF)
Ce travail utilise l'approche « problèmes inverses » pour la reconstruction dans deux domaines différents : l'holographie numérique de micro-particules et la deconvolution aveugle.<br />L'approche « problèmes inverses » consiste à rechercher les causes à partir des effets ; c'est-à-dire estimer les paramètres décrivant un système d'après son observation. Pour cela, on utilise un modèle physique décrivant les liens de causes à effets entre les paramètres et les observations. Le terme inverse désigne ainsi l'inversion de ce modèle direct. Seulement si, en règle générale, les mêmes causes donnent les mêmes effets, un même effet peut avoir différentes causes et il est souvent nécessaire d'introduire des a priori pour restreindre les ambiguïtés de l'inversion. Dans ce travail, ce problème est résolu en estimant par des méthodes d'optimisations, les paramètres minimisant une fonction de coût regroupant un terme issu du modèle de formation des données et un terme d'a priori.<br /><br />Nous utilisons cette approche pour traiter le problème de la déconvolution aveugle de données multidimensionnelles hétérogène ; c'est-à-dire de données dont les différentes dimensions ont des significations et des unités différentes. Pour cela nous avons établi un cadre général avec un terme d'a priori séparable, que nous avons adapté avec succès à différentes applications : la déconvolution de données multi-spectrales en astronomie, d'images couleurs en imagerie de Bayer et la déconvolution aveugle de séquences vidéo bio-médicales (coronarographie, microscopie classique et confocale).<br /><br />Cette même approche a été utilisée en holographie numérique pour la vélocimétrie par image de particules (DH-PIV). Un hologramme de micro-particules sphériques est composé de figures de diffraction contenant l'information sur la la position 3D et le rayon de ces particules. En utilisant un modèle physique de formation de l'hologramme, l'approche « problèmes inverses » nous a permis de nous affranchir des problèmes liées à la restitution de l'hologramme (effet de bords, images jumelles...) et d'estimer les positions 3D et le rayon des particules avec une précision améliorée d'au moins un facteur 5 par rapport aux méthodes classiques utilisant la restitution. De plus, nous avons pu avec cette méthode détecter des particules hors du champs du capteur élargissant ainsi le volume d'intérêt d'un facteur 16.
74

Déconvolution Aveugle en Imagerie de Microscopie Confocale À Balayage Laser

Pankajakshan, Praveen 15 December 2009 (has links) (PDF)
La microscopie confocale à balayage laser, est une technique puissante pour étudier les spécimens biologiques en trois dimensions (3D) par sectionnement optique. Elle permet d'avoir des images de spécimen vivants à une résolution de l'ordre de quelques centaines de nanomètres. Bien que très utilisée, il persiste des incertitudes dans le procédé d'observation. Comme la réponse du système à une impulsion, ou fonction de flou (PSF), est dépendante à la fois du spécimen et des conditions d'acquisition, elle devrait être estimée à partir des images observées du spécimen. Ce problème est mal posé et sous déterminé. Pour obtenir une solution, il faut injecter des connaisances, c'est à dire, a priori dans le problème. Pour cela, nous adoptons une approche bayésienne. L'état de l'art des algorithmes concernant la déconvolution et la déconvolution aveugle est exposé dans le cadre d'un travail bayésien. Dans la première partie, nous constatons que la diffraction due à l'objectif et au bruit intrinsèque à l'acquisition, sont les distorsions principales qui affectent les images d'un spécimen. Une approche de minimisation alternée (AM), restaure les fréquences manquantes au-delà de la limite de diffraction, en utilisant une régularisation par la variation totale sur l'objet, et une contrainte de forme sur la PSF. En outre, des méthodes sont proposées pour assurer la positivité des intensités estimées, conserver le flux de l'objet, et bien estimer le paramètre de la régularisation. Quand il s'agit d'imager des spécimens épais, la phase de la fonction pupille, due aux aberrations sphériques (SA) ne peut être ignorée. Dans la seconde partie, il est montré qu'elle dépend de la difference à l'index de réfraction entre l'objet et le milieu d'immersion de l'objectif, et de la profondeur sous la lamelle. Les paramètres d'imagerie et la distribution de l'intensité originelle de l'objet sont calculés en modifiant l'algorithme AM. Due à la nature de la lumière incohérente en microscopie à fluorescence, il est possible d'estimer la phase à partir des intensités observées en utilisant un modèle d'optique géométrique. Ceci a été mis en évidence sur des données simulées. Cette méthode pourrait être étendue pour restituer des spécimens affectés par les aberrations sphériques. Comme la PSF varie dans l'espace, un modèle de convolution par morceau est proposé, et la PSF est approchée. Ainsi, en plus de l'objet, il suffit d'estimer un seul paramétre libre.
75

Etude cinématique de la rupture sismique en champ lointain : méthodes et résolution

Vallée, Martin 06 January 2003 (has links) (PDF)
Cette thèse propose un ensemble de méthodes visant à la description de la cinématique de la source sismique, et cela principalement à distance lointaine. Nous utilisons des données et des approches variées: d'une part nous combinons l'usage des ondes de volume et des ondes de surface et d'autre part nous considérons à la fois une modélisation déterministe de la propagation (à partir des modèles de Terre globaux) et une modélisation empirique (fournie par un véritable séisme, appelé "fonction de Green empirique"). Deux situations sont alors considérées : soit l'on s'intéresse à un séisme précis, que l'on étudie spécifiquement (1), soit l'on s'intéresse aux séismes de forte magnitude dans leur globalité, et l'on cherche les caractéristiques cinématiques qui peuvent être résolues de manière quasi-automatique (2). Dans les deux cas, nous portons un intérêt particulier à la vitesse de rupture, que nous laissons librement varier sur la faille. L'approche (1), est appliquée au séisme d'El Salvador (13/ 01/ 2001,Mw = 7,7) et révèle que l'ensemble des données utilisées (champ lointain , régional et proche) est compatible avec le scénario suivant: la rupture s'est produite sur un plan plongeant à 6°* vers la côte et s'est propagée à la fois vers la surface et le Nord-Ouest, à une vitesse de 3-3,5km/s. La surface de rupture est d'environ 50km x 25km , sur laquelle le glissement moyen atteint 3.5m. Ce mécanisme s'explique bien par une accommodation de la flexion du slab. L'approche (2) nous a conduit à proposer une nouvelle description de la faille sismique : dans un souci de simplification, nous décrivons la rupture comme un ensemble de zones de glissement ayant chacune un glissement et une vitesse de rupture propres. Dès lors que l'on se restreint à des périodes assez longues (typiquement plus longues que le quart du temps de rupture) , l'utilisation d 'une ou de deux de ces zones rend bien compte des grands traits de la rupture. La pertinence de cette approche est démontrée au travers des séismes d ' Izmit (Turquie, 1999) et de Jalisco (Mexique, 1995). Nous avons développé à cette occasion une nouvelle méthode d'analyse par fonction de Green empirique, fondée sur l'inclusion de contraintes physiques dans la déconvolution. Cette méthode est plus spécifiquement appliquée au séisme du Pérou du 23/06/ 2001 (Mw = 8, 4).
76

Inégalité, mobilité et hétérogénéité sur le marché du travail : Contribution Empiriques et Méthodiques

Bonhomme, Stéphane 23 May 2006 (has links) (PDF)
Ce travail rassemble quatre essais consacrés à l'étude de l'hétérogénéité et des dynamiques individuelles sur le marché du travail. Le premier chapitre met en évidence le lien entre mobilité (inertie) et le degré de persistance des inégalités. Nous employons une méthode statistique simple et originale pour étudier les trajectoires individuelles de salaires, et l'appliquons à des données françaises couvrant la période 1990-2002. Nous trouvons que la récession du début des années 1990 a été associée à une augmentation des inégalités longitudinales.<br />Dans le deuxième chapitre nous étudions l'effet de la mobilité entre emplois sur les corrélations entre salaires et caractéristiques non salariales. Dans notre modèle, de fortes préférences pour ces caractéristiques ne se traduisent pas nécessairement en corrélations négatives si les frictions de mobilité sont importantes. Sur données européennes, nous estimons de fortes préférences pour certaines caractéristiques telles que le type de travail ou la sécurité de l'emploi, ainsi que des différentiels de salaires très faibles entre niveaux d'aménités.<br />Les chapitres 3 et 4 introduisent une méthode de modélisation de l'hétérogénéité inobservée : l'analyse en composantes indépendantes. Celle-ci diffère de l'analyse en composantes principales en ce que les facteurs ne sont pas supposés simplement non corrélés, mais statistiquement indépendants. Cette hypothèse permet d'identifier les facteurs de manière non ambigüe. Nous appliquons notre méthode à des données de salaires de l'éducation pour l'année 1995 en France. Nos résultats suggèrent une relation complexe et multidimensionnelle entre le niveau d'étude et son rendement sur le marché du travail.
77

Algorithmes d'optimisation de critères pénalisés pour la restauration d'images. Application à la déconvolution de trains d'impulsions en imagerie ultrasonore.

Labat, Christian 11 December 2006 (has links) (PDF)
La solution de nombreux problèmes de restauration et de reconstruction d'images se ramène à celle de la minimisation d'un critère pénalisé qui prend en compte conjointement les observations et les informations préalables. Ce travail de thèse s'intéresse à la minimisation des critères pénalisés préservant les discontinuités des images. Nous discutons des aspects algorithmiques dans le cas de problèmes de grande taille. Il est possible de tirer parti de la structure des critères pénalisés pour la mise en oeuvre algorithmique du problème de minimisation. Ainsi, des algorithmes d'optimisation semi-quadratiques (SQ) convergents exploitant la forme analytique des critères pénalisés ont été utilisés. Cependant, ces algorithmes SQ sont généralement lourds à manipuler pour les problèmes de grande taille. L'utilisation de versions approchées des algorithmes SQ a alors été proposée. On peut également envisager d'employer des algorithmes du gradient conjugué non linéaire GCNL+SQ1D utilisant une approche SQ scalaire pour la recherche du pas. En revanche, plusieurs questions liées à la convergence de ces différentes structures algorithmiques sont restées sans réponses jusqu'à présent. Nos contributions consistent à:<br />- Démontrer la convergence des algorithmes SQ approchés et GCNL+SQ1D.<br />- Etablir des liens forts entre les algorithmes SQ approchés et GCNL+SQ1D. <br />- Illustrer expérimentalement en déconvolution d'images le fait que les algorithmes SQ approchés et GCNL+SQ1D sont préférables aux algorithmes SQ exacts.<br />- Appliquer l'approche pénalisée à un problème de déconvolution d'images en contrôle non destructif par ultrasons.
78

Estimation non paramétrique et problèmes inverses

Willer, Thomas 08 December 2006 (has links) (PDF)
On se place dans le cadre de<br />l'estimation non paramétrique pour les problèmes inverses, où une<br />fonction inconnue subit une transformation par un opérateur<br />linéaire mal posé, et où l'on en observe une version bruitée par<br />une erreur aléatoire additive. Dans ce type de problèmes, les<br />méthodes d'ondelettes sont très utiles, et ont été largement<br />étudiées. Les méthodes développées dans cette thèse s'en<br />inspirent, mais consistent à s'écarter des bases d'ondelettes<br />"classiques", ce qui permet d'ouvrir de nouvelles perspectives<br />théoriques et pratiques. Dans l'essentiel de la thèse, on utilise<br />un modèle de type bruit blanc. On construit des estimateurs<br />utilisant des bases qui d'une part sont adaptées à l'opérateur, et<br />d'autre part possèdent des propriétés analogues à celles des<br />ondelettes. On en étudie les propriétés minimax dans un cadre<br />large, et l'on implémente ces méthodes afin d'en étudier leurs<br />performances pratiques. Dans une dernière partie, on utilise un<br />modèle de regression en design aléatoire, et on étudie les<br />performances numériques d'un estimateur reposant sur la<br />déformation des bases d'ondelettes.
79

Fonctions de coût pour l'estimation des filtres acoustiques dans les mélanges réverbérants

Benichoux, Alexis 14 October 2013 (has links) (PDF)
On se place dans le cadre du traitement des signaux audio multicanaux et multi-sources. À partir du mélange de plusieurs sources sonores enregistrées en milieu réverbérant, on cherche à estimer les réponses acoustiques (ou filtres de mélange) entre les sources et les microphones. Ce problème inverse ne peut être résolu qu'en prenant en compte des hypothèses sur la nature des filtres. Notre approche consiste d'une part à identifier mathématiquement les hypothèses nécessaires sur les filtres pour pouvoir les estimer et d'autre part à construire des fonctions de coût et des algorithmes permettant de les estimer effectivement. Premièrement, nous avons considéré le cas où les signaux sources sont connus. Nous avons développé une méthode d'estimation des filtres basée sur une régularisation convexe prenant en compte à la fois la nature parcimonieuse des filtres et leur enveloppe de forme exponentielle décroissante. Nous avons effectué des enregistrements en environnement réel qui ont confirmé l'efficacité de cet algorithme. Deuxièmement, nous avons considéré le cas où les signaux sources sont inconnus, mais statistiquement indépendants. Les filtres de mélange peuvent alors être estimés à une indéter- mination de permutation et de gain près à chaque fréquence par des techniques d'analyse en composantes indépendantes. Nous avons apporté une étude exhaustive des garanties théoriques par lesquelles l'indétermination de permutation peut être levée dans le cas où les filtres sont parcimonieux dans le domaine temporel. Troisièmement, nous avons commencé à analyser les hypothèses sous lesquelles notre algo- rithme d'estimation des filtres pourrait être étendu à l'estimation conjointe des signaux sources et des filtres et montré un premier résultat négatif inattendu : dans le cadre de la déconvolution parcimonieuse aveugle, pour une famille assez large de fonctions de coût régularisées, le mi- nimum global est trivial. Des contraintes supplémentaires sur les signaux sources ou les filtres sont donc nécessaires.
80

Approche bayésienne pour la localisation de sources en imagerie acoustique

Chu, Ning 22 November 2013 (has links) (PDF)
L'imagerie acoustique est une technique performante pour la localisation et la reconstruction de puissance des sources acoustiques en utilisant des mesures limitées au réseau des microphones. Elle est largement utilisée pour évaluer l'influence acoustique dans l'industrie automobile et aéronautique. Les méthodes d'imagerie acoustique impliquent souvent un modèle direct de propagation acoustique et l'inversion de ce modèle direct. Cependant, cette inversion provoque généralement un problème inverse mal-posé. Par conséquent, les méthodes classiques ne permettent d'obtenir de manière satisfaisante ni une haute résolution spatiale, ni une dynamique large de la puissance acoustique. Dans cette thèse, nous avons tout d'abord nous avons créé un modèle direct discret de la puissance acoustique qui devient alors à la fois linéaire et déterminé pour les puissances acoustiques. Et nous ajoutons les erreurs de mesures que nous décomposons en trois parties : le bruit de fond du réseau de capteurs, l'incertitude du modèle causée par les propagations à multi-trajets et les erreurs d'approximation de la modélisation. Pour la résolution du problème inverse, nous avons tout d'abord proposé une approche d'hyper-résolution en utilisant une contrainte de parcimonie, de sorte que nous pouvons obtenir une plus haute résolution spatiale robuste à aux erreurs de mesures à condition que le paramètre de parcimonie soit estimé attentivement. Ensuite, afin d'obtenir une dynamique large et une plus forte robustesse aux bruits, nous avons proposé une approche basée sur une inférence bayésienne avec un a priori parcimonieux. Toutes les variables et paramètres inconnus peuvent être estimées par l'estimation du maximum a posteriori conjoint (JMAP). Toutefois, le JMAP souffrant d'une optimisation non-quadratique d'importants coûts de calcul, nous avons cherché des solutions d'accélération algorithmique: une approximation du modèle direct en utilisant une convolution 2D avec un noyau invariant. Grâce à ce modèle, nos approches peuvent être parallélisées sur des Graphics Processing Unit (GPU) . Par ailleurs, nous avons affiné notre modèle statistique sur 2 aspects : prise en compte de la non stationarité spatiale des erreurs de mesures et la définition d'une loi a priori pour les puissances renforçant la parcimonie en loi de Students-t. Enfin, nous ont poussé à mettre en place une Approximation Variationnelle Bayésienne (VBA). Cette approche permet non seulement d'obtenir toutes les estimations des inconnues, mais aussi de fournir des intervalles de confiance grâce aux paramètres cachés utilisés par les lois de Students-t. Pour conclure, nos approches ont été comparées avec des méthodes de l'état-de-l'art sur des données simulées, réelles (provenant d'essais en soufflerie chez Renault S2A) et hybrides.

Page generated in 0.0909 seconds