Spelling suggestions: "subject:"résolution"" "subject:"ésolution""
461 |
Décompositions Modales Empiriques. Contributions à la théorie, l'algorithmie et l'analyse de performancesRilling, Gabriel 14 December 2007 (has links) (PDF)
La Décomposition Modale Empirique (EMD pour « Empirical Mode Decomposition ») est un outil récent de traitement du signal dévolu à l'analyse de signaux non stationnaires et/ou non linéaires. L'EMD produit pour tout signal une décomposition multi-échelles pilotée par les données. Les composantes obtenues sont des formes d'onde oscillantes potentiellement non harmoniques dont les caractéristiques, forme, amplitude et fréquence peuvent varier au cours du temps. L'EMD étant une méthode encore jeune, elle n'est définie que par la sortie d'un algorithme inhabituel, comportant de multiples degrés de liberté et sans fondement théorique solide. Nous nous intéressons dans un premier temps à l'algorithme de l'EMD. Nous étudions d'une part les questions soulevées par les choix de ses degrés de liberté afin d'en établir une implantation. Nous proposons d'autre part des variantes modifiant légèrement ses propriétés et une extension permettant de traiter des signaux à deux composantes. Dans un deuxième temps, nous nous penchons sur les performances de l'EMD. L'algorithme étant initialement décrit dans un contexte de temps continu, mais systématiquement appliqué à des signaux échantillonnés, nous étudions la problématique des effets d'échantillonnage sur la décomposition. Ces effets sont modélisés dans le cas simple d'un signal sinusoïdal et une borne de leur influence est obtenue pour des signaux quelconques. Enfin nous étudions le mécanisme de la décomposition à travers deux situations complémentaires, la décomposition d'une somme de sinusoïdes et celle d'un bruit large bande. Le premier cas permet de mettre en évidence un modèle simple expliquant le comportement de l'EMD dans une très grande majorité des cas de sommes de sinusoïdes. Ce modèle reste valide pour des sinusoïdes faiblement modulées en amplitude et en fréquence ainsi que dans certains cas de sommes d'ondes non harmoniques périodiques. La décomposition de bruits large bande met quant à elle en évidence un comportement moyen de l'EMD proche de celui d'un banc de filtres auto-similaire, analogue à ceux correspondant aux transformées en ondelettes discrètes. Les propriétés du banc de filtres équivalent sont étudiées en détail en fonction des paramètres clés de l'algorithme de l'EMD. Le lien est également établi entre ce comportement en banc de filtres et le modèle développé dans le cas des sommes de sinusoïdes.
|
462 |
Étude de techniques d'imagerie à haut contraste basées sur la cohérenceGalicher, Raphaël 24 September 2009 (has links) (PDF)
Depuis 1995, environ 350 exoplanètes ont été détectées mais seule une dizaine l'a été directement pour plusieurs raisons. D'abord, les projections de l'étoile hôte et de sa planète sur la sphère céleste sont très proches -- quelques fractions de secondes d'arc. Ceci impose un diamètre minimum pour le télescope et un système compensant les perturbations atmosphériques. Ensuite, le flux lumineux de l'étoile hôte est entre un million et dix milliards de fois plus fort que celui de la planète. Pour réduire ce flux stellaire sans affecter le flux planétaire, nous utilisons un coronographe dont les performances sont limitées par les défauts optiques qui doivent être compensés ou estimés. Pendant ma thèse, j'ai étudié sur des plans théoriques et expérimentaux deux techniques: le coronographe à quatre quadrants à étages multiples (MFQPM) pour atténuer le flux stellaire et la self coherent camera (SCC) qui minimise l'impact des aberrations optiques en utilisant l'incohérence entre lumières stellaires et planétaires. J'ai montré en laboratoire qu'un prototype non optimisé du MFQPM fournissait une extinction achromatique de l'étoile centrale de mille à dix milles entre 550 et 750nm. Puis, j'ai montré par simulations que la SCC s'associe aisément avec un coronographe de type Lyot et qu'en utilisant ses deux modes de fonctionnement -- analyseur de surface d'onde en plan focal et imagerie différentielle --, des planètes de type Terre pouvaient être détectées de l'espace sous des conditions réalistes. J'ai également mesuré un défaut réel de phase via la SCC sur le banc d'Imagerie Très Haute Dynamique que j'ai développé à l'Observatoire de Paris.
|
463 |
Inversion conjointe des données magnétotelluriques et gravimétriques: Application à l'imagerie géophysique crustale et mantelliqueAbdelfettah, Yassine 12 June 2009 (has links) (PDF)
Pour mieux comprendre les résultats géophysiques en termes de géologie, il est important d'utiliser différents types de données acquises par plusieurs méthodes. Une seule méthode géophysique n'a pas nécessairement la résolution suffisante pour expliquer la géologie. Avec une seule méthode, il peut être difficile de donner un sens géologique aux anomalies observées dans les modèles. L'inversion conjointe, en revanche, est une approche permettant de combiner des données de différentes natures. L'inversion conjointe peut être réalisée de deux façons : structurale ou pétrophysique. On peut subdiviser les inversions conjointes en deux groupes : l'inversion conjointe de méthodes sensibles au même paramètre physique comme les sondages électriques DC-DC et AC-DC, et l'inversion conjointe de méthodes sensibles aux paramètres de natures différentes, comme la gravimétrie et la sismique ou la sismique et la magnétotellurique (MT).Dans ce travail de thèse, je présente la solution de l'inversion conjointe de données MT et gravimétriques. La bonne résolution verticale mais la faible couverture spatiale des données MT peuvent être complémentaire des données gravimétriques qui possèdent une excellente couverture spatiale mais une faible résolution verticale.Le problème qui se pose dans l'inversion conjointe de données de différentes natures, est comment relier les différents paramètres. Des formules analytiques entre les vitesses sismiques et les densités ou entre les résistivités électriques et les densités sont destinées à des études spécifiques. En général, il n'est pas évident de relier les paramètres par des relations pétrophysiques. Par conséquent, il est nécessaire de développer des algorithmes qui n'imposent pas de relation spécifique entre les paramètres. L'approche d'inversion conjointe présentée ici est assez générale. Je pose une fonction de condition géométrique (GCF) sous laquelle les paramètres varient dans le même domaine pour imager les mêmes milieux.La méthodologie développée durant cette thèse est testée et validée sur des modèles synthétiques. Une application est réalisée sur les données réelles acquises dans la région de Turkana, Nord Kenya, une branche du Rift Est Africain. Les résultats obtenus ont permis de confirmer certaines conclusions apportées par les résultats de la sismique réflexion et d'apporter de nouvelles informations. L'étude a permis, en effet, de mettre en évidence deux Bassins en forme de demi-graben et de déterminer l'épaisseur des basaltes, jusque là inconnus. Une stratigraphie est proposée pour les bassins de Turkana et de Kachoda. Concernant l'étude de la lithosphère, nos résultats montrent une croûte très hétérogène et un manteau supérieur homogène. Deux anomalies (conductrices et moins denses) ont été mises en évidence entre la croûte inférieure.Ces anomalies peuvent être des zones de fusion partielle à priori sont déconnectées du manteau supérieur ou s'est initié la fusion.
|
464 |
Le morcellement des connaissances en physiologie : du constat à la remédiation<br><br>Intégration du paradigme de la complexité dans l'étude de la construction des liens entre différents concepts enseignés en physiologie, aux niveaux des pratiques enseignantes et des productions des élèves.El Hage, Fadi 21 April 2005 (has links) (PDF)
L'identification du problème de morcellement des connaissances en physiologie en 2001 en France et en 2002-2003 au Liban a fait l'objet de plusieurs analyses. Les élèves de Cinquième et de Seconde comme d'ailleurs leurs enseignants mobilisent peu de liens entre les différents systèmes physiologiques étudiés d'une part et avec le système nerveux d'autre part. La relation entre tous ces systèmes et les besoins des cellules du corps est généralement absente, d'où les difficultés rencontrées par les élèves à mobiliser les concepts enseignés pour résoudre des problèmes. Les obstacles didactiques, épistémologiques et psychologiques mis en évidence dans ce travail de recherche pourraient constituer des éléments d'explication à ce cloisonnement des connaissances. Cependant, ces obstacles pourraient être franchis si la formation des enseignants en faisait un objectif pédagogique. En effet, à la suite d'une session de formation des enseignants à « l'enseignement de la physiologie selon le paradigme de la complexité », l'échantillon d'élèves dont les enseignants ont participé à la session et ont expérimenté l'apprentissage par résolution de problèmes (ARP) a été comparé à l'échantillon d'élèves témoins dont les enseignants n'ont pas été formés à la complexité. Des différences significatives ont été obtenues : la prise en compte de la complexité et de l'enseignement par problèmes ont permis aux élèves de mobiliser plus de liens entre les différents concepts enseignés en physiologie et de prendre plus de risque pour résoudre les problèmes qui leur ont été proposés. La prise en compte de la part de l'affectivité dans l'apprentissage et une relation à l'erreur « décontaminée de la faute » ont permis aux enseignants et ensuite à leurs élèves d'entretenir un nouveau rapport aux savoirs et une attribution de sens aux concepts enseignés.
|
465 |
Contribution au contrôle de la distribution de la taille des particules lors d'un procédé de polymérisation en émulsionDa Silva, Bruno 05 December 2008 (has links) (PDF)
L'objectif principal de ce travail a été de développer des solutions pour le contrôle de la distribution de la taille des particules (DTP) lors d'un procédé de polymérisation en émulsion. La DTP affecte les propriétés rhéologiques, et optiques du polymère ou encore sa stabilité. Pour ces raisons la DTP apparaît comme une caractéristique importante à contrôler. Le modèle décrivant l'évolution de la DTP est régi par des équations aux dérivées partielles (EDP) non linéaires. L'étude numérique du modèle a permis de dresser un modèle de commande. Deux types de stratégie de commande prédictive par modèle interne ont été définis, l'une basée sur un modèle de commande non linéaire et l'autre basée sur un modèle linéaire temps variant. La DTP étant difficilement mesurable en ligne, notre choix s'est porté vers d'autres mesures, les concentrations de tensioactif libre et de monomère. Il a été possible de définir des profils de concentration afin d'obtenir un produit final avec une DTP spécifique. Les résultats de simulations ont montré la faisabilité de cette approche.
|
466 |
Etude épistémologique et didactique de la preuve en mathématiques et de son enseignement. Une ingénierie de formationGandit, Michèle 28 October 2008 (has links) (PDF)
L'étude réalisée montre un décalage important entre la preuve en mathématiques et la preuve telle qu'elle vit en classe, surtout au collège : actuellement la transposition didactique dénature son sens, réduisant son apprentissage à celui de savoir faire des exercices d'écriture formelle. Il s'avère nécessaire de changer les pratiques, pour que la preuve soit enseignée de manière plus satisfaisante sur les plans épistémologique et didactique. Nous montrons qu'il est pertinent, et possible, d'amorcer ce changement par un travail sur les conceptions des enseignants. Pour cela nous proposons une ingénierie de formation fondée sur trois problèmes : tout d'abord est montré le rapport existant des élèves à la preuve ; ensuite, les enseignants, mis en situation de recherche de problèmes, produisent des preuves. Les résultats obtenus à partir des problèmes choisis permettent à la fois de préciser le rapport des enseignants à la preuve et d'amorcer avec eux une réflexion sur leurs pratiques.
|
467 |
Coopeer : une architecture d'égal à égal pour la conception collaborative – Méthode optimiste de résolution automatique des conflits pour la cohérence de données répliquéesEsposito, Nicolas 12 September 2002 (has links) (PDF)
Cette thèse présente les résultats du projet de recherche Coopeer sur le thème de la conception collaborative. Ce travail a permis de mettre en place une architecture d'égal à égal pour la conception assistée par ordinateur (CAO) associée à une méthode optimiste de résolution automatique des conflits pour assurer la cohérence des données répliquées. Cette méthode s'appuie sur une estampille à double identification et sur une gestion de la simultanéité basée sur des priorités. La gestion du groupe de travail et la tolérance aux pannes y sont également adressées. La méthode est applicable à la CAO, mais aussi à tout type d'application collaborative complexe.
|
468 |
Caractérisation de nanomatériaux C-LiFePO4 optimisés pour matériaux d'électrode positive pour batteries lithium – ion. Détermination du mécanisme de désintercalation / intercalation du lithium à partir de ces<br />matériaux.Maccario, Magalie 30 November 2007 (has links) (PDF)
Des nanomatériaux C-LiFePO4 d'électrode positive pour batteries lithium-ion ont été synthétisés dans différentes conditions de synthèse (rapport Li/Fe, température, traitement thermique), après mécano-activation du mélange des précurseurs. Une étude des propriétés physico-chimiques et structurales de différents matériaux C-LiFePO4 a été réalisée par les techniques classiques de la Chimie du Solide et de la Science des Matériaux : diffraction (X, neutrons et électrons), spectroscopies (Mössbauer, IR, Raman, ...) et microscopie (MEB et MET-HR) de façon à essayer de déterminer le (les) facteur(s) clé(s) à de bonnes performances électrochimiques en batteries au lithium. La combinaison des analyses des matériaux désintercalés par DRX et MET-HR nous a permis de proposer le mécanisme dit "dominocascade" pour expliquer la désintercalation / intercalation rapide du lithium dans ces matériaux « LixFePO4 » et donc leurs bonnes performances électrochimiques en batteries lithium-ion. L'effet des cyclages longue durée à différentes températures a également été étudié.
|
469 |
Exploitation de corrélations spatiales et temporelles en tomographie par émission de positronsSureau, Florent 26 June 2008 (has links) (PDF)
Nous proposons, implémentons et évaluons dans cette thèse des algorithmes permettant d'améliorer la résolution spatiale dans les images et débruiter les données en tomographie par émission de positrons. Ces algorithmes ont été employés pour des reconstructions sur une caméra à haute résolution (HRRT) et utilisés dans le cadre d'études cérébrales, mais la méthodologie développée peut être appliquée à d'autres caméras et dans d'autres situations. Dans un premier temps, nous avons développé une méthode de reconstruction itérative intégrant un modèle de résolution spatiale isotropique et stationnaire dans l'espace image, mesuré expérimentalement. Nous avons évalué les apports de cette méthode sur simulation Monte-Carlo, examens physiques et protocoles cliniques en la comparant à un algorithme de reconstruction de référence. Cette étude suggère une réduction des biais de quantification, en particulier dans l'étude clinique, et de meilleures corrélations spatialles et temporelles au niveau des voxels. Cependant, d'autres méthodes doivent être employées pour réduire le niveau de bruit dans les données. Dans un second temps, une approche de débruitage maximum a posteriori adaptée aux données dynamiques et permettant de débruiter temporellement les données d'acquisition (sinogrammes) ou images reconstruites a été proposé. L'a priori a été introduit en modélisant les coefficients dans une base d'ondelettes de l'ensemble des signaux recherchés (images ou sinogrammes). Nous avons comparé cette méthode à une méthode de débruitage de référence sur des simulations répliquées, ce qui illustre l'intérêt de l'approche de débruitage des sinogrammes.
|
470 |
Formation et restauration d'images en microscopie à rayons X. Application à l'observation d'échantillons biologiquesSibarita, Jean-Baptiste 22 October 1996 (has links) (PDF)
Technique récente, la microscopie à rayons X offre aujourd'hui une résolution spatiale supérieure à celle de la microscopie optique (20 nm contre 200 nm en microscopie optique confocal laser). Elle offre également un meilleur pouvoir de pénétration que la microscopie électronique (jusqu'à 10 μm contre 1 μm en microscopie électronique à moyenne et haute tension). Ainsi, la microscopie à rayons X mous (longueurs d'onde comprises entre 2,4 et 4,3 nanomètres) permet l'analyse à haute résolution en 2 ou 3 dimensions d'échantillons biologiques placés dans des conditions proches de leur milieu naturel (contrairement aux microscopes électroniques classiques qui imposent une préparation des échantillons). Cependant, la réduction de la dose absorbée par l'échantillon nécessite des durées d'expositions aussi courtes que possible. Or, effectuer une acquisition avec peu de photons se fait au détriment du rapport signal sur bruit des images. Un de nos objectifs a été le développement d'outils pour l'amélioration et la restauration de ces images. La première partie de nos travaux a consisté à déterminer la fonction de transfert du microscope à rayons X en transmission et à comparer les résultats obtenus avec le modèle théorique de la formation des images. Dans la seconde partie, nous avons complété les modèles existants liant le nombre de photons et le contraste, en prenant en compte le mode de formation des images dans le microscope. La troisième partie de ces travaux concerne le développement de techniques de traitement numérique des images dans le but d'améliorer et de restaurer des images obtenues par microscopie à rayons X avec de faibles temps d'exposition. Ces processus ont été appliqués à l'étude par microscopie à rayons X de différents types d'échantillons biologiques
|
Page generated in 0.0514 seconds