1011 |
Evolution des poussières dans les chocsGuillet, Vincent 09 June 2008 (has links) (PDF)
Les poussières sont un acteur important de l'évolution du milieu interstellaire, et plus généralement des galaxies. De nombreux modèles prédisent une destruction importante de ces poussières dans les chocs impulsés par les explosions de supernovæ, Ce constat impose de reformer les poussières dans la phase dense du milieu interstellaire. Dans cette thèse, nous nous intéressons au traitement des poussières dans les chocs MHD se propageant dans les nuages denses, premier pas vers une étude plus générale de l'évolution des poussières dans la phase froide du milieu interstellaire. Nous calculons l'intensité de la destruction des poussières silicatées et carbonées, par érosion et vaporisation, dans des chocs MHD transverses mono-fluides (type J) et multi-fluides (type C) de vitesse inférieure à 50 km/s. Les grains de poussières sont modélisés par des cœurs réfractaires sphériques, homogènes et non poreux, recouverts d'un manteau de glaces. La distribution en taille des poussières résultant de la compétition entre la fragmentation et la coagulation dans ces chocs est également calculée et couplée à la résolution de la dynamique du choc. La distribution de charge hors-équilibre des grains, leur dynamique à travers le choc (compte tenu de leur inertie et des fluctuations de leur charge), et le traitement qu'ils subissent sont intégrés en simultané de la résolution de la chimie, de l'état d'ionisation et de la dynamique du gaz dans le choc. Ce couplage complet, indispensable pour les chocs C, permet d'estimer l'effet rétroactif du traitement des poussières sur la dynamique du choc. Nous présentons la première étude de la destruction des poussières par les chocs J se propageant dans les nuages denses. Quelques résultats préliminaires sur le traitement dans les chocs C soulignent la place particulière qu'occupent les poussières dans ces chocs dont les propriétés rappellent celles des dusty plasmas.
|
1012 |
Traitement et Analyse des Données du Radar MARSIS/Mars ExpressMouginot, Jérémie 11 December 2008 (has links) (PDF)
Ce mémoire décrit le traitement et l'analyse des données du Mars Advanced Radar for Subsurface and Ionosphere Sounding (MARSIS). <br /><br />Le traitement de ces données a principalement consisté à compenser la distorsion ionosphérique. Cette correction a permis de réaliser une mesure indirecte du contenu électronique de l'ionosphère. Grâce à ces mesures, nous avons pu étudier en détail l'ionosphère martienne. Nous avons ainsi montré que le champ magnétique rémanent modifiait la distribution des électrons de l'ionosphère en précipitant les particules du vent solaire le long des lignes de champ radiales.<br /><br />Les radargrammes corrigés nous ont permis d'étudier en détail les calottes martiennes. Nous faisons le bilan du volume des calottes polaires de Mars en utilisant des outils numériques développés pour le pointage des interfaces. Nous montrons ainsi que le volume des calottes correspondrait à une couche d'eau d'environ 20 m d'épaisseur répartie sur toute la planète.<br /><br />Nous étudions enfin la réflectivité de la surface martienne. Pour cela, nous avons extrait l'amplitude de l'écho de surface de chaque pulse MARSIS, puis, après avoir calibré ces mesures, nous avons créé une carte globale de l'albédo radar. Nous nous sommes attachés à décrire cette carte de réflectivité, d'abord de manière globale, puis plus localement autour de Medusae Fossae et de la calotte résiduelle sud. Nous montrons que la réflectivité décroît avec la latitude, cette constatation est surement liée à la présence d'un pergélisol lorsqu'on remonte vers les hautes latitudes. Près de l'équateur, nous observons que les formations de Medusae Fossae possèdent une constante diélectrique de 2,4+/-0.5 ce qui est caractéristique d'un terrain poreux et/ou riche en glace. Dans cette même région, nous montrons que, dans les plaines d'Elysium et Amazonis, la constante diélectrique est égale à 7\pm1 et nous observons une interface dans la plaine d'Amazonis à environ 140+/-20 m, notre conclusion est que ces résultats sont caractéristiques d'écoulements de lave. L'étude de la calotte résiduelle sud de Mars, à l'aide d'un modèle de réflectivité multi-couches, nous permet d'estimer l'épaisseur de CO2 qui couvre cette région à 11+/-1.5 m.
|
1013 |
Modèles déformables et multirésolution pour la détection de contours de traitement d'imagesElomary, Youssef 24 October 1994 (has links) (PDF)
Les modèles déformables ou les contours actifs sont utilisés pour extraire les caractéristiques visuelles dans une image, en particulier les contours d'objets.<br /><br />Notre propos dans cette thèse est d'étudier ces modèles dans un environnement multirésolution.<br /><br />Commençant par une étude des contours actifs à haute résolution, nous démontrons un théorème d'existence pour les contours actifs fermés et les contours actifs à extrémités libres. Nous présentons ensuite un nouveau modèle appelé la bulle déformable, qui a l'avantage d'avoir une représentation discrète, d'être relativement robuste au bruit et à la texture et d'agir par faibles déformations.<br /><br />Ensuite nous étudions quelques techniques de multirésolution, en présentant les avantages et les inconvénients de chacune. A travers une proposition que nous avons montrée, nous établissons le lien entre la multirésolution et la notion de minimisation<br /><br />d'énergie.<br /><br />Enfin, nous terminons par une proposition originale qui consiste à faire coopérer les contours actifs et la multirésolution. Cette coopération s'aggrémente de plusieurs approches pour faire passer le contour du haut de la pyramide vers sa base. Elle<br /><br />associe entre autres une factorisation du modèle des contours actifs, d'une part selon une démarche de type membrane effectuée à basse résolution, et d'autre part selon<br /><br />une démarche de type plaque mince au travers des différentes résolutions supérieures permettant de réajuster le contour détecté jusqu'à la résolution initiale.
|
1014 |
Segmentation dynamique d'images tridimensionnellesLeitner, François 27 September 1993 (has links) (PDF)
Ce travail traite de la segmentation d'images médicales: ce type de problème est difficile à résoudre à cause de la piètre qualité du signal, et de la fréquente nécessité d'avoir une connaissance spécifique. Aussi se restreint-on à des objets de type volumique courants, tels que les os ou des organes massifs. On modélise une surface fermée à l'aide de produits tensoriels de B-splines (utilisés en CAO), et on propose deux formes de représentation: soit un cylindre à pôles, défini par une seule grille de contrôle, soit un graphe de contrôle, reliant continûment plusieurs grilles. Ces représentations sont adaptées aux déformations globales ou locales, et aux changements de topologie. La déformation d'une telle surface est modélisée par le dégonflage d'un ballon: partant d'une forme englobant la scène, on laisse se dégonfler la surface pour atteindre successivement l'enveloppe convexe, puis l'enveloppe localement convexe, et enfin la surface externe de la scène. L'apport principal de cette méthode consiste en la possibilité d'appréhender un objet complexe, par sa topologie, ou par le nombre de ses composantes connexes. La méthode de segmentation utilise alors cette technique sur l'ensemble des indices de contours détectés dans les images. On peut voir cette méthode comme un outil modélisant l'interpolation naturelle de l'œil. Ce travail se place ainsi parmi les opérateurs de niveau intermédiaire, en apportant la mise en cohérence de certaines propriétés géométriques de la fonction densité associée aux images. Ceci ne résoud cependant pas le problème de connaissance a priori, une interface utilisateur pouvant y remédier dans les cas critiques
|
1015 |
Imagerie chimique et chimiométrie pour l'analyse des formes pharmaceutiques solidesGendrin, Christelle 13 November 2008 (has links) (PDF)
En associant informations spectrale et spatiale, l'imagerie proche-infrarouge permet l'identification et la localisation des espèces chimiques. Chaque mesure génère un cube de données contenant des milliers de spectres qui doivent être traités pour une interprétation objective des analyses.<br />La première problématique est l'extraction des cartes de distributions des composés chimiques. Dans le premier cas, la composition du médicament est connue et les longueurs d'onde spécifiques des composés ou les spectres de référence sont utilisés pour extraire les cartes de distributions. L'étude des histogrammes et un schéma de segmentation utilisant l'algorithme "Watershed" sont ensuite proposés pour les caractériser. Dans un deuxième temps le cas ou aucun a priori n'est connu est étudié. L'extraction simultanée de la concentration et des spectres purs à partir de la matrice de mélange doit alors être effectuée. Plusieurs algorithmes sont comparés: NMF, BPSS, MCR-ALS and PMF, les outils de rotation ont aussi été introduits pour explorer le domaine de solutions et PMF se montre alors le plus précis pour l'extraction.<br />La deuxième problématique est la quantification du principe actif dans des comprimés. Une première étude menée sur des mélanges binaires révèle les difficultés de la quantification sans a priori. Il est démontré ensuite que la quantification est la plus précise lorsqu'une gamme d'échantillons de concentration connue est utilisée pour établir le modèle mathématique à l'aide de l'algorithme PLS, cependant si une librairie spectrale constituée des spectres de référence est construite, alors l'algorithme PLS-DA donne une information semi-quantitative.
|
1016 |
Etude et réalisation d'un synthétiseur d'images basé sur une architecture banaliséeZarate Silva, Victor Hugo 04 November 1985 (has links) (PDF)
L'objet de cette thèse est l'étude d'opérateurs de synthèse adaptés à une architecture banalisée. Une attention particulière a été accordée aux opérateurs améliorant l'aspect réaliste des objets synthétisés. Ce travail a abouti à la réalisation d'opérateurs cablés (calcul d'éclairage, apposition des textures) fonctionnant en temps réel. Cette réalisation confère au système une grande interactivité alliée à un haut degré de réalisme
|
1017 |
Application de l'inf-convolution spline au traitement des chromatogrammes de gasoilsValera Garcia, Daniel 30 October 1984 (has links) (PDF)
On expose deux logiciels de traitement de chromatogrammes de gas oils qui permettent l'évaluation des richesses de composants particuliers: les n-paraffines. Le premier permet par des recalages par «moindres carrés» d'estimer ces richesses à partir de deux chromatogrammes: celui du gas oil, mais aussi celui de ce même gas oil, sans les n-paraffines. Le deuxième ne nécessite plus que le seul chromatogramme du gas oil: on remplace l'information manquante par la connaissance théorique acquise sur la forme des n-paraffines. On procède en deux étapes: 1) application de la théorie de l'inf-convolution spline, en vue de séparer au mieux, par un profil de n-paraffine normalisé celle-ci du reste du gas oil; 2) application des méthodes de minimisation à plusieurs variables pour choisir, parmi les formes possibles pour une n-paraffines la forme optimale
|
1018 |
Un éditeur graphique pour le système CASCADE : EDICASMarty, Jean-Charles 22 October 1984 (has links) (PDF)
Réalisation pour l'édition de structures et spécification pou l'édition de la partie fonctionnelle. Le travail présenté se situe dans le domaine de l'aide à la conception des circuits analogiques et digitaux électroniques (projet CASCADE)
|
1019 |
Contribution à l'étude des moyens de mise en œuvre des traitements numériques du signalLiénard, Joël 07 June 1983 (has links) (PDF)
Analyse des besoins spécifiques du traitement du signal en appareillage de calcul. Implantation de traitement à l'aide des diagrammes spatiaux et spatio-temporels. Extension du diagramme spatio-temporel aux systèmes asynchrones. Structure de réalisation de correlateurs numériques. Étude d'ensemble modulaire de traitement numérique du signal.
|
1020 |
Extraction d'Information et modélisation de connaissances à partir de Notes de Communication OraleEven, Fabrice 03 October 2005 (has links) (PDF)
Malgré l'essor de l'Extraction d'Information et le développement de nombreuses applications dédiées lors de ces vingt dernières années, cette tâche rencontre des problèmes lorsqu'elle est réalisée sur des textes atypiques comme des Notes de Communication Orale.<br />Les Notes de Communication Orale sont des textes issus de prises de notes réalisées lors d'une communication orale (entretien, réunion, exposé, etc.) et dont le but est de synthétiser le contenu informatif de la communication. Leurs contraintes de rédaction (rapidité et limitation de la quantité d'écrits) sont à l'origine de particularités linguistiques auxquelles sont mal adaptées les méthodes classiques de Traitement Automatique des Langues et d'Extraction d'Information. Aussi, bien qu'elles soient riches en informations, elles ne sont pas exploitées par les systèmes extrayant des informations à partir de textes.<br />Dans cette thèse, nous proposons une méthode d'extraction adaptée aux Notes de Communication Orale. Cette méthode, nommée MEGET, est fondée sur une ontologie modélisant les connaissances contenues dans les textes et intéressantes du point de vue des informations recherchées (« ontologie d'extraction »). Cette ontologie est construite en unifiant une « ontologie des besoins », décrivant les informations à extraire, avec une « ontologie des termes », conceptualisant les termes du corpus à traiter liés avec ces informations. L'ontologie des termes est élaborée à partir d'une terminologie extraite des textes et enrichie par des termes issus de documents spécialisés. L'ontologie d'extraction est représentée par un ensemble de règles formelles qui sont fournies comme base de connaissance au système d'extraction SYGET. Ce système procède d'abord à un étiquetage des instances des éléments de l'ontologie d'extraction présentes dans les textes, puis extrait les informations recherchées. Cette approche est validée sur plusieurs corpus.
|
Page generated in 0.084 seconds