• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 303
  • 152
  • 57
  • 1
  • 1
  • Tagged with
  • 503
  • 243
  • 169
  • 144
  • 134
  • 104
  • 99
  • 94
  • 81
  • 70
  • 64
  • 61
  • 61
  • 56
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Imagerie chimique et chimiométrie pour l'analyse des formes pharmaceutiques solides

Gendrin, Christelle 13 November 2008 (has links) (PDF)
En associant informations spectrale et spatiale, l'imagerie proche-infrarouge permet l'identification et la localisation des espèces chimiques. Chaque mesure génère un cube de données contenant des milliers de spectres qui doivent être traités pour une interprétation objective des analyses.<br />La première problématique est l'extraction des cartes de distributions des composés chimiques. Dans le premier cas, la composition du médicament est connue et les longueurs d'onde spécifiques des composés ou les spectres de référence sont utilisés pour extraire les cartes de distributions. L'étude des histogrammes et un schéma de segmentation utilisant l'algorithme "Watershed" sont ensuite proposés pour les caractériser. Dans un deuxième temps le cas ou aucun a priori n'est connu est étudié. L'extraction simultanée de la concentration et des spectres purs à partir de la matrice de mélange doit alors être effectuée. Plusieurs algorithmes sont comparés: NMF, BPSS, MCR-ALS and PMF, les outils de rotation ont aussi été introduits pour explorer le domaine de solutions et PMF se montre alors le plus précis pour l'extraction.<br />La deuxième problématique est la quantification du principe actif dans des comprimés. Une première étude menée sur des mélanges binaires révèle les difficultés de la quantification sans a priori. Il est démontré ensuite que la quantification est la plus précise lorsqu'une gamme d'échantillons de concentration connue est utilisée pour établir le modèle mathématique à l'aide de l'algorithme PLS, cependant si une librairie spectrale constituée des spectres de référence est construite, alors l'algorithme PLS-DA donne une information semi-quantitative.
82

Aide au diagnostic et à l'apprentissage dans un domaine médical incertain, incomplet et évolutif : étude des méthodes existantes et proposition d'une méthodologie nouvelle

Rialle, Vincent 20 February 1987 (has links) (PDF)
.
83

Approche stochastique de la segmentation des images‎ : un modèle de coopération entre les primitives de régions et de frontières

Buakaz, Saïda 20 March 1987 (has links) (PDF)
Dans le domaine de l'étiquetage, les méthodes stochastiques s'inscrivent dans un cadre ou l'affectation d'un objet est perçue comme une connaissance dynamique. Cette affectation peut être modifiée selon l'évolution des connaissances contextuelles, en retour elle est susceptible d'influer sur l'état instantané des connaissances. De telles méthodes présentent l'avantage d'introduire un caractère de contrôle local à l'évolution de l'étiquetage. C'est en s'appuyant sur cette notion d'étiquetage, sous son aspect local, que nous avons abordé le problème de la segmentation des images ayant remarque que les décisions au niveau de chaque point influent et sont influencées par celles des voisins. En outre, on remarque que jusqu'à présent, les méthodes de segmentation se fondaient, essentiellement, sur un choix entre 2 types de modèles : le modèle région et le modèle frontière. Les méthodes stochastiques, itératives abordées dans ce mémoire permettent de faire intervenir simultanément les 2 entités et de les traiter au sein d'un processus unique. Le procédé consiste à introduire pour chaque point, au niveau de son vecteur d'étiquetage des informations de type région et des informations de type frontière. Les relations contextuelles interviennent sous forme d'interactions inter-classes et d'interactions inter-entités
84

Contenu en ADN et texture de la chromatine des cellules tumorales mammaires humaines

Opfermann, Martina 23 January 1987 (has links) (PDF)
L'analyse d'image est une méthode utile pour la caractérisation objective des populations cellulaires tumorales dans les cancers du sein. La prise en compte d'un nombre plus important de ces cas analysés selon des protocoles et des méthodes standardises est nécessaire pour évaluer la signification pronostique des paramétrés nucléaires ou de la fréquence de certains types nucléaires.
85

Contributions à la vision par ordinateur tridimensionnelle

Borianne, Paul-Louis 10 April 1984 (has links) (PDF)
Travail organisé autour du thème de la vision tridimensionnelle. Le problème de la modélisation automatique d'objets est abordé, ainsi que celui de la collaboration d'un capteur 3D et d'un capteur 2D. Cette modélisation est effectué en 3 temps : acquisition d'une image 3D grâce a un capteur réalisé au cours de ce travail : obtention de modèles partiels grâce a un procédé de segmentation d'images 3D : obtention de modèles complets grâce à une unité de génération d'hypothèses de correspondances 3D et à une unité de fusion de modèles partiels
86

Décomposition et détection de structures géométriques en imagerie

Gilles, Jérôme 22 June 2006 (has links) (PDF)
Dans cette thèse, nous nous intéressons aux méthodes permettant de décomposer une image en deux parties: l'une contenant les structures (ou objets) de l'image et l'autre les textures. Le point de départ de ces travaux est le modèle proposé par Yves Meyer en 1999 puis les travaux de Jean-François Aujol pour les aspects algorithmiques.<br />Après une étude théorique de ces approches, nous proposons une extension au cas des images bruitées nous permettant d'obtenir alors une décomposition en trois composantes: structures + textures + bruit.<br />Par ailleurs, nous proposons une méthode spécifique en vue d'évaluer les résultats obtenus à partir des différents alggorithmes. <br />Enfin, nous présentons quelques applications des ces méthodes de décomposition d'image, notamment un algorithme de détection de réseaux routiers en imagerie aérienne ou satellitaire. Cet algorithme combine décomposition d'image, détection d'alignements par la théorie de la Gestalt et modèle déformable.
87

Optique adaptative, traitement d'image et étude des noyaux actifs de galaxie

Gratadour, Damien 30 November 2005 (has links) (PDF)
À travers mon travail de thèse sur les noyaux actifs de galaxie, dans le proche IR, avec un grand télescope (8-10m) muni d'une optique adaptative, j'ai été amené à faire intervenir des disciplines d'horizons très différents. <br /><br />Plus précisément, il s'agissait d'obtenir des données sur des noyaux actifs de galaxie avec NaCo, de créer et/ou d'adapter de nouvelles techniques de traitement pour les observations avec une optique adaptative, pour enfin interpréter les données ainsi traitées, notamment en les comparant à des modèles numériques. L'acquisition de cette double compétence a été particulièrement favorisée par le statut de ma thèse qui avait pour cadre une collaboration entre l'ONERA et le LESIA.<br /><br />Le problème astrophysique auquel je me suis attaqué est celui de la structuration de l'environnement immédiat des Noyaux Actifs de Galaxie (NAGs) et en particulier du test de l'hypothèse d'un tore de gaz moléculaire et de poussières ainsi que de son interaction avec un jet issu du NAG. Les échelles de ces structures (dizaine de pc) impliquent une résolution angulaire très élevée et la variété des phénomènes en jeu induit des morphologies parfois complexes qu'il est impératif de distinguer d'artefacts instrumentaux subtils.<br />Trois techniques de renforcement de la résolution angulaire et du contraste ont été développées ou améliorées dans ce travail :<br />- Le recentrage d'image sub-pixelique, grâce à un algorithme de type<br /> maximum de vraisemblance<br />- La déconvolution d'image sous contraintes<br />- La reconstruction de la fonction d'étalement de point de l'instrument<br /> avec les données d'analyse de front d'onde<br /><br />Dans chaque cas, la méthode a été appliquée à des données réelles et a permis effectivement un gain important sur la finesse angulaire et donc, au final, sur le retour astrophysique, avec plusieurs résultats originaux en particulier concernant NGC1068 le plus étudié des noyaux de Seyfert de type 2 :<br />- Dans le cas d'Arp 220, prototype des noyaux de galaxie ultra-lumineuses, deux composantes nucléaires ont pu être clairement identifiées, pour la première fois à 3.8µm dans la partie Est du coeur d'Arp 220, permettant d'établir un lien direct entre le proche et le moyen IR. De plus, un double bras d'émission, probablement la zone d'interaction des deux galaxies en fusion, est clairement mis en évidence, entre la source Ouest et les deux sources Est du coeur.<br />- Dans le cas de NGC 1068, de nouvelles structures à la morphologie très particulière (vagues quasi-périodiques), encadrant le jet radio, ont été mises en évidence en bande L' et M d'une part et en bande Ks d'autre part grâce aux premières observations coronographiques jamais réalisées dans le domaine extragalactique. Ces structures dont la formation n'est pas encore expliquée, témoignent d'une interaction forte du jet avec la Narrow Line Region. Une étude photométrique précise dans ces 3 bandes m'a aussi permis de conclure que la poussière dans ces structures était majoritairement composée de nano-grains, peut-être des nano-diamants. En plus d'avoir montré que le cœur était résolu, des observations spectroscopiques de la source la plus centrale m'ont enfin permis d'apporter un certain nombre d'éléments en faveur du modèle unifié des NAG, notamment la présence d'une cavité de sublimation des grains et la présence de gaz moléculaire non dissocié à petite distance du NAG. Le modèle de transfert radiatif dans le tore, développé dans le cadre de ma thèse, a permis de montrer la cohérence de l'ensemble des données.<br />- Dans le cas de NGC 7469, une structure micro-spirale a été mise en évidence grâce à la déconvolution dans les 2" centrales de cette galaxie de Seyfert de type I. De plus des observations spectroscopiques montrent des raies en émissions de l'hydrogène moléculaire sur la ligne de visée de la source la plus centrale, argument fort en faveur du modèle unifié des NAG.<br />- J'ai également contribué à la réduction de données des mesures faites sur le trou noir supermassif du Centre Galactique de 3 à 5 µm qui ont montré la fréquence importante des flares et leur localisation dans un volume de quelques rayons de Schwarzschild. <br /><br />Un certain nombre d'autres observations ont été réalisées durant cette thèse et sont en cours d'exploitation : on citera notamment les premières observations polarimétriques à haute résolution du jet de M87 dans l'IR proche.
88

Restitution du relief à partir d'images radar par radarclinométrie

PAQUERAULT, Sophie 06 April 1998 (has links) (PDF)
La disponibilité des images radar à ouverture synthétique ouvre la possibilité de cartographier des zones du globe difficilement accessibles, et généralement peu visibles par les systèmes satellitaires optiques du fait d'une couverture nuageuse souvent importante. C'est le cas des régions tropicales et équatoriales, régions du globe qui sont aussi très mal cartographiées. L'objectif de la thèse est de proposer un procéde de reconstruction à partir d'images radar donnant accès à des informations altimétriques des surfaces terrestres. Face au succès de deux grandes méthodes de reconstruction du relief, l'interférométrie et la radargrammetrie, nous exploitons en détails dans nos travaux une troisième méthode, la radarclinométrie. Son principal avantage est de permettre le calcul de données altimétriques à partir d'une seule et unique image SAR. Notre procédé de restitution développé comporte deux phases principales, une phase d'intégration suivie d'une phase dite corrective qui consiste en une restauration markovienne, permettant de vérifier la condition de continuité des surfaces du terrain. Les reliefs résultant de ce procédé sont ensuite largement évaluées qualitativement et quantitativement, par des moyens très divers fonction des données de référence utilisées. La dernière étape du travail porte sur la vérification de deux principales hypothèses, portant l'une sur le modèle de rétrodiffusion choisi et l'autre sur la connaissance de la radiométrie d'un sol de référence. Cette vérification donne alors lieu au développement de plusieurs méthodes d'estimation. La thèse a permis d'apporter des solutions originales pour le développement de la radarclinométrie. Elle permet d'obtenir, au prix de coûts humains et informatiques modestes, des reliefs de bonne qualité visuelle, sur des régions du globes, telles que la Guyane française, pour lesquelles les deux autres méthodes de restitution se soldent souvent par un échec.
89

Contributions à l'inférence statistique semi- et non-paramétrique

Girard, Stéphane 06 July 2004 (has links) (PDF)
Les travaux présentés s'inscrivent dans le cadre de l'inférence statistique. Ils s'articulent autour des quatre thèmes suivants : estimation de quantiles extrêmes, estimation de frontière, réduction de dimension en analyse d'images et estimation de courbes de référence. Le plupart de ces travaux sont issus de collaborations avec des industriels et s'étendent de l'étude théorique d'une méthode statistique au développement d'outils logiciels l'implémentant.
90

Traitement numérique d'image appliqué à l'analyse texturale de roches déformées

Daniel, Thierry 10 March 1989 (has links) (PDF)
Le développement récent des techniques informatiques d'imagerie numérique permet désormais une utilisation de ces méthodes en géologie. Un ensemble d'outils de traitement d'image est proposé dans le cadre d'une application à la quantification des modifications structurelles intervenues au cours de la "déformation progressive de roches granitiques. Deux types d'approches sont développées: * Une approche structurelle : les objets significatifs de l'image (ex: clastes, traces de bandes de déformation) sont automatiquement segmentés puis caractérisés par des attributs (granulométrie, dispersion, rose de fréquence, etc ... ). * Une approche statistique: l'analyse utilise toute l'information de l'image sans chercher à segmenter une catégorie particulière d'objets. Les attributs permettent de caractériser les propriétés liées aux orientations préférentielles, densités locales, etc ... Les données issues des traitements sont ensuite analysées à l'aide des techniques d'analyse factorielle et de classification. Deux applications sont présentées: * Une segmentation automatique d'images par critère de texture. * Une caractérisation de l'évolution de la texture de roches granitiques en fonction de la déformation progressive. Les résultats montrent en particulier que certaines transitions physico-chimiques mesurées par des outils géologiques (ex : transformations minéralogiques, transitions fragile-ductile, changements de mécanismes de déformation) se marquent sur les textures des roches et peuvent être quantifiées par les outils développés.

Page generated in 0.0504 seconds