• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 81
  • 36
  • 10
  • Tagged with
  • 128
  • 128
  • 74
  • 68
  • 34
  • 32
  • 27
  • 27
  • 21
  • 18
  • 16
  • 14
  • 13
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

De l'imagerie tissu entier à la modélisation in silico du réseau vasculaire du tissu adipeux

Dichamp, Jules 02 July 2018 (has links) (PDF)
Le tissu adipeux est traditionnellement décrit comme étant constitué de lobules : des entités de formes ovoïdales composées de cellules et de vaisseaux et faiblement connectées entre elles.Récemment, il a été montré qu’un potentiel métabolique spécifique (le browning) co-localise avec cette organisation en lobules au sein d’un même tissu. Dans ce travail de thèse, nous nous intéressons à décrire plus précisément l’organisation structurelle et fonctionnelle du tissu adipeux selon plusieurs aspects. Dans un premier temps, on s’attache à segmenter les lobules du tissu adipeux en utilisant une méthode de traitement d’image originale. Nous mettons en évidence une organisation 3D complexe et suivant plusieurs échelles. En particulier, il semble que le potentiel de browning soit également lié à une organisation structurelle particulière en clusters de lobules. Dans un second temps, à partir d’imagerie 3D, nous reconstruisons le réseau vasculaire entier du tissu adipeux et réalisons une simulation d’écoulements sanguins micro-vasculaires. Plusieurs hétérogénéités structurelles et fonctionnelles sont alors mises en valeurs à l’aide d’une analyse en communautés qui composent le tissu adipeux (par algorithme de clustering). Ces résultats confirment l’existence d’une zone centrale fortement vascularisée et qui se démarque également comme étant le lieu d’une perfusion sanguine d’intensité différente. Dans une dernière partie, nous abordons la question de transferts thermiques entre vaisseaux sanguins suivant des géométries simples mais pertinentes. Nous réalisons une étude systématique des paramètres adimensionnels clés du problème et mettons en évidence un invariant des échanges de chaleur : un optimum à faible nombre de Péclet (convection de même ordre que la diffusion). Nous introduisons également une méthode de calibration de paramètres effectifs dans le contexte des modèles homogénéisés de température à travers des tissus vascularisés.
12

Méthodes et algorithmes de segmentation et déconvolution d'images pour l'analyse quantitative de Tissue Microarrays / Methods and algorithms of image segmentation and decovolution for quantitative analysis of Tissue Microarrays

Nguyễn, Hoài Nam 18 December 2017 (has links)
Ce travail de thèse a pour objectif de développer les méthodes originales pour l'analyse quantitative des images de Tissue Microarrays (TMAs) acquises en fluorescence par des scanners dédiés. Nous avons proposé des contributions en traitement d'images portant sur la segmentation des objets d'intérêts (i.e. des échantillons de tissus sur la lame de TMA scannée), la correction des artefacts d'acquisition liés aux scanners en question ainsi que l'amélioration de la résolution spatiale des images acquises en tenant compte des modalités d'acquisition (imagerie en fluorescence) et la conception des scanners. Les développements permettent d'envisager une nouvelle plateforme d'analyse de TMAs automatisée, qui représente aujourd'hui une forte demande dans la recherche contre les cancers. Les TMAs (ou “puces à tissus”) sont les lames histologiques sur lesquelles de nombreux échantillons tissulaires venant de différents donneurs sont déposés selon une structure de grille afin de faciliter leur identification. Pour pouvoir établir le lien entre chaque échantillon et ses données cliniques correspondantes, on s'intéresse non seulement à segmenter ces échantillons mais encore à retrouver leur position théorique (les indices de ligne et de colonne) sur la grille TMA car cette dernière est souvent très déformée pendant la fabrication des lames. Au lieu de calculer directement les indices de ligne et de colonne (des échantillons), nous avons reformulé ce problème comme un problème d'estimation de la déformation de la grille de TMA théorique à partir du résultat de segmentation en utilisant l'interpolation par splines ''plaques minces''. Nous avons combiné les ondelettes et un modèle d'ellipses paramétriques pour éliminer les fausses alarmes, donc améliorer les résultats de segmentation. Selon la conception des scanners, les images sont acquises pixel par pixel le long de chaque ligne, avec un change de direction lors du balayage entre les deux lignes. Un problème fréquent est le mauvais positionnement des pixels dû à la mauvaise synchronisation des modules mécaniques et électroniques. Nous avons donc proposé une méthode variationnelle pour la correction de ces artefacts en estimant le décalage entre les pixels sur les lignes consécutives. Cette méthode, inspirée du calcul du flot optique, consiste à estimer un champ de vecteurs en minimisant une fonction d'énergie composée d'un terme d'attache aux données non convexe et d'un terme de régularisation convexe. La relaxation quadratique est ainsi utilisée pour découpler le problème original en deux sous-problèmes plus simples à résoudre. Enfin, pour améliorer la résolution spatiale des images acquises qui dépend de la PSF (point spread function) elle-même variant selon le faisceau laser d'excitation, nous avons introduit une méthode de déconvolution d'images en considérant une famille de régulariseurs convexes. Les régulariseurs considérés sont généralisés du concept de la variation parcimonieuses (Sparse Variation) combinant la norme L1 de l'image et la variation totale (Total Variation) pour rehausser les pixels dont l'intensité et le gradient sont non-nuls. Les expériences montrent que l'utilisation de cette régularisation produit des résultats déconvolution d'images très satisfaisants en comparaison avec d'autres approches telles que la variation totale ou la norme de Schatten de la matrice Hessienne. / This thesis aims at developing dedicated methods for quantitative analysis of Tissue Microarray (TMA) images acquired by fluorescence scanners. We addressed there issues in biomedical image processing, including segmentation of objects of interest (i.e. tissue samples), correction of acquisition artifacts during scanning process and improvement of acquired image resolution while taking into account imaging modality and scanner design. The developed algorithms allow to envisage a novel automated platform for TMA analysis, which is highly required in cancer research nowadays. On a TMA slide, multiple tissue samples which are collected from different donors are assembled according to a grid structure to facilitate their identification. In order to establish the link between each sample and its corresponding clinical data, we are not only interested in the localization of these samples but also in the computation of their array (row and column) coordinates according to the design grid because the latter is often very deformed during the manufacturing of TMA slides. However, instead of directly computing array coordinates as existing approach, we proposed to reformulate this problem as the approximation of the deformation of the theoretical TMA grid using “thin plate splines” given the result of tissue sample localization. We combined a wavelet-based detection and a ellipse-based segmentation to eliminate false alarms and thus improving the localization result of tissue samples. According to the scanner design, images are acquired pixel by pixel along each line, with a change of scan direction between two subsequent lines. Such scanning system often suffers from pixel mis-positioning (jitter) due to imperfect synchronization of mechanical and electronic components. To correct these scanning artifacts, we proposed a variational method based on the estimation of pixel displacements on subsequent lines. This method, inspired from optical flow methods, consists in estimating a dense displacement field by minimizing an energy function composed of a nonconvex data fidelity term and a convex regularization term. We used half-quadratic splitting technique to decouple the original problem into two small sub-problems: one is convex and can be solved by standard optimization algorithm, the other is non-convex but can be solved by a complete search. To improve the resolution of acquired fluorescence images, we introduced a method of image deconvolution by considering a family of convex regularizers. The considered regularizers are generalized from the concept of Sparse Variation which combines the L1 norm and Total Variation (TV) to favors the co-localization of high-intensity pixels and high-magnitude gradient. The experiments showed that the proposed regularization approach produces competitive deconvolution results on fluorescence images, compared to those obtained with other approaches such as TV or the Schatten norm of Hessian matrix.
13

Optimisation et évaluation des performance en traitement d'image / Optimisation and Performance Evaluation in image registration technique

Mambo, Shadrack 19 October 2018 (has links)
Résumé : Thèse de DoctoratL’importance de l’imagerie médicale comme élément principal dans plusieurs application médicales et diagnostiques de soin de santé est indispensable. L’intégration des données utiles obtenues des diverses images est vitale pour une analyse appropriée de l’information contenues dans ces images sous observation. Pour que ce processus d’intégration réussisse, une procédure appelée recalage d’image est nécessaire.Le but du recalage d’image consiste à aligner deux images afin de trouver une transformation géométrique qui place une des deux images dans la meilleure correspondance spatiale possible avec l’autre image en optimisant un critère de recalage. Les deux images sont dites image cible et image source. Les méthodes de recalage d’image consistent à avoir référencées par des points de contrôle. Ceci est suivi d’une transformation de recalage qui associe les deux images et d’une fonction définie sur base de la mesure de similarité qui a pour but de mesurer la valeur qualitative de proximité ou encore de degré de concordance entre l’image cible et l’image source. Enfin, un optimisateur qui cherche à trouver la transformation optimale au sein du champ de solution de la recherche, est appliqué.Cette recherche présente un algorithme automatique de recalage d’image dont le but est de résoudre le problème du recalage d’image à multiple modes sur une paire des clichés de tomographie par ordinateur (CT) faite sur les poumons. Dans cette méthode, une étude comparative entre la méthode classique d’optimisation par algorithme du gradient à pas fixe et celle de l’algorithme évolutionniste est menée. L’objectif de cette recherche est d’effectuer l’optimisation par des techniques de recalage d’image ainsi qu’évaluer la performance de ces mêmes techniques afin de doter les spécialistes du domaine médical d’une estimation de combien précis et robuste le processus de recalage serait. Les paires des clichés obtenues de la tomographie par ordinateur faite sur les poumons sont recalées en utilisant l’information mutuelle comme mesure de similarité, la transformation affine ainsi que l’interpolation linéaire. Un optimisateur qui recherche la transformation optimale au sein de l’espace de recherche est appliqué afin de minimiser la fonction économique (fonction objectif).Les études de détermination d’un modèle de transformation qui dépend des paramètres de transformation et de l’identification des mesures de similarité basée sur l’intensité du voxel ont été menées. En alignant la transformation avec les points de control, trois modèles de transformation sont comparés. La transformation affine produit la meilleure reconstitution d’image en comparaison aux transformations non réfléchissantes et projectives. Les résultats de cette recherche sont assez comparables à celles rapportées dans le challenge de recherche EMPIRE 10 et sont conformes à la fois aux principes théoriques aussi bien qu’aux applications pratiques.La contribution de cette recherche réside dans son potentiel à améliorer la compréhension scientifique du recalage d’image des organes anatomiques du corps humain. Cette recherche établie ainsi une base pour une recherche avancée sur l’évaluation de la performance des techniques de recalage et la validation des procédures sur d’autres types d’algorithmes et domaines d’application du recalage d’images comme la détection, la communication par satellite, l’ingénierie biomédicale, la robotique, les systèmes d'information géographique (SIG) et de localisation parmi tant d’autres / D’Tech Thesis SummaryThe importance of medical imaging as a core component of several medical application and healthcare diagnosis cannot be over emphasised. Integration of useful data acquired from different images is vital for proper analysis of information contained in the images under observation. For the integration process to be successful, a procedure referred to as image registration is necessary.The purpose of image registration is to align two images in order to find a geometric transformation that brings one image into the best possible spatial correspondence with another image by optimising a registration criterion. The two images are known as the target image and the source image. Image registration methods consist of having the two images referenced with control points. This is followed by a registration transformation that relates the two images and a similarity metric function that aims to measure the qualitative value of closeness or degree of fitness between the target image and the source image. Finally, an optimiser which seeks an optimal transformation inside the defined solution search space is performed.This research presents an automated image registration algorithm for solving multimodal image registration on lung Computer Tomography (CT) scan pairs, where a comparison between regular step gradient descent optimisation technique and evolutionary optimisation was investigated. The aim of this research is to carry out optimisation and performance evaluation of image registration techniques in order to provide medical specialists with estimation on how accurate and robust the registration process is. Lung CT scan pairs are registered using mutual information as a similarity measure, affine transformation and linear interpolation. In order to minimise the cost function, an optimiser, which seeks the optimal transformation inside the defined search space is applied.Determination of a transformation model that depends on transformation parameters and identification of similarity metric based on voxel intensity were carried out. By fitting transformation to control points, three transformation models were compared. Affine transformation produced the best recovered image when compared to non-reflective similarity and projective transformations. The results of this research compares well with documented results from EMPIRE 10 Challenge research and conforms to both theoretical principles as well as practical applications.The contribution of this research is its potential to increase the scientific understanding of image registration of anatomical body organs. It lays a basis for further research in performance evaluation of registration techniques and validation of procedures to other types of algorithms and image registration application areas, such as remote sensing, satellite communication, biomedical engineering, robotics, geographical information systems and mapping, among others
14

Vision et filtrage particulaire pour le suivi tridimensionnel de mouvements humains: applications à la robotique

Fontmarty, Mathias 02 December 2008 (has links) (PDF)
Un défi majeur de la Robotique aujourd'hui est sans doute celui du robot personnel. Un objectif sous-jacent est de permettre à un robot mobile de naviguer de manière autonome dans un environnement de grandes dimensions en présence de public. Lors de son évolution, le robot doit pouvoir détecter et prendre en compte la présence d'humains dans son voisinage, par exemple pour les éviter, leur céder le passage, faciliter ou sécuriser leurs déplacements. Cependant, pour une interaction active, le robot doit également être capable de percevoir et d'interpréter leurs postures, leurs démarches ou leurs gestes. Dans ce but, nous souhaitons mettre en place un système de suivi visuel des mouvements humains à partir des caméras embarquées sur le robot. Une représentation 3D fruste de l'enveloppe corporelle est proposée à partir de considérations biomécaniques et anthropomorphes. La démarche consiste alors à recaler ce modèle dans les images obtenues en exploitant plusieurs indices visuels 2D (contours, couleur, mouvements) complétés par une reconstruction 3D éparse de la scène. Pour estimer les paramètres de situation et de configuration du modèle 3D, nous exploitons les techniques de filtrage particulaire, bien connues en suivi visuel. Des évolutions de l'algorithme générique de filtrage sont cependant envisagées afin de répondre plus efficacement au problème posé et de satisfaire des contraintes temporelles cohérentes avec le contexte applicatif. Afin d'aborder les problèmes de manière graduelle, deux contextes sont étudiés. Le premier, de type robotique ubitquiste, repose sur l'utilisation de caméras d'ambiance fixes proposant des points de vue différents et complémentaires de la scène à étudier. Le second, de type robotique mobile, exploite des caméras stéréoscopiques embarquées sur le robot.Ce travail a été effectué au sein du groupe Robotique Action Perception (RAP) du LAAS-CNRS.
15

Imagerie chimique et chimiométrie pour l'analyse des formes pharmaceutiques solides

Gendrin, Christelle 13 November 2008 (has links) (PDF)
En associant informations spectrale et spatiale, l'imagerie proche-infrarouge permet l'identification et la localisation des espèces chimiques. Chaque mesure génère un cube de données contenant des milliers de spectres qui doivent être traités pour une interprétation objective des analyses.<br />La première problématique est l'extraction des cartes de distributions des composés chimiques. Dans le premier cas, la composition du médicament est connue et les longueurs d'onde spécifiques des composés ou les spectres de référence sont utilisés pour extraire les cartes de distributions. L'étude des histogrammes et un schéma de segmentation utilisant l'algorithme "Watershed" sont ensuite proposés pour les caractériser. Dans un deuxième temps le cas ou aucun a priori n'est connu est étudié. L'extraction simultanée de la concentration et des spectres purs à partir de la matrice de mélange doit alors être effectuée. Plusieurs algorithmes sont comparés: NMF, BPSS, MCR-ALS and PMF, les outils de rotation ont aussi été introduits pour explorer le domaine de solutions et PMF se montre alors le plus précis pour l'extraction.<br />La deuxième problématique est la quantification du principe actif dans des comprimés. Une première étude menée sur des mélanges binaires révèle les difficultés de la quantification sans a priori. Il est démontré ensuite que la quantification est la plus précise lorsqu'une gamme d'échantillons de concentration connue est utilisée pour établir le modèle mathématique à l'aide de l'algorithme PLS, cependant si une librairie spectrale constituée des spectres de référence est construite, alors l'algorithme PLS-DA donne une information semi-quantitative.
16

Optique adaptative, traitement d'image et étude des noyaux actifs de galaxie

Gratadour, Damien 30 November 2005 (has links) (PDF)
À travers mon travail de thèse sur les noyaux actifs de galaxie, dans le proche IR, avec un grand télescope (8-10m) muni d'une optique adaptative, j'ai été amené à faire intervenir des disciplines d'horizons très différents. <br /><br />Plus précisément, il s'agissait d'obtenir des données sur des noyaux actifs de galaxie avec NaCo, de créer et/ou d'adapter de nouvelles techniques de traitement pour les observations avec une optique adaptative, pour enfin interpréter les données ainsi traitées, notamment en les comparant à des modèles numériques. L'acquisition de cette double compétence a été particulièrement favorisée par le statut de ma thèse qui avait pour cadre une collaboration entre l'ONERA et le LESIA.<br /><br />Le problème astrophysique auquel je me suis attaqué est celui de la structuration de l'environnement immédiat des Noyaux Actifs de Galaxie (NAGs) et en particulier du test de l'hypothèse d'un tore de gaz moléculaire et de poussières ainsi que de son interaction avec un jet issu du NAG. Les échelles de ces structures (dizaine de pc) impliquent une résolution angulaire très élevée et la variété des phénomènes en jeu induit des morphologies parfois complexes qu'il est impératif de distinguer d'artefacts instrumentaux subtils.<br />Trois techniques de renforcement de la résolution angulaire et du contraste ont été développées ou améliorées dans ce travail :<br />- Le recentrage d'image sub-pixelique, grâce à un algorithme de type<br /> maximum de vraisemblance<br />- La déconvolution d'image sous contraintes<br />- La reconstruction de la fonction d'étalement de point de l'instrument<br /> avec les données d'analyse de front d'onde<br /><br />Dans chaque cas, la méthode a été appliquée à des données réelles et a permis effectivement un gain important sur la finesse angulaire et donc, au final, sur le retour astrophysique, avec plusieurs résultats originaux en particulier concernant NGC1068 le plus étudié des noyaux de Seyfert de type 2 :<br />- Dans le cas d'Arp 220, prototype des noyaux de galaxie ultra-lumineuses, deux composantes nucléaires ont pu être clairement identifiées, pour la première fois à 3.8µm dans la partie Est du coeur d'Arp 220, permettant d'établir un lien direct entre le proche et le moyen IR. De plus, un double bras d'émission, probablement la zone d'interaction des deux galaxies en fusion, est clairement mis en évidence, entre la source Ouest et les deux sources Est du coeur.<br />- Dans le cas de NGC 1068, de nouvelles structures à la morphologie très particulière (vagues quasi-périodiques), encadrant le jet radio, ont été mises en évidence en bande L' et M d'une part et en bande Ks d'autre part grâce aux premières observations coronographiques jamais réalisées dans le domaine extragalactique. Ces structures dont la formation n'est pas encore expliquée, témoignent d'une interaction forte du jet avec la Narrow Line Region. Une étude photométrique précise dans ces 3 bandes m'a aussi permis de conclure que la poussière dans ces structures était majoritairement composée de nano-grains, peut-être des nano-diamants. En plus d'avoir montré que le cœur était résolu, des observations spectroscopiques de la source la plus centrale m'ont enfin permis d'apporter un certain nombre d'éléments en faveur du modèle unifié des NAG, notamment la présence d'une cavité de sublimation des grains et la présence de gaz moléculaire non dissocié à petite distance du NAG. Le modèle de transfert radiatif dans le tore, développé dans le cadre de ma thèse, a permis de montrer la cohérence de l'ensemble des données.<br />- Dans le cas de NGC 7469, une structure micro-spirale a été mise en évidence grâce à la déconvolution dans les 2" centrales de cette galaxie de Seyfert de type I. De plus des observations spectroscopiques montrent des raies en émissions de l'hydrogène moléculaire sur la ligne de visée de la source la plus centrale, argument fort en faveur du modèle unifié des NAG.<br />- J'ai également contribué à la réduction de données des mesures faites sur le trou noir supermassif du Centre Galactique de 3 à 5 µm qui ont montré la fréquence importante des flares et leur localisation dans un volume de quelques rayons de Schwarzschild. <br /><br />Un certain nombre d'autres observations ont été réalisées durant cette thèse et sont en cours d'exploitation : on citera notamment les premières observations polarimétriques à haute résolution du jet de M87 dans l'IR proche.
17

Asynchronisme dans les rétines artificielles

Gies, Valentin 12 December 2005 (has links) (PDF)
Le traitement d'image se divise usuellement en opérations de bas, moyen et haut niveau. Les opérateurs régionaux de moyen niveau sont un maillon essentiel de la chaîne de traitement de l'image. Dans une étude préliminaire, nous montrons leur importance dans le cadre d'une approche énergétique du traitement d'image et nous déterminons une forme générale sous laquelle ces opérateurs peuvent être implantés afin de pouvoir être utilisés de manière efficace. Après avoir montré la nécessité de l'asynchronisme pour implanter ces opérateurs régionaux, nous étudions les structures existant dans la littérature. Le coût matériel élevé de l'asynchronisme et de ces structures étant trop important pour une implantation dense dans des rétines artificielles, nous tenons à limiter au minimum possible les ressources utiles aux calculs régionaux asynchrones. Cela nous conduit à une nouvelle structure de calcul régional, les micropipelines associatifs, implantant partiellement le modèle des réseaux associatifs, en particulier la somme régionale. Cette structure est basée sur un élément de circuit asynchrone, le micropipeline convergent ayant un coût d'implantation matériel faible. Il utilise un mode alternatif de transmission asynchrone que nous appelons la transmission par jetons. Afin de réduire encore le coût des opérateurs régionaux définis précédemment, nous optimisons ensuite le réseau de connexion asynchrone. Dans la partie algorithmique, nous montrons que la possibilité d'utiliser des opérateurs régionaux de manière efficace conduit à élargir le cadre du traitement d'image. Nous illustrons cette extension dans le cadre de la segmentation d'images. Après une étude des méthodes de segmentation existantes, une méthode basée sur des mesures statistiques régionales permettant d'améliorer la segmentation à base de ligne de partage des eaux sera proposée. Enfin, nous introduisons une nouvelle méthode de segmentation, la segmentation sociétale basée sur une analogie avec la segmentation d'un territoire en villes et villages, utilisant de manière intensive les mesures régionales.
18

Image analysis of cement paste: relation to diffusion transport

Tariel, Vincent 19 February 2009 (has links) (PDF)
Depuis l'émergence des techniques d'imagerie, IRM, tomographie, il est maintenant possible d'observer directement l'organisation géométrique de systèmes tels l'os, le ciment, le papier, le verre, les roches. Comme les propriétés physiques et mécaniques dépendent de l'organisation géométrique, il existe un intérêt scientifique et industriel de comprendre et de définir cette relation de dépendance à l'aide de ces techniques d'imagerie. S'inscrivant dans ce contexte, le but de cette thèse est de développer un ensemble d'outils numériques pour l'analyse d'image de la géométrie d'un matériau, puis d'appliquer ces outils dans l'étude de l'évolution de la porosité de la pâte de ciment. En première partie, nous présentons les deux techniques d'imageries sélectionnées, la microscopie électronique à balayage et la tomographie par synchrotron, pour l'analyse de la pâte de ciment et le protocole expérimental pour la préparation des échantillons. En deuxième partie, nous proposons une méthodologie générique, efficace et simple de segmentation. La segmentation est la transformation de l'image en niveaux de gris en une image labellisée où chaque label représente une phase du matériau. L'implémentation de l'ensemble des algorithmes optimisés associés à cette méthodologie est rendue possible grâce à la conceptualisation théorique de la croissance de régions. En dernière partie, nous quantifions statistiquement la morphologie et la topologie de la géométrie du matériau. Puis, nous décomposons une phase en éléments élémentaires suivant deux conventions: l'une morphologique, l'autre topologique. Enfin, nous utilisons l'information stéréologique estimée sur une coupe 2D pour reconstruire un modèle 3D à l'aide de l'algorithme optimisé du recuit simulé. Une validation de la reconstruction 3D est effectuée par un suivi des propriétés de transport diffusif.
19

Appariement Robuste de Formes Visuelles Complexes, Application à la Détection d'Objets

Onis, Sébastien 15 October 2009 (has links) (PDF)
L'augmentation des moyens informatiques associée à l'avènement de méthodes de classification performantes tels que l'AdaBoost ou les réseaux de neurones ont permis d'obtenir des systèmes de détection d'objets efficaces, mais nécessitant l'annotation manuelle de plusieurs milliers d'images exemples. Ce document présente une méthode permettant d'obtenir un système de détection d'objets capable de fonctionner avec une base d'images exemples de dimension réduite, tout en obtenant les taux de détection de l'état de l'art en détection de visages. Nous commençons par présenter les diverses méthodes utilisées en détection d'objets, et en particulier, les méthodes d'apprentissages associées. Puis, nous expliquons un système de détection basé sur la corrélation et fonctionnant avec une base d'exemples de moins d'une centaine d'images. Ce système nous a permis de mettre au point une méthode d'association de mesures de similarité utilisant des filtres de contours orientés orthogonaux. Les filtres sont obtenus par une méthode dérivée de la PCA qui permet de calculer des filtres orthogonaux adaptés à la classe d'objets à détecter. Nous montrons alors qu'il est possible de mettre au point un système de détection de visages fonctionnel avec très peu d'exemples. La corrélation s'avérant le facteur limitant le plus les résultats, nous avons ensuite remplacé cette dernière par un Perceptron Multicouche. Nous avons appliqué les méthodes d'associations d'images de contours orientés et montré une nette amélioration des taux de détection en utilisant des bases d'apprentissages de dimension réduite. Finalement, nous mettons en évidence les perspectives et solutions possibles qui nous permettraient de minimiser encore le nombre d'exemples d'apprentissage.
20

INFÉRENCE DE CONNAISSANCES SÉMANTIQUES, APPLICATION AUX IMAGES SATELLITAIRES

Bordes, Jean-Baptiste 03 April 2009 (has links) (PDF)
Une méthode probabiliste pour annoter des images satellites avec des concepts sémantiques est présentée. Cette méthode part de caractéristiques de bas-niveau quantifiées dans l'image et utilise une phase d'apprentissage à partir des concepts fournis par l'utilisateur avec un lot d'images exemples. La contribution principale est la définition d'un formalisme pour la mise en relation d'un réseau sémantique hiérarchique avec un modèle stochastique. Les liens sémantiques de synonymie, méronymie, hyponymie sont mis en correspondance avec différents types de modélisations inspirées des méthodes utilisées en fouille de données textuelles. Les niveaux de structuration et de généralité des différents concepts utilisés sont pris en compte pour l'annotation et la modélisation de la base de données. Une méthode de sélection de modèle permet de déduire le réseau sémantique correspondant à la modélisation optimale de la base de données. Cette approche exploite ainsi la puissance de description des réseaux sémantique tout en conservant la flexibilité des approches statistiques par apprentissage. La méthode a été évaluée sur des bases de données SPOT5 et Quickbird.

Page generated in 0.089 seconds