• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 338
  • 97
  • 24
  • 2
  • 1
  • Tagged with
  • 457
  • 457
  • 130
  • 128
  • 84
  • 82
  • 81
  • 65
  • 64
  • 64
  • 58
  • 56
  • 53
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Déconvolution Multicanale et Détection de Sources en utilisant des représentations parcimonieuses : application au projet Fermi

Schmitt, Jeremy 07 December 2011 (has links) (PDF)
Ce mémoire de thèse présente de nouvelles méthodologies pour l'analyse de données Poissoniennes sur la sphère, dans le cadre de la mission Fermi. Les objectifs principaux de la mission Fermi, l'étude du fond diffus galactique et l'établissement du catalogue de source, sont com pliqués par la faiblesse du flux de photons et les effets de l'instrument de mesure. Ce mémoire introduit une nouvelle représentation mutli-échelles des données Poissoniennes sur la sphère, la Transformée Stabilisatrice de Variance Multi-Echelle sur la Sphère (MS-VSTS), consistant à combiner une transformée multi-échelles sur la sphère (ondelettes, curvelets), avec une transformée stabilisatrice de variance (VST). Cette méthode est appliquée à la suppression du bruit de Poisson mono et multicanale, à l'interpolation de données manquantes, à l'extraction d'un modèle de fond et à la déconvolution multicanale. Enfin, ce mémoire aborde le problème de la séparation de composantes en utilisant des représentations parcimonieuses (template fitting).
182

Évaluation de l'atrophie et de la charge lésionnelle sur des séquences IRM de patients atteints de sclérose en plaques

Souplet, Jean-Christophe 21 January 2009 (has links) (PDF)
L'objectif de cette thèse est d'analyser une base de données d'images de résonance magnétique (IRM) cérébrales de patients atteints de sclérose en plaques (SEP). Dans ce but, deux marqueurs ont été choisis (la charge lésionnelle et l'atrophie). Ceux-ci peuvent être évalués manuellement. Cependant, ces mesures sont fastidieuses et sujettes à une grande variabilité intra et inter experts. L'enjeu de cette thèse est donc de les automatiser. Cette automatisation commence par l'amélioration et la proposition de nouveaux algorithmes semi-automatiques. Ceux-ci permettent d'obtenir plus rapidement et de manière contrôlée par l'expert des mesures de référence. De nouvelles méthodes automatiques ont aussi été proposées. Une chaîne de traitement visant à segmenter les différents compartiments (substance blanche, substance grise et liquide céphalo-rachidien) a été mise en place. Les segmentations produites par cette chaîne ont été utilisées pour calculer automatiquement un seuil à appliquer sur une séquence IRM pour obtenir une segmentation des lésions. Cette approche est reprise de la littérature mais deux nouvelles versions en sont ici proposées. La première segmente les lésions du cortex, la seconde celles du cervelet. Enfin, les segmentations obtenues par la chaîne de traitement sont utilisées pour calculer la fraction parenchymateuse cérébrale et ainsi évaluer l'atrophie. Ces méthodes ont été comparées aux autres méthodes automatiques existantes et disponibles sur internet ainsi qu'aux mesures de référence obtenues par un expert. À partir de ces travaux, la base de données a été analysée. Les algorithmes développés ont été implémentés dans un nouveau logiciel : SepINRIA.
183

Etude d'architectures VLSI numériques parallèles et asynchrones pour la mise en oeuvre de nouveaux algorithmes d'analyse et rendu d'images

Robin, Frédéric 27 October 1997 (has links) (PDF)
Le contexte des applications de communication visuelle évolue vers l'introduction de fonctionnalités qui dépassent la simple compression d'images: accès universel, interactivité basée-contenu, intégration de contenus hybrides synthétiques-naturels. Une brève introduction au codage avancé d'images permet d'entrevoir l'évolution de la puissance de calcul et de la généricité requises pour l'implémentation de ces systèmes de "deuxième génération". Une synthèse sur l'évolution des circuits VLSI dédiés à l'analyse, la compression et le rendu d'images permet une réflexion sur les limitations architecturales des "processeurs multimédia". Cette thèse propose de combiner le parallélisme massif et l'asynchronisme à grain fin pour apporter de nouvelles perspectives de conception conjointe d'algorithmes et d'architectures VLSI numériques. Une introduction aux différentes notions d'asynchronisme, aux niveaux langage, algorithme, architecture, circuit VLSI, permet de mieux cerner leur sens et les potentiels qu'elles offrent. L'application d'un asynchronisme fonctionnel au filtrage morphologique d'images a abouti à la réalisation d'un réseau VLSI cellulaire asynchrone spécifique comprenant 800.000 transistors en technologie CMOS 0.5µ. La combinaison du parallélisme et de l'asynchronisme est finalement généralisée à travers la définition d'une architecture de coprocesseur programmable pour l'analyse-rendu d'images. L'évaluation de plusieurs primitives algorithmiques originales, basées sur un contrôle mixte SPMD-cellulaire-associatif-flot de données, illustre l'utilisation conjointe de l'asynchronisme à différents niveaux. Ce travail démontre que le relâchement des contraintes de synchronisation et de séquencement, de la spécification à la réalisation matérielle, favorise l'exploitation du parallélisme inhérent aux algorithmes et des potentiels des technologies VLSI.
184

Authentification d'individus par reconnaissance de caractéristiques biométriques liées aux visages 2D/3D

Guerfi, Souhila 03 October 2008 (has links) (PDF)
Cette thèse s'inscrit dans le domaine de l'authentification de visage, en particulier dans le cadre du projet national " TechnoVision ". Bien que les êtres humains puissent détecter/reconnaître des visages dans une scène sans beaucoup de peine, construire un système qui accomplit de telles tâches représente un sérieux défie. Ce défi est d'autant plus grand lorsque les conditions d'acquisition des images sont très variables. Il existe deux types de variations associées aux images de visages : inter et intra sujet. La variation inter-sujet est limitée à cause du fait que la ressemblance physique entre les individus est assez rare. Par contre la variation intra-sujet est plus courante à cause, par exemple, des variations de poses, des changements dans les conditions d'éclairage, etc. Dans cette thèse, nous avons d'abord développé une approche de localisation de visage et de ses caractéristiques pour des images ne contenant qu'un seul visage sur un fond relativement uniforme avec des variations de lumière. Pour cela nous avons proposé une approche robuste de segmentation couleur dans l'espace TLS qui repose sur l'algorithme de ligne de partage des eaux modifiée. Pour l'extraction des régions caractéristiques faciales (yeux et bouche), nous avons combiné la méthode de classification kmeans avec une approche géométrique et nous l'avons appliqué sur la région du visage segmentée. Nous avons aussi proposé une approche multimodale 2D/3D qui repose sur la fusion pondérée des scores de l'approche " EigenFace " modulaire avec la signature anthropométrique 3D de visage. Nous avons évalué nos approches 3D et 2D/3D de reconnaissance du visage sur une sous-base de IV2 qui contient des images stéréoscopiques de visage. Les résultats obtenus sont très intéressants en comparaison avec les techniques classiques de reconnaissance 2D de visage. Enfin, nous avons discuté les perspectives d'amélioration des approches proposées.
185

Prototypage rapide d'applications parallèles de vision artificielle par squelettes fonctionnels

Ginhac, Dominique 25 January 1999 (has links) (PDF)
Les travaux présentés dans ce mémoire s'inscrivent dans la problématique dite d'adéquation algorithme architecture. Ils concernent la conception et le développement d'outils logiciels permettant de faire du prototypage rapide d'applications parallèles de vision artificielle sur des architectures de type MIMD à mémoire distribuée. De tels outils ont pour objectif de faciliter l'évaluation rapide d'un ensemble de solutions vis à vis d'un problème donné en diminuant de manière drastique les temps de cycle conception-implantation-validation des applications. L'outil SKiPPER développé dans le cadre de ces travaux est basé sur le concept des squelettes de parallélisation. Ceux-ci représentent des constructeurs génériques de haut niveau encapsulant des formes communes de parallélisme tout en dissimulant les détails relatifs à l'exploitation de ce parallélisme sur la plate-forme cible. Au niveau langage, la spécification des squelettes est réalisée au sein du langage fonctionnel Caml sous la forme de fonctions d'ordre supérieur. Ainsi, la spécification d'une application est un programme purement fonctionnel dans lequel l'expression du parallélisme est limitée au choix et à l'instanciation des squelettes choisis dans une base pré-définie. L'environnement de développement SKiPPER est organisé autour de trois modules réalisant respectivement l'expansion du code fonctionnel en un graphe flot de données (outil Dromadaire), le placement-ordonnancement de ce graphe sur l'architecture matérielle (outil SynDEx développé à l'INRIA) et la génération de code cible final pour l'architecture cible (la machine Transvision du LASMEA dans notre cas). L'applicabilité des concepts mis en \oe uvre dans SKiPPER et des outils développés conjointement est démontrée également dans les travaux présentés dans ce mémoire. Diverses applications de complexité réaliste (étiquetage en composantes connexes, détection et suivi de signalisation horizontale autoroutière) ont été parallélisées automatiquement par l'environnement SKiPPER validant ainsi l'objectif initial de prototypage rapide d'applications parallèles de vision artificielle à fortes contraintes temporelles sur architecture dédiée.
186

Un cadre statistique en traitement d'images et vidéos par approche variationnelle avec modélisation haute dimension

Boltz, Sylvain 09 July 2008 (has links) (PDF)
Cette thèse aborde le traitement d'images et de vidéos sous l'angle variationnel, c'est-à-dire sous forme d'une énergie dont le minimum est atteint pour la solution. La modélisation adoptée pour formaliser le problème et obtenir ces énergies peut être déterministe ou stochastique. Il est connu que la première approche est équivalente à la classe paramétrique de la seconde. Ce constat nous a amené à faire le choix de la seconde approche a priori plus générale si l'on se débarrasse de l'hypothèse paramétrique. En contrepartie, il s'agit d'être capable d'exprimer et d'estimer une énergie en fonction des données alors interprétées comme des échantillons d'une variable aléatoire. Ce premier obstacle est classiquement surmonté par l'emploi de méthodes à noyau fixe sur des lois marginales, autrement dit, en supposant les canaux de données indépendants entre eux. Or cet obstacle en cache deux autres : l'inhomogénéité de la répartition des échantillons dans leur espace d'appartenance et leur faible densité dans cet espace. Ces difficultés, ainsi que l'hypothèse d'indépendance mentionnée plus haut, sont d'autant plus pénalisantes que le modèle proposé pour les données est de grande dimension (canaux couleur, mais aussi ajouts d'autres canaux pour prendre en compte les structures locales des images). Au fondement d'estimateurs de mesures statistiques telle que l'entropie, l'idée du kième plus proche voisin permet de résoudre les difficultés évoquées en s'adaptant à la densité locale des données, en considérant les canaux conjointement, et ce quelle que soit leur nombre. Dans ce contexte, nous proposons une approche statistique générale inspirée de la théorie de l'information, dédiée aux approches variationnelles car estimant efficacement des énergies en haute dimension, permettant le calcul de leur dérivée et pouvant estimer localement des probabilités. Ce cadre est appliqué aux trois problèmes de traitement d'images ou de vidéos que sont l'estimation de flot optique, le suivi d'objets vidéos et la segmentation. Ce point de vue, en permettant de limiter sinon de s'affranchir du problème de la dimension des données, autorise la définition de nouvelles mesures et lois de probabilités plus adaptées aux images naturelles. Certains travaux en suivi d'objets et en segmentation ont conduit à des implémentations industrielles.
187

Segmentation région-contour des contours des lèvres

Bouvier, Christian 02 February 2010 (has links) (PDF)
La thèse présentée a été effectuée en cotutelle entre l'Institut Polytechnique de Grenoble et l'université Laval à Québec. Les travaux ont impliqué les laboratoires universitaire GIPSAlab à Grenoble et le Laboratoire de Vision et Systèmes Numériques de l'Université Laval (LVSN). Notre étude porte sur la segmentation des contours internes et externes des lèvres. L'objectif visé dans notre étude est de proposer un ensemble de méthodes permettant de modéliser précisément la zone de la bouche avec la meilleure robustesse possible. Par robustesse, notre entendons obtenir une méthode fiable qui ne nécessite pas de réglage de paramètres et qui permette une segmentation fidèle des contours externes et internes de la bouche. Dans un premier temps, une approche combinée région-contour est introduite dans le but d'obtenir une segmentation multi-locuteur de la bouche sur des images de visage en couleurs. Nous décrivons une approche par décorrélation permettant d'augmenter le contraste entre la peau et les lèvres sur des images en couleurs ainsi qu'une étude sur les gradients multi-échelles pour améliorer la robustesse de la modélisation des contours de la bouche. Ensuite nous présentons notre méthode de localisation et de segmentation régioncontour de la bouche sur des images de visage en couleurs. Dans un second temps nous nous sommes intéressés à la détection de l'état de la bouche. L'étape de détection de l'état de la bouche est nécessaire à la modélisation de la région interne qui présente une grande variabilité de forme et de texture. Une approche bioinspirée, basée sur un modèle de rétine et de cortex visuel conduisant au calcul d'un spectre Log-polaire, a été développée pour modéliser la zone de la bouche. Ces spectres sont, ensuite, utilisés pour entraîner un réseau SVM destiné à identifier l'état de la bouche. D'autre part, de nombreux auteurs ont suggéré d'utiliser la modalité infrarouge en analyse faciale. Le LVSN possédant une solide expertise dans le domaine de la vision infrarouge, une étude sur la pertinence de la modalité infrarouge dans le cadre de la segmentation des lèvres est proposée. Après avoir localisé la bouche et identifié l'état de la bouche, nous nous intéressons alors à la segmentation des contours externes et internes de la bouche. Un modèle polynomial de contour externe, dont la complexité sera automatiquement adaptée en fonction de la bouche traitée, est présenté. L'aspect de la zone interne de la bouche pouvant varier très rapidement, l'extraction du contour interne est particulièrement difficile. Nous proposons de traiter ce problème par une méthode de classification non-supervisée pour sélectionner les régions internes de la bouche. La méthode de modélisation de contour par un modèle polynomial est par la suite appliquée pour extraire le contour interne de la bouche. Enfin, une analyse quantitative de la performance globale de l'extraction des contours internes et externes est réalisée par comparaison avec des vérités-terrain.
188

Segmentation et suivi de structures par modèle déformable élastique non-linéaire. Application à l'analyse automatisée de séquences d'IRM cardiaques.

Schaerer, Joël 16 December 2008 (has links) (PDF)
Les pathologies cardio-vasculaires constituent une des premières causes de mortalité dans les pays occidentaux et en France. En particulier, les pathologies ischémiques en représentent une part significative qui sont elles- mêmes la consé- quence de pathologies vasculaires comme l'athérosclérose. Les progrès de l'imagerie cardiaque permettent aujourd'hui de voir en détail les effets des pathologies ischémiques sur le mouvement du cœur, notamment. L'imagerie cardiaque est ainsi un outil précieux pour l'aide au diagnostic de ce type de pathologies, et pour mieux comprendre leurs causes et leur évolution. A ce jour, l'exploitation de ces données en clinique reste cependant très incomplète. En effet, le volume très important de données rend quasiment impossible le trai- tement manuel complet des images acquises sur chaque patient. D'autre part, le traitement manuel des images manque d'objectivité et de reproductibilité, com- promettant la validité des résultats obtenus, tant dans un contexte de recherche que pour un diagnostic en clinique. Nous proposons de recourir à des méthodes d'analyse assistées par l'ordinateur pour améliorer l'exploitation de ces images, à savoir l'extraction de l'anatomie et du mouvement du cœur en 3D. Ces méthodes permettront d'apporter une aide au diagnostic précieuse en fournissant des para- mètres globaux et locaux de la fonction contractile. Elles permettront en outre de faire avancer les connaissances en permettant une analyse accélérée et objective de groupes importants de patients. L'analyse automatisée d'images cardiaques pose cependant de nombreux pro- blèmes méthodologiques. Les travaux menés à ce sujet ont montré que l'utilisation de modèles réalistes comme a priori dans les algorithmes est un pré-requis indis- pensable à leur efficacité. Dans le cadre de cette thèse, nous nous sommes focalisés sur l'évolution de la méthode du Gabarit Déformable Élastique (GDE) pour l'extraction automatique de l'anatomie cardiaque (cavités ventriculaires et enveloppe péricardique), déve- loppée au laboratoire Creatis-LRMN. Le GDE consiste à représenter le myocarde par un modèle de forme a priori que l'on déforme élastiquement pour l'adapter à la forme spécifique du cœur du patient. Au cours de cette thèse, un nouvel algorithme non-linéaire, permettant une meilleure prise en compte de la variabilité de la forme du cœur, a été développé en collaboration avec l'Institut Camille Jordan de Mathématiques Appliquées à Lyon. La collaboration avec des mathématiciens permet d'asseoir nos travaux sur des bases théoriques solides : une preuve de convergence de l'algorithme a été proposée [13]. Nous proposons en outre une méthode de multirésolution sur le maillage qui permet une accélération significative de l'algorithme, ainsi qu'une méthode de perturbation singulière permettant de s'assurer que le modèle est par- faitement adapté aux données [14]. Parallèlement, un travail a été réalisé pour l'amélioration de l'attache aux don- nées [15] et en particulier du champ de force qui guide la déformation du gabarit, de manière à améliorer la robustesse de la méthode, notamment avec les données issues des imageurs modernes. Nous proposons également plusieurs contributions pour le positionnement ini- tial du modèle dans les images. En particulier, l'utilisation d'un recalage par fonc- tions splines de plaque mince a été proposé [16], en collaboration avec le Profes- seur L. Axel à New York. Enfin, nous proposons d'étendre le GDE pour une modélisation dynamique et non plus statique du cœur, en s'appuyant sur une représentation harmonique du mouvement sur l'ensemble du cycle cardiaque et en proposant un algorithme original de résolution [17, 18]. Cette dernière proposition constitue sans doute la principale contribution de notre travail. Elle s'appuie là-aussi sur des résultats théoriques. Les méthodes proposées sont évaluées sur des données de synthèse et des données réelles acquises chez l'homme et le petit animal.
189

Traitement du signal et images LC/MS pour la recherche de biomarqueurs

Li-Thiao-Té, Sébastien 26 June 2009 (has links) (PDF)
La spectrométrie de masse LC/MS est une technique de chimie analytique très prometteuse pour la recherche de biomarqueurs protéiques. Cette thèse aborde la correction de certaines distortions : l'alignement des images LC/MS et la normalisation des intensités. Nous étudions ensuite un détecteur de signaux a contrario et calculons la limite de détection.
190

Détourage interactif de photographies d'Intérêt général

Bertier, Marc 01 July 1983 (has links) (PDF)
Dans un premier temps, nous mettrons en valeur le contexte technologique matériel et surtout logiciel qui permet aujourd'hui le développement de systèmes de mise en page pour les métiers de l'édition(§ I.1). Dans cette perspective, apparaîtront d'eux mêmes, la motivation et l'intérêt pratique présentés par l'étude détaillée du détourage, opération fondamentale qui consiste à extraire d'une photographie l'image d'un objet y figurant (§ I.2). Nous aborderons, dans la suite de ce chapitre une présentation plus technique des difficultés soulevées par l'automatisation du détourage. Plus précisément, nous présenterons le problème comme relevant à la fois de la segmentation et de l'interprétation d'image (§ I.3).

Page generated in 0.0864 seconds