• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2768
  • 906
  • 403
  • 12
  • 5
  • 4
  • 2
  • 1
  • Tagged with
  • 4136
  • 1297
  • 979
  • 902
  • 735
  • 732
  • 700
  • 633
  • 598
  • 577
  • 504
  • 393
  • 384
  • 375
  • 349
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1081

Modélisation et interprétation d'images à l'aide de graphes

Lerallut, Romain 13 September 2006 (has links) (PDF)
L'analyse et la comparaison intelligentes d'images sont parmi les sujets suscitant le plus d'intérêt dans les milieux académiques autant qu'industriels. Décrire et comparer automatiquement les images est en effet un enjeu critique pour le plein développement de la «société de l'information». Les moteurs de recherche fonctionnant sur le texte ont prouvé leur utilité de façon éclatante mais à l'heure actuelle il n'existe aucun système équivalent fonctionnant uniquement sur les images. Une explication possible est que nous ne disposons pas de langage permettant de décrire les images et que les comparaisons pertinentes sont ainsi beaucoup plus difficiles que dans le cas du texte. Cependant, le cas du texte nous montre qu'il n'est pas nécessaire que les machines comprennent ce qu'elles analysent pour renvoyer des résultats pertinents. Des méthodes simples d'analyse syntaxique associées à des règles de composition suffisent à piloter des moteurs de recherche d'une grande efficacité. Pour permettre à des machines de simuler l'interprétation des images, il faudrait donc créer des descripteurs faisant office de mots et des règles pour les regrouper, ce qui permettrait de comparer des scènes comme on compare des phrases. On dispose d'ores et déjà de nombreuses méthodes pour détecter automatiquement de petits objets et des régions dans des images, par leur couleur commune, leur mouvement identique, etc. Poursuivant l'analogie, on pourrait comparer ces petits objets à des syllabes. La difficulté consiste à les grouper en mots, puis en phrases et comparer celles-ci, tout en étant robuste face aux perturbations. Pour ce faire, nous utilisons des graphes pour stocker ces objets et leurs relations. Ces relations peuvent être de voisinage ou d'inclusion, ce qui conduit les graphes à être respectivement des graphes plans ou des arbres. Nous verrons ainsi plusieurs méthodes permettant de construire l'un ou l'autre type de représentation, ainsi que leurs avantages et inconvénients. Dans une première étape, nous avons utilisé les algorithmes d'appariement de graphes développés par Cristina Gomila à la fin de sa thèse au CMM (1998-2001). Profitant du projet européen MASCOT étudiant l'utilisation de «métadonnées» pour faciliter le codage vidéo, nous avons étudié en détail les forces et faiblesses de cette approche. Nous avons d'abord testé le remplacement de l'algorithme au coeur de l'appariement de graphes. Nous avons obtenu une légère amélioration de la stabilité et également de meilleurs temps de calcul. Puis nous avons cherché à améliorer notre robustesse face aux variations de segmentation en utilisant une projection dans le domaine spectral. Malgré de bons résultats sur des images simples, nos essais sur des images plus difficiles n'ont pas été couronnés de succès. Pour pallier cette fragilité dès que les graphes ne sont plus similaires, nous avons préféré revenir à notre matériau source, les images. La seconde étape de ce travail a porté sur le développement de techniques basées sur l'image pour réduire la sensibilité de nos algorithmes de segmentation au bruit et aux petites variations. Pour ce faire, nous avons développé une classe d'opérateurs de filtrage adaptatifs, les «amibes morphologiques », extrêmement efficaces pour réduire le bruit dans les images. Par ailleurs, nous avons également développé un opérateur de gradient couleur robuste permettant de mieux détecter les contours dans les images bruitées. Ces deux opérateurs ont amélioré de façon parfois impressionnante la stabilité de nos modélisations, puis de nos graphes et donc des résultats globaux. L'étape suivante dans ce travail a porté sur le développement de modélisations d'objets indépendamment du reste de l'image. La motivation derrière cette approche est de considérer que, dans certains scénarios, le contenu de l'image, hors de certains objets bien définis, n'est pas informatif. Il faut donc analyser directement et de la façon la plus précise possible les objets eux-mêmes. Nous avons dans un premier temps supposé que les segmentations des objets étaient connues, afin de nous concentrer sur le calcul d'une signature robuste de chaque objet. Pour l'obtenir, nous avons modifié un algorithme de ligne de partage des eaux pour effectuer une resegmentation «top-down» d'un espace d'échelle morphologique basé sur des nivellements. Ceci a donné lieu à une nouvelle modélisation robuste utilisant des arbres de régions imbriquées. Nous avons également développé une distance entre ces arbres et nous l'avons testée sur une base d'images classique dans le domaine de l'indexation. La dernière étape est centrée sur l'aspect applicatif. En premier lieu en comparant les différentes approches présentées dans ce travail, notamment aux niveaux de leur robustesse et de leur vitesse d'exécution. Enfin, nous avons cherché la meilleure combinaison de techniques pour concevoir une application de vidéosurveillance. En particulier, nous avons développé des techniques rapides et robustes de segmentation dans le cadre du projet PS26-27 «Environnement Intelligent» en collaboration avec ST Microelectronics et le groupe ORION de l'INRIA. Ce projet visait à construire un démonstrateur de technologies de vidéosurveillance appliquées à la détection d'accidents dans les cadres domestique et hospitalier. Notre part du travail consistait à la mise au point d'algorithmes de détection de silhouettes en mouvement dans des séquences vidéo. Ainsi, en couplant ces techniques à nos descripteurs d'objets par arbres, nous avons pu définir des signatures robustes de personnes, qui pourront être utilisées avec un grande efficacité dans des systèmes automatisés de vidéosurveillance.
1082

Un cadre statistique en traitement d'images et vidéos par approche variationnelle avec modélisation haute dimension

Boltz, Sylvain 09 July 2008 (has links) (PDF)
Cette thèse aborde le traitement d'images et de vidéos sous l'angle variationnel, c'est-à-dire sous forme d'une énergie dont le minimum est atteint pour la solution. La modélisation adoptée pour formaliser le problème et obtenir ces énergies peut être déterministe ou stochastique. Il est connu que la première approche est équivalente à la classe paramétrique de la seconde. Ce constat nous a amené à faire le choix de la seconde approche a priori plus générale si l'on se débarrasse de l'hypothèse paramétrique. En contrepartie, il s'agit d'être capable d'exprimer et d'estimer une énergie en fonction des données alors interprétées comme des échantillons d'une variable aléatoire. Ce premier obstacle est classiquement surmonté par l'emploi de méthodes à noyau fixe sur des lois marginales, autrement dit, en supposant les canaux de données indépendants entre eux. Or cet obstacle en cache deux autres : l'inhomogénéité de la répartition des échantillons dans leur espace d'appartenance et leur faible densité dans cet espace. Ces difficultés, ainsi que l'hypothèse d'indépendance mentionnée plus haut, sont d'autant plus pénalisantes que le modèle proposé pour les données est de grande dimension (canaux couleur, mais aussi ajouts d'autres canaux pour prendre en compte les structures locales des images). Au fondement d'estimateurs de mesures statistiques telle que l'entropie, l'idée du kième plus proche voisin permet de résoudre les difficultés évoquées en s'adaptant à la densité locale des données, en considérant les canaux conjointement, et ce quelle que soit leur nombre. Dans ce contexte, nous proposons une approche statistique générale inspirée de la théorie de l'information, dédiée aux approches variationnelles car estimant efficacement des énergies en haute dimension, permettant le calcul de leur dérivée et pouvant estimer localement des probabilités. Ce cadre est appliqué aux trois problèmes de traitement d'images ou de vidéos que sont l'estimation de flot optique, le suivi d'objets vidéos et la segmentation. Ce point de vue, en permettant de limiter sinon de s'affranchir du problème de la dimension des données, autorise la définition de nouvelles mesures et lois de probabilités plus adaptées aux images naturelles. Certains travaux en suivi d'objets et en segmentation ont conduit à des implémentations industrielles.
1083

Etude de faisabilité d'un lidar Rayleigh-Mie pour la mesure à courte distance de la vitesse de l'air de sa température et de sa densité.

Cezard, Nicolas 16 May 2008 (has links) (PDF)
Le lidar (acronyme de Light Detection and Ranging) est un instrument couramment utilisé de nos jours pour la caractérisation des propriétés physico-chimiques de l'atmosphère. Dans le domaine de l'aéronautique, on pourrait l'employer pour caractériser l'atmosphère amont d'un aéronef porteur. Parmi les applications courte-portée, citons l'optimisation du vol ou la détection de turbulence. Le principe du lidar consiste à émettre un faisceau laser dans l'atmosphère pour analyser le signal rétrodiffusé. En général, deux types de signaux coexistent, aux propriétés spectrales très différentes : le signal Rayleigh, diffusé par les molécules de l'air, et le signal Mie, diffusé par les particules plus massives (poussières, aérosols...). Ce travail de thèse évalue la faisabilité d'un lidar mixte Rayleigh-Mie, capable d'exploiter simultanément les deux types de signaux. L'objectif est la mesure à courte portée (20-50 m) des paramètres de vitesse, température et densité de l'air. Le point d'étude essentiel concerne la méthode d'analyse spectrale du signal : un système utilisant deux interféromètres de Michelson à imagerie de franges est notamment proposé, et ses performances comparées avec celle de l'interféromètre de Fabry-Perot, plus classique. La faisabilité de la mesure de vitesse par interféromètre de Michelson à imagerie de franges est expérimentalement démontrée. Pour cela, un système lidar à 355 nm a été développé, et une méthode de traitement de signal spécifiquement conçue pour l'analyse des franges. On montre que des mesures robustes peuvent être réalisées en plein jour, insensibles aux dérives de fréquence du laser et aux perturbations thermo-mécaniques de l'interféromètre.
1084

Segmentation région-contour des contours des lèvres

Bouvier, Christian 02 February 2010 (has links) (PDF)
La thèse présentée a été effectuée en cotutelle entre l'Institut Polytechnique de Grenoble et l'université Laval à Québec. Les travaux ont impliqué les laboratoires universitaire GIPSAlab à Grenoble et le Laboratoire de Vision et Systèmes Numériques de l'Université Laval (LVSN). Notre étude porte sur la segmentation des contours internes et externes des lèvres. L'objectif visé dans notre étude est de proposer un ensemble de méthodes permettant de modéliser précisément la zone de la bouche avec la meilleure robustesse possible. Par robustesse, notre entendons obtenir une méthode fiable qui ne nécessite pas de réglage de paramètres et qui permette une segmentation fidèle des contours externes et internes de la bouche. Dans un premier temps, une approche combinée région-contour est introduite dans le but d'obtenir une segmentation multi-locuteur de la bouche sur des images de visage en couleurs. Nous décrivons une approche par décorrélation permettant d'augmenter le contraste entre la peau et les lèvres sur des images en couleurs ainsi qu'une étude sur les gradients multi-échelles pour améliorer la robustesse de la modélisation des contours de la bouche. Ensuite nous présentons notre méthode de localisation et de segmentation régioncontour de la bouche sur des images de visage en couleurs. Dans un second temps nous nous sommes intéressés à la détection de l'état de la bouche. L'étape de détection de l'état de la bouche est nécessaire à la modélisation de la région interne qui présente une grande variabilité de forme et de texture. Une approche bioinspirée, basée sur un modèle de rétine et de cortex visuel conduisant au calcul d'un spectre Log-polaire, a été développée pour modéliser la zone de la bouche. Ces spectres sont, ensuite, utilisés pour entraîner un réseau SVM destiné à identifier l'état de la bouche. D'autre part, de nombreux auteurs ont suggéré d'utiliser la modalité infrarouge en analyse faciale. Le LVSN possédant une solide expertise dans le domaine de la vision infrarouge, une étude sur la pertinence de la modalité infrarouge dans le cadre de la segmentation des lèvres est proposée. Après avoir localisé la bouche et identifié l'état de la bouche, nous nous intéressons alors à la segmentation des contours externes et internes de la bouche. Un modèle polynomial de contour externe, dont la complexité sera automatiquement adaptée en fonction de la bouche traitée, est présenté. L'aspect de la zone interne de la bouche pouvant varier très rapidement, l'extraction du contour interne est particulièrement difficile. Nous proposons de traiter ce problème par une méthode de classification non-supervisée pour sélectionner les régions internes de la bouche. La méthode de modélisation de contour par un modèle polynomial est par la suite appliquée pour extraire le contour interne de la bouche. Enfin, une analyse quantitative de la performance globale de l'extraction des contours internes et externes est réalisée par comparaison avec des vérités-terrain.
1085

Représentations parcimonieuses adaptées à la compression d'images

Martin, Aurélie 02 April 2010 (has links) (PDF)
La compression numérique est devenue un outil indispensable pour la transmission et le stockage de contenus multimédias de plus en plus volumineux. Pour répondre à ces besoins, la norme actuelle de compression vidéo, H.264/AVC, se base sur un codage prédictif visant à réduire la quantité d'information à transmettre. Une image de prédiction est générée, puis soustraite à l'originale pour former une image résiduelle contenant un minimum d'information. La prédiction H.264/AVC de type intra repose sur la propagation de pixels voisins, le long de quelques directions prédéfinies. Bien que très efficace pour étendre des motifs répondants aux mêmes caractéristiques, cette prédiction présente des performances limitées pour l'extrapolation de signaux bidimensionnels complexes. Pour pallier cette problématique, les travaux de cette thèse proposent un nouveau schéma de prédiction basée sur les représentations parcimonieuses. Le but de l'approximation parcimonieuse est ici de rechercher une extrapolation linéaire approximant le signal analysé en termes de fonctions bases, choisies au sein d'un ensemble redondant. Les performances de cette approche ont été éprouvées dans un schéma de compression basé sur la norme H.264/AVC. Nous proposons également un nouveau schéma de prédiction spatiale inter-couches dans le cadre de la compression « scalable » basé sur H.264/SVC. Le succès de telles prédictions repose sur l'habileté des fonctions de base à étendre correctement des signaux texturés de natures diverses. Dans cette optique, nous avons également exploré des pistes visant la création de panels de fonctions de base, adaptées pour la prédiction de zones texturées.
1086

Contribution to the Study and Implementation of Intelligent Modular Self-organizing Systems

Budnyk, Ivan 08 December 2009 (has links) (PDF)
Les problèmes de la classification ont reçu une attention considérable dans des différents champs d'ingénierie comme traitement des images biomédicales, identification a partir de la voix, reconnaissance d'empreinte digitale etc. Les techniques d'intelligence artificielles, incluant les réseaux de neurones artificiels, permettent de traiter des problèmes de ce type. En particulier, les problèmes rencontrés nécessitent la manipulation de bases de données de tailles très importantes. Des structures de traitement adaptatives et exploitant des ensembles de classificateurs sont utilisées. Dans cette thèse, nous décrivons principalement le développement et des améliorations apportées à un outil de classification désigné par le terme Tree-like Divide to Simplify ou T-DTS. Nos efforts se sont portés sur l'un des modules de cet outil, le module d'estimation de complexité. L'architecture de l'outil T-DTS est très flexible et nécessite le choix d'un nombre important de paramètres. Afin de simplifier l'exploitation de T-DTS, nous avons conçu et développé une procédure automatique d'optimisation d'un de ces plus importants paramètres, le seuil de décision associé à la mesure de complexité. La contribution principale de cette thèse concerne le développement de modules pouvant s'implanté sur une architecture de calcul matérielle parallèle. Ce ceci permet de se rapproché d'une implantation purement matérielle de l'outil T-DTS
1087

LE TRAITEMENT ET LA GESTION DES DECHETS MENAGERS A LA REUNION : APPROCHE GEOGRAPHIQUE

Campan, Florence 18 September 2007 (has links) (PDF)
Depuis la départementalisation en 1946, La Réunion a connu un développement sans précédent, notamment une urbanisation qui s'est faite progressivement, actuellement caractérisée par une articulation du rural et de l'urbain. En outre, la population devenant de plus en plus nombreuse a eu pour effet immédiat une plus grande consommation. Conséquence de notre mode de vie, les déchets ménagers ne cessent de croître et leur rejet dans l'environnement devient un problème crucial ; ils sont ainsi devenus omniprésents et leur traitement pose des problèmes. Le projet de création d'une installation d'élimination telle qu'une usine d'incinération de déchets suscite de véritables levées de boucliers de la part des habitants réunionnais et des élus locaux. Le syndrome Nimby gagne la population. Le renforcement des normes européennes visant à permettre une gestion mieux contrôlée du traitement des déchets apparaît comme un fardeau supplémentaire. Ainsi, la mise en place des lois énoncées et édictées par l'Union Européenne s'appliquent à l'échelle locale mais s'insèrent difficilement dans la mesure où elles ne prennent pas en compte les contraintes et les spécificités locales.
1088

Segmentation et suivi de structures par modèle déformable élastique non-linéaire. Application à l'analyse automatisée de séquences d'IRM cardiaques.

Schaerer, Joël 16 December 2008 (has links) (PDF)
Les pathologies cardio-vasculaires constituent une des premières causes de mortalité dans les pays occidentaux et en France. En particulier, les pathologies ischémiques en représentent une part significative qui sont elles- mêmes la consé- quence de pathologies vasculaires comme l'athérosclérose. Les progrès de l'imagerie cardiaque permettent aujourd'hui de voir en détail les effets des pathologies ischémiques sur le mouvement du cœur, notamment. L'imagerie cardiaque est ainsi un outil précieux pour l'aide au diagnostic de ce type de pathologies, et pour mieux comprendre leurs causes et leur évolution. A ce jour, l'exploitation de ces données en clinique reste cependant très incomplète. En effet, le volume très important de données rend quasiment impossible le trai- tement manuel complet des images acquises sur chaque patient. D'autre part, le traitement manuel des images manque d'objectivité et de reproductibilité, com- promettant la validité des résultats obtenus, tant dans un contexte de recherche que pour un diagnostic en clinique. Nous proposons de recourir à des méthodes d'analyse assistées par l'ordinateur pour améliorer l'exploitation de ces images, à savoir l'extraction de l'anatomie et du mouvement du cœur en 3D. Ces méthodes permettront d'apporter une aide au diagnostic précieuse en fournissant des para- mètres globaux et locaux de la fonction contractile. Elles permettront en outre de faire avancer les connaissances en permettant une analyse accélérée et objective de groupes importants de patients. L'analyse automatisée d'images cardiaques pose cependant de nombreux pro- blèmes méthodologiques. Les travaux menés à ce sujet ont montré que l'utilisation de modèles réalistes comme a priori dans les algorithmes est un pré-requis indis- pensable à leur efficacité. Dans le cadre de cette thèse, nous nous sommes focalisés sur l'évolution de la méthode du Gabarit Déformable Élastique (GDE) pour l'extraction automatique de l'anatomie cardiaque (cavités ventriculaires et enveloppe péricardique), déve- loppée au laboratoire Creatis-LRMN. Le GDE consiste à représenter le myocarde par un modèle de forme a priori que l'on déforme élastiquement pour l'adapter à la forme spécifique du cœur du patient. Au cours de cette thèse, un nouvel algorithme non-linéaire, permettant une meilleure prise en compte de la variabilité de la forme du cœur, a été développé en collaboration avec l'Institut Camille Jordan de Mathématiques Appliquées à Lyon. La collaboration avec des mathématiciens permet d'asseoir nos travaux sur des bases théoriques solides : une preuve de convergence de l'algorithme a été proposée [13]. Nous proposons en outre une méthode de multirésolution sur le maillage qui permet une accélération significative de l'algorithme, ainsi qu'une méthode de perturbation singulière permettant de s'assurer que le modèle est par- faitement adapté aux données [14]. Parallèlement, un travail a été réalisé pour l'amélioration de l'attache aux don- nées [15] et en particulier du champ de force qui guide la déformation du gabarit, de manière à améliorer la robustesse de la méthode, notamment avec les données issues des imageurs modernes. Nous proposons également plusieurs contributions pour le positionnement ini- tial du modèle dans les images. En particulier, l'utilisation d'un recalage par fonc- tions splines de plaque mince a été proposé [16], en collaboration avec le Profes- seur L. Axel à New York. Enfin, nous proposons d'étendre le GDE pour une modélisation dynamique et non plus statique du cœur, en s'appuyant sur une représentation harmonique du mouvement sur l'ensemble du cycle cardiaque et en proposant un algorithme original de résolution [17, 18]. Cette dernière proposition constitue sans doute la principale contribution de notre travail. Elle s'appuie là-aussi sur des résultats théoriques. Les méthodes proposées sont évaluées sur des données de synthèse et des données réelles acquises chez l'homme et le petit animal.
1089

Traitement numérique des signaux et identification de systèmes RMN ; Conception et développement d'un imageur pour l'IRM dédiée à bas champ

Asfour, Aktham 20 June 2002 (has links) (PDF)
Le travail présenté dans ce manuscrit porte, dans sa première partie, sur la conception et le développement d'un nouvel imageur numérique d'IRM à bas champ permettant l'amélioration du rapport signal sur bruit (RSB). Cet imageur est architecturé autour d'un procéssus de signal (DSP) offrant plus de flexibilité dans le traitement du signal et la reconstruction de l'image. L'originalité de l'instrumentation développée réside principalement dans la spécification et l'intégration d'un récepteur et d'un synthétiseur de fréquences entièrement numériques. Le choix de cette solution numérique est argumenté par le besoin d'élaborer un imageur peu onéreux et de faible encombrement pouvant être facilement intégré dans tout environnement aussi bien médical qu'industriel. L'évaluation des caractéristiques du système atteste qu'une amélioration d'environ 20 dB du RSB par rapport aux systèmes analogiques conventionnels est obtenues. Le potentiel de l'imageur numérique est démontré à travers les premières images obtenues par la séquence d'écho de gradient. La deuxième partie de ce travail traite la problématique de l'identification non linéaire des systèmes RMN à l'aide des techniques du filtrage adaptatif. L'objectif étant de permettre la prise en compte de la non linéarité de tels systèmes dans le traitement et l'analyse, jusqu'à présent linéaires, du signal RMN. Deux modèles décrivant cette non linéarité sont ainsi exposés et comparés. Il est démontré que le modèle du filtre non linéaire à réponse impulsionnelle infinie (RII) permet des performances similaires au filtre de Volterra avec un nombre moins élevé de coefficients.
1090

Vers une solution réaliste de décodage source-canal conjoint de contenus multimédia

Marin, Cédric 27 March 2009 (has links) (PDF)
Lors d'une transmission vidéo sur les réseaux mobiles, les données doivent être efficacement comprimées pour s'adapter à la bande passante réduite du support. Cependant, plus un flux multimédia est comprimé, plus il est sensible aux erreurs de transmission. Pour garantir un signal exempt d'erreur à l'entrée du décodeur source, plusieurs mécanismes sont incorporés dans le récepteur. Ces techniques consistent principalement à retransmettre les paquets erronés et/ou à rajouter des redondances aux données transmises. Ces méthodes sont efficaces, mais entraînent une consommation excessive de ressources. Récemment, le concept de décodage conjoint a été proposé. Il consiste à utiliser les redondances inhérentes contenues dans les informations transmises pour améliorer la qualité du décodage multimédia. Dans cette thèse, nous explorons cet axe et proposons un nouveau schéma de décodage conjoint exploitant les propriétés sémantiques et syntaxiques du flux ainsi que les codes de détection d'erreurs (CRC) protégeant les paquets. Parallèlement, nous étudions les problématiques d'intégration des schémas de décodage conjoint dans les récepteurs traditionnels et nous montrons que de nombreuses modifications sont nécessaires. Nous proposons ensuite un principe universel permettant de résoudre simplement les difficultés en exploitant différemment la structure protocolaire. Ces techniques ont été testées en considérant une transmission vidéo H.264/AVC point-à-point sur un support WiFi. Les résultats obtenus ont confirmé l'intérêt du décodage robuste par une amélioration significative du bilan de liaison.

Page generated in 0.0822 seconds