• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 1
  • Tagged with
  • 4
  • 4
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Estimation du regard dans un environnement contrôlé

Lablack, Adel 03 February 2010 (has links) (PDF)
L'objectif principal de mon travail de thèse est l'extraction de la direction du regard (attention visuelle) d'une personne à partir de la vidéo. Cette analyse est effectuée dans un environnement composé d'une scène cible et d'une zone d'observation. La scène cible est une région d'intérêt définie pour être analysée (e.g. un écran plasma large, une image projetée sur un mur, une affiche publicitaire, un linéaire dans un magasin, ou la vitrine d'un magasin). La zone surveillée quant à elle est l'emplacement d'où les personnes regardent la scène cible (e.g. la rue, un couloir ou bien les allées d'un supermarché). Les connaissances qui sont extraites sont alors utilisées pour comprendre le comportement visuel de personnes ainsi que pour la réorganisation de la scène cible. Pour atteindre cet objectif, nous proposons une approche basée sur l'estimation de l'orientation de la tête et la projection du champ visuel pour localiser la région d'intérêt. Nous avons utilisé une méthode d'estimation de l'orientation de la tête basée sur l'apparence globale et sur un modèle cylindrique, et une méthode de projection géométrique pour extraire les régions d'intérêts basée sur les données physiologiques de la vision humaine. L'analyse du comportement visuel des personnes a été effectuée à l'aide d'un ensemble de métriques. Les méthodes proposées ont été validées sur des données vidéos et images.
2

Automatisation et optimisation de l'analyse d'images anatomo-fonctionnelles de cerveaux de souris par atlas numérique 3D

Lebenberg, Jessica 14 December 2010 (has links) (PDF)
La résolution des images de cerveau du petit animal acquises in vivo est encore limitée au regard de la taille des structures observées. Les modalités d'imagerie post mortem (coupes histologiques et autoradiographiques) restent encore aujourd'hui la référence pour une étude anatomo-fonctionnelle précise, bien que la cohérence 3D de l'organe soit perdue. Ces images 2D étant analysées par segmentation manuelle de régions d'intérêt (RDI), ce qui requiert du temps et une expertise en neuroanatomie, le nombre de coupes et de RDI étudiées est limité. Pour s'a ranchir de la perte de la cohérence 3D de l'organe et traiter un grand nombre de données, il est nécessaire de reconstruire des images 3D à partir de séries de coupes 2D et d'automatiser et d'optimiser l'analyse de ces volumes de données. Des travaux ont été réalisés pour restaurer la cohérence 3D de l'organe. L'objectif atteint de ce travail de thèse a donc été de proposer une méthode d'analyse de ces images 3D. Pour cela, nous avons recalé un atlas numérique 3D sur des images 3D de cerveaux de souris pour mener une étude de celles-ci grâce aux RDI de l'atlas. L'analyse par atlas à l'échelle des RDI, bien que able et rapide, met di cilement en évidence des variations fonctionnelles se produisant dans des zones de petite dimension par rapport à la taille des RDI. Ces di érences peuvent en revanche apparaître grâce à une analyse statistique réalisée à l'échelle du pixel. L'interprétation de ces résultats étant complexe chez la Souris, nous avons proposé d'utiliser l'atlas pour superviser cette analyse a n de coupler les avantages des méthodes. Un travail préliminaire a ensuite été réalisé pour évaluer la faisabilité d'analyser par atlas des images TEP acquises chez la Souris. Une perspective de ces travaux est d'utiliser l'atlas numérique 3D comme outil unique pour analyser conjointement des images acquises in vivo et post mortem sur les mêmes sujets et ainsi recouper les informations extraites de ces images.
3

Ondelettes pour la détection de caractéristiques en traitement d'images. Application à la détection de région d'intérêt.

Damerval, Christophe 07 May 2008 (has links) (PDF)
Cette thèse en traitement d'images aborde le problème de la mise en évidence de certaines structures remarquables, comme des objets que nous percevons visuellement. Celles-ci peuvent être autant monodimensionnelles, comme des contours, que bidimensionnelles, ce qui correspond des objets plus complexes. Un problème important issu de la vision par ordinateur est de détecter de telles structures, ainsi que d'extraire des grandeurs caractéristiques de celles-ci. Dans diverses applications, comme la reconnaissance d'objets, l'appariement d'images, le suivi de mouvement ou le rehaussement de certains éléments particuliers, il s'agit d'une première étape avant d'autres opérations de plus haut niveau. Ainsi, la formulation de détecteurs performants apparaît comme essentielle. Nous montrons que cela peut être réalisé grâce des décompositions en ondelettes ; en particulier, il est possible de définir certaines lignes de maxima, qui s'avèrent pertinentes vis à vis de ce problème : d'une part, pour détecter des objets (par des régions d'intérêt), et, d'autre part, afin de les caractériser (calculs de régularité Lipschitzienne et d'échelle caractéristique). Cette approche originale de détection fondée sur des lignes de maxima peut alors être comparée aux approches classiques.
4

Séparation de sources en imagerie nucléaire / Source separation in nuclear imaging

Filippi, Marc 05 April 2018 (has links)
En imagerie nucléaire (scintigraphie, TEMP, TEP), les diagnostics sont fréquemment faits à l'aide des courbes d'activité temporelles des différents organes et tissus étudiés. Ces courbes représentent l'évolution de la distribution d'un traceur radioactif injecté dans le patient. Leur obtention est compliquée par la superposition des organes et des tissus dans les séquences d'images 2D, et il convient donc de séparer les différentes contributions présentes dans les pixels. Le problème de séparation de sources sous-jacent étant sous-déterminé, nous proposons d'y faire face dans cette thèse en exploitant différentes connaissances a priori d'ordre spatial et temporel sur les sources. Les principales connaissances intégrées ici sont les régions d'intérêt (ROI) des sources qui apportent des informations spatiales riches. Contrairement aux travaux antérieurs qui ont une approche binaire, nous intégrons cette connaissance de manière robuste à la méthode de séparation, afin que cette dernière ne soit pas sensible aux variations inter et intra-utilisateurs dans la sélection des ROI. La méthode de séparation générique proposée prend la forme d'une fonctionnelle à minimiser, constituée d'un terme d'attache aux données ainsi que de pénalisations et de relâchements de contraintes exprimant les connaissances a priori. L'étude sur des images de synthèse montrent les bons résultats de notre approche par rapport à l'état de l'art. Deux applications, l'une sur les reins, l'autre sur le cœur illustrent les résultats sur des données cliniques réelles. / In nuclear imaging (scintigraphy, SPECT, PET), diagnostics are often made with time activity curves (TAC) of organs and tissues. These TACs represent the dynamic evolution of tracer distribution inside patient's body. Extraction of TACs can be complicated by overlapping in the 2D image sequences, hence source separation methods must be used in order to extract TAC properly. However, the underlying separation problem is underdetermined. We propose to overcome this difficulty by adding some spatial and temporal prior knowledge about sources on the separation process. The main knowledge used in this work is region of interest (ROI) of organs and tissues. Unlike state of the art methods, ROI are integrated in a robust way in our method, in order to face user-dependancy in their selection. The proposed method is generic and minimize an objective function composed with a data fidelity criterion, penalizations and relaxations expressing prior knowledge. Results on synthetic datasets show the efficiency of the proposed method compare to state of the art methods. Two clinical applications on the kidney and on the heart are also adressed.

Page generated in 0.0782 seconds