• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 30
  • 23
  • 17
  • Tagged with
  • 72
  • 72
  • 57
  • 56
  • 53
  • 52
  • 48
  • 45
  • 25
  • 20
  • 18
  • 17
  • 15
  • 15
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Définition et implantation matérielle d'un estimateur de mouvement configurable pour la compression vidéo adaptative

Elhamzi, Wajdi 04 February 2013 (has links) (PDF)
L'objectif de cette thèse est la conception d'une plateforme de compression vidéo de nouvelle génération à haut degré d'adaptation vis-à-vis de l'environnement. Ce besoin d'adaptabilité a plusieurs origines. D'une part les systèmes actuels visent à s'adapter à la diversité et l'hétérogénéité des médias et des terminaux actuels. D'autre part, l'exploitation de l'information contenue dans une scène vidéo dépend de l'application visée et des besoins des utilisateurs. Ainsi, l'information peut être exploitée de manière complètement inhomogène spatialement ou temporellement. En effet, l'exploitation spatiale de la scène peut être irrégulière par définition, par la définition automatique ou manuelle de zones d'intérêts dans l'image. La qualité de la vidéo, donc de la compression, doit pouvoir s'adapter afin de limiter la quantité de donnée à transmettre. Cette qualité est donc dépendante de l'évolution de la scène vidéo elle-même. Une architecture matérielle configurable a été proposée dans cette thèse permettant de supporter différents algorithmes de recherche en offrant une précision subpixélique.La synthèse des travaux menés dans ce domaine et la comparaison objective des résultats obtenus par rapport à l'état de l'art. L'architecture proposée est synthétisée à base d'un FPGA Virtex 6 FPGA, les résultats obtenus pourraient traiter l'estimation du mouvement pixélique avec un flux vidéo haute définition (HD 1080), respectivement à 13 images par seconde en utilisant la stratégie de recherche exhaustive (108K Macroblocs/s) et jusqu'à 223 images par seconde avec la recherche selon un grille en diamant (1,8 M Macroblocs /s). En outre le raffinement subpixélique en quart-pel est réalisé à Macroblocs 232k/ s
12

Arbre de partition binaire : Un nouvel outil pour la représentation hiérarchique et l'analyse des images hyperspectrales

Valero, Silvia 09 December 2011 (has links) (PDF)
Une image hyperspectrale est formée par un ensemble de bandes spectrales contenant les informations correspondantes à un intervalle du spectre électromagnétique. Le grand avantage de l'imagerie hyperspectrale par rapport l'imagerie traditionnelle est la capacité de mesurer le rayonnement électromagnétique dans le visible et dans d'autres longueurs d'onde. Cette caractéristique permet la détection des différences subtiles existantes parmi les plusieurs objets composant une image. Le traitement de ces images aussi volumineuses nécessite le développement d'algorithmes avancés qui permettent une exploitation optimale des données hyperspectrales. La représentation traditionnelle de ces images est un ensemble de mesures spectrales, ou spectres, une pour chaque pixel de l'image. Le principal inconvénient de cette représentation est que le pixel est l'unité la plus fondamentale des images numériques. Une analyse individuelle des spectres formant une image hyperspectrale fournit une information qui n'est pas optimale. Dans ce cadre, il est nécessaire d'établir des connexions entre les pixels d'une image hyperspectral afin de distinguer des formes dans l'image qui caractérisent leur contenu. Les représentations basées sur des régions fournissent un moyen de réaliser un premier niveau d'abstraction permettant une réduction du nombre d'éléments à traiter et une obtention des informations sémantiques du contenu de l'image. Ce type de représentations fournit une nette amélioration par rapport la représentation classique basée sur des pixels individuels. Sous le titre "La représentation et le traitement des images hyperspectrales en utilisant l'arbre binaire de partitions", cette thèse propose la construction d'une nouvelle représentation hiérarchique d'images hyperspectrales basée sur des régions : l'arbre binaire des partitions (ou BPT, sigles en anglais). Cette nouvelle représentation peut être interprétée comme un ensemble de régions de l'image dans une structure arborescente. L'arbre binaire de partitions peut être utilisé pour représenter : (i) la décomposition d'une image en plusieurs régions ayant un contenu sémantique et (ii) les différentes relations d'inclusion des régions dans la scène. L'arbre binaire de partitions est basée sur la construction d'un algorithme itératif de fusion de régions. La construction du BPT a été étudiée dans cette thèse par l'étude de différents modèles de représentation d'une région hyperspectrale et de différentes distances de similitude entre deux régions hyperspectrales. Cette recherche a été nécessaire en face la grande dimensionalité et complexité des données qui font nécessaire la définition d'un modèle de région et d'une distance de similarité spécifiques. Grâce à la structure en forme d'arbre, le BPT permet la définition d'un grand nombre de techniques pour un traitement avancé des images hyperspectrales. Ces techniques sont typiquement basées sur l'élagage de l'arbre grâce auquel les régions les plus intéressantes pour une application donnée sont extraites. Cette thèse se concentre sur trois applications particulières : la segmentation, la classification et la détection d'objets dans les images hyperspectrales. Les résultats expérimentaux obtenus sur différentes jeux de données montrent les qualités de la représentation BPT.
13

De la segmentation au moyen de graphes d’images de muscles striés squelettiques acquises par RMN / Graph- based segmentation of skeletal striated muscles in NMR images

Baudin, Pierre-Yves 23 May 2013 (has links)
La segmentation d’images anatomiques de muscles striés squelettiques acquises par résonance magnétique nucléaire (IRM) présente un grand intérêt pour l’étude des myopathies. Elle est souvent un préalable nécessaire pour l’étude les mécanismes d’une maladie, ou pour le suivi thérapeutique des patients. Cependant, le détourage manuel des muscles est un travail long et fastidieux, au point de freiner les recherches cliniques qui en dépendent. Il est donc nécessaire d’automatiser cette étape. Les méthodes de segmentation automatique se basent en général sur les différences d’aspect visuel des objets à séparer et sur une détection précise des contours ou de points de repère anatomiques pertinents. L’IRM du muscle ne permettant aucune de ces approches, la segmentation automatique représente un défi de taille pour les chercheurs. Dans ce rapport de thèse, nous présentons plusieurs méthodes de segmentation d’images de muscles, toutes en rapport avec l’algorithme dit du marcheur aléatoire (MA). L’algorithme du MA, qui utilise une représentation en graphe de l’image, est connu pour être robuste dans les cas où les contours des objets sont manquants ou incomplets et pour son optimisation numérique rapide et globale. Dans sa version initiale, l’utilisateur doit d’abord segmenter de petites portions de chaque région de l’image, appelées graines, avant de lancer l’algorithme pour compléter la segmentation. Notre première contribution au domaine est un algorithme permettant de générer et d’étiqueter automatiquement toutes les graines nécessaires à la segmentation. Cette approche utilise une formulation en champs aléatoires de Markov, intégrant une connaissance à priori de l’anatomie et une détection préalable des contours entre des paires de graines. Une deuxième contribution vise à incorporer directement la connaissance à priori de la forme des muscles à la méthode du MA. Cette approche conserve l’interprétation probabiliste de l’algorithme original, ce qui permet de générer une segmentation en résolvant numériquement un grand système linéaire creux. Nous proposons comme dernière contribution un cadre d’apprentissage pour l’estimation du jeu de paramètres optimaux régulant l’influence du terme de contraste de l’algorithme du MA ainsi que des différents modèles de connaissance à priori. La principale difficulté est que les données d’apprentissage ne sont pas entièrement supervisées. En effet, l’utilisateur ne peut fournir qu’une segmentation déterministe de l’image, et non une segmentation probabiliste comme en produit l’algorithme du MA. Cela nous amène à faire de la segmentation probabiliste optimale une variable latente, et ainsi à formuler le problème d’estimation sous forme d’une machine à vecteurs de support latents (latent SVM). Toutes les méthodes proposées sont testées et validées sur des volumes de muscles squelettiques acquis par IRM dans un cadre clinique. / Segmentation of magnetic resonance images (MRI) of skeletal striated muscles is of crucial interest when studying myopathies. Diseases understanding, therapeutic followups of patients, etc. rely on discriminating the muscles in MRI anatomical images. However, delineating the muscle contours manually is an extremely long and tedious task, and thus often a bottleneck in clinical research. Typical automatic segmentation methods rely on finding discriminative visual properties between objects of interest, accurate contour detection or clinically interesting anatomical points. Skeletal muscles show none of these features in MRI, making automatic segmentation a challenging problem. In spite of recent advances on segmentation methods, their application in clinical settings is difficult, and most of the times, manual segmentation and correction is still the only option. In this thesis, we propose several approaches for segmenting skeletal muscles automatically in MRI, all related to the popular graph-based Random Walker (RW) segmentation algorithm. The strength of the RW method relies on its robustness in the case of weak contours and its fast and global optimization. Originally, the RW algorithm was developed for interactive segmentation: the user had to pre-segment small regions of the image – called seeds – before running the algorithm which would then complete the segmentation. Our first contribution is a method for automatically generating and labeling all the appropriate seeds, based on a Markov Random Fields formulation integrating prior knowledge of the relative positions, and prior detection of contours between pairs of seeds. A second contribution amounts to incorporating prior knowledge of the shape directly into the RW framework. Such formulation retains the probabilistic interpretation of the RW algorithm and thus allows to compute the segmentation by solving a large but simple sparse linear system, like in the original method. In a third contribution, we propose to develop a learning framework to estimate the optimal set of parameters for balancing the contrast term of the RW algorithm and the different existing prior models. The main challenge we face is that the training samples are not fully supervised. Specifically, they provide a hard segmentation of the medical images, instead of the optimal probabilistic segmentation, which corresponds to the desired output of the RW algorithm. We overcome this challenge by treating the optimal probabilistic segmentation as a latent variable. This allows us to employ the latent Support Vector Machine (latent SVM) formulation for parameter estimation. All proposed methods are tested and validated on real clinical datasets of MRI volumes of lower limbs.
14

Sources of contrast and acquisition methods in functional MRI of the Human Brain

Denolin, Vincent 08 October 2002 (has links)
<p align="justify">L'Imagerie fonctionnelle par Résonance Magnétique (IRMf) a connu un développement important depuis sa découverte au début des années 1990. Basée le plus souvent sur l'effet BOLD (Blood Oxygenation Level Dependent), cette technique permet d'obtenir de façon totalement non-invasive des cartes d'activation cérébrale, avec de meilleures résolutions spatiale et temporelle que les méthodes préexistantes telles que la tomographie par émission de positrons (TEP). Facilement praticable au moyen des imageurs par RMN disponible dans les hôpitaux, elle a mené à de nombreuses applications dans le domaine des neurosciences et de l'étude des pathologies cérébrales.</p> <p align="justify">Il est maintenant bien établi que l'effet BOLD est dû à une augmentation de l'oxygénation du sang veineux dans les régions du cerveau où se produit l'activation neuronale, impliquant une diminution de la différence de susceptibilité magnétique entre le sang et les tissus environnants (la déoxyhémoglobine étant paramagnétique et l'oxyhémoglobine diamagnétique), et par conséquent un augmentation du signal si la méthode d'acquisition est sensible aux inhomogénéités de champ magnétique. Cependant, il reste encore de nombreuses inconnues quant aux mécanismes liant les variations d'oxygénation, de flux et de volume sanguin à l'augmentation de signal observée, et la dépendance du phénomène en des paramètres tels que l'intensité du champ, la résolution spatiale, et le type de séquence de RMN utilisée. La première partie de la thèse est donc consacrée à l'étude de l'effet BOLD, dans le cas particulier des contributions dues aux veines de drainage dans les séquences de type écho de gradient rendues sensibles au mouvement par l'ajout de gradients de champ. Le modèle développé montre que, contrairement au comportement suggéré par de précédentes publications, l'effet de ces gradients n'est pas une diminution monotone de la différence de signal lorsque l'intensité des gradients augmente. D'importantes oscillations sont produites par l'effet de phase dû au déplacement des spins du sang dans les gradients additionnels, et par la variation de cette phase suite à l'augmentation du flux sanguin. La validation expérimentale du modèle est réalisée au moyen de la séquence PRESTO (Principles of Echo-Shifting combined with a Train of Observations), c'est-à-dire une séquence en écho de gradient où des gradients supplémentaires permettent d'augmenter la sensibilité aux inhomogénéités de champ, et donc à l'effet BOLD. Un accord qualitatif avec la théorie est établi en montrant que la variation de signal observée peut augmenter lorsqu'on intensifie les gradients additionnels.</p> <p align="justify">Un autre source de débat continuel dans le domaine de l'IRMf réside dans l'optimalisation des méthodes d'acquisition, au point de vue notamment de leur sensibilité à l'effet BOLD, leurs résolutions spatiale et temporelle, leur sensibilité à divers artefacts tels que la perte de signal dans les zones présentant des inhomogénéités de champ à grande échelle, et la contamination des cartes d'activation par les contributions des grosses veines, qui peuvent être distantes du lieu d'activation réel. Les séquences en écho de spin sont connues pour être moins sensibles à ces deux derniers problèmes, c'est pourquoi la deuxième partie de la thèse est consacrée à une nouvelle technique permettant de donner une pondération T2 plutôt que T2* aux images. Le principe de base de la méthode n'est pas neuf, puisqu'il s'agit de la « Préparation T2 » (T2prep), qui consiste à atténuer l'aimantation longitudinale différemment selon la valeur du temps de relaxation T2, mais il n’avait jamais été appliqué à l’IRMf. Ses avantages par rapport à d’autres méthodes hybrides T2 et T2* sont principalement le gain en résolution temporelle et en dissipation d’énergie électromagnétique dans les tissus. Le contraste généré par ces séquences est étudié au moyen de solutions stationnaires des équations de Bloch. Des prédictions sont faites quant au contraste BOLD, sur base de ces solutions stationnaires et d’une description simplifiée de l’effet BOLD en termes de variations de T2 et T2*. Une méthode est proposée pour rendre le signal constant au travers du train d’impulsions en faisant varier l’angle de bascule d’une impulsion à l’autre, ce qui permet de diminuer le flou dans les images. Des expériences in vitro montrent un accord quantitatif excellent avec les prédictions théoriques quant à l’intensité des signaux mesurés, aussi bien dans le cas de l’angle constant que pour la série d’angles variables. Des expériences d’activation du cortex visuel démontrent la faisabilité de l’IRMf au moyen de séquences T2prep, et confirment les prédictions théoriques quant à la variation de signal causée par l’activation.</p> <p align="justify"> La troisième partie de la thèse constitue la suite logique des deux premières, puisqu’elle est consacrée à une extension du principe de déplacement d’écho (echo-shifting) aux séquences en écho de spin à l’état stationnaire, ce qui permet d’obtenir une pondération T2 et T2* importante tout en maintenant un temps de répétition court, et donc une bonne résolution temporelle. Une analyse théorique approfondie de la formation du signal dans de telles séquences est présentée. Elle est basée en partie sur la technique de résolution des équations de Bloch utilisée dans la deuxième partie, qui consiste à calculer l’aimantation d’état stationnaire en fonction des angles de précession dans le plan transverse, puis à intégrer sur les isochromats pour obtenir le signal résultant d’un voxel (volume element). Le problème est aussi envisagé sous l’angle des « trajectoires de cohérence », c’est-à-dire la subdivision du signal en composantes plus ou moins déphasées, par l’effet combiné des impulsions RF, des gradients appliqués et des inhomogénéités du champ magnétique principal. Cette approche permet d’interpréter l’intensité du signal dans les séquences à écho déplacé comme le résultat d’interférences destructives entre diverses composantes physiquement interprétables. Elle permet de comprendre comment la variation de la phase de l’impulsion d’excitation (RF-spoiling) élimine ces interférences. Des expériences in vitro montrent un accord quantitatif excellent avec les calculs théoriques, et la faisabilité de la méthode in vivo est établie. Il n’est pas encore possible de conclure quant à l’applicabilité de la nouvelle méthode dans le cadre de l’IRMf, mais l’approche théorique proposée a en tout cas permis de revoir en profondeur les mécanismes de formation du signal pour l’ensemble des méthodes à écho déplacé, puisque le cas de l’écho de gradient s’avère complètement similaire au cas de l’écho de spin.</p> <p align="justify">La thèse évolue donc progressivement de la modélisation de l’effet BOLD vers la conception de séquences, permettant ainsi d’aborder deux aspects fondamentaux de la physique de l’IRMf.</p>
15

Mesures de similarité statistiques et estimateurs par k plus proches voisins : une association pour gérer des descripteurs de haute dimension en traitement d'images et de vidéos

Debreuve, Eric 08 July 2009 (has links) (PDF)
Mesures de similarité statistiques et estimateurs par k plus proches voisins : une association pour gérer des descripteurs de haute dimension en traitement d'images et de vidéos
16

Approches robustes pour la comparaison d'images et la reconnaissance d'objets

Rabin, Julien 09 December 2009 (has links) (PDF)
La problématique générale de cette thèse est la comparaison d'images, que nous traitons via différentes applications. Nous proposons un système complet, robuste et automatique de reconnaissance d'objets multiples, dont la mise en œuvre repose principalement sur deux approches méthodologiques : la théorie de la décision « a contrario » et la théorie du transport optimal de Monge-Kantorovich. Dans ce cadre, une mesure de dissimilarité est définie pour la comparaison de descripteurs locaux de type SIFT en fonction du coût de transport optimal entre histogrammes circulaires (Circular Earth Mover's Distance). Un critère de mise en correspondance ces descripteurs s'appuyant sur la théorie de la décision a contrario est par la suite introduit. Ce critère permet de s'affranchir du réglage du seuil de détection et de la restriction usuelle au plus proche voisin. Nous proposons un algorithme de type RANSAC (RANdom SAmple Consensus) pour le groupement multiple de correspondances de descripteurs locaux. L'approche proposée permet la sélection du modèle géométrique de la transformation rigide due au changement de point de vue et au mouvement de l'objet détecté entre les différentes images. Dans le cadre du transport optimal, nous étudions par ailleurs l'intérêt de l'EMD (Earth Mover's Distance) pour la comparaison globale d'images (indexation d'images). Nous proposons enfin une méthode de régularisation de la carte de transport s'inspirant des approches par filtrage non-local, en vue d'une application au changement de contraste et au transfert de couleurs entre images.
17

Régularisation du problème inverse MEG par IRM de diffusion

Philippe, Anne-Charlotte 19 December 2013 (has links) (PDF)
La magnéto-encéphalographie (MEG) mesure l'activité cérébrale avec un excellent décours temporel mais sa localisation sur la surface corticale souffre d'une mauvaise résolution spatiale. Le problème inverse MEG est dit mal-posé et doit de ce fait être régularisé. La parcellisation du cortex en régions de spécificité fonctionnelle proche constitue une régularisation spatiale pertinente du problème inverse MEG. Nous proposons une méthode de parcellisation du cortex entier à partir de la connectivité anatomique cartographiée par imagerie de diffusion. Au sein de chaque aire d'une préparcellisation, la matrice de corrélation entre les profils de connectivité des sources est partitionnée. La parcellisation obtenue est alors mise à jour en testant la similarité des données de diffusion de part et d'autre des frontières de la préparcellisation. C'est à partir de ce résultat que nous contraignons spatialement le problème inverse MEG. Dans ce contexte, deux méthodes sont développées. La première consiste à partitionner l'espace des sources au regard de la parcellisation. L'activité corticale est alors obtenue sur un ensemble de parcelles. Afin de ne pas forcer les sources à avoir exactement la même intensité au sein d'une parcelle, nous développons une méthode alternative introduisant un nouveau terme de régularisation qui, lorsqu'il est minimisé, tend à ce que les sources d'une même parcelle aient des valeurs de reconstruction proches. Nos méthodes de reconstruction sont testées et validées sur des données simulées et réelles. Une application clinique dans le cadre du traitement de données de sujets épileptiques est également réalisée.
18

Hiérarchies sémantiques pour l'annotation multifacette d'images

Tousch, Anne-Marie 01 February 2010 (has links) (PDF)
Cette thèse a pour sujet l'annotation automatique d'images. Pour plus de souplesse, nous utilisons un vocabulaire structuré, permettant de construire des annotations multifacettes et à différents niveaux d'interprétation. Une annotation prend alors la forme d'un ensemble de multilabels associés à des indices de confiance et permet d'exprimer un compromis fiabilité/précision sémantique. Le traitement proposé se déroule en deux phases : extraction de caractéristiques informatives et calcul de probabilités normalisées sur un espace de multilabels. Chacune exploite des mécanismes d'apprentissage. La démarche est évaluée sur deux jeux de données : un ensemble d'images de voitures et la base d'objets génériques Caltech-101. Les résultats suggèrent d'utiliser le vocabulaire structuré à différentes étapes selon la nature des données.
19

Pour une ingénierie des connaissances pour le développement d'applications de traitement d'images

Clouard, Régis 16 December 2009 (has links) (PDF)
Les travaux de recherche développés dans ce manuscrit portent sur la conception de systèmes de génération automatique de programmes de traitement d'images. De tels systèmes ont pour ambition de permettre à des utilisateurs non nécessairement experts en traitement d'images de construire seuls des programmes de traitement d'images dédiés. Cet objectif pose des défis importants en grande partie causés par les fossés sensoriel et sémantique qui séparent le contenu des images à traiter des besoins des utilisateurs. Les contributions se situent dans le domaine de l'ingénierie des connaissances où l'objectif est abordé sous l'angle du pilotage d'algorithmes à partir de systèmes à base de connaissances. Le point de vue développé soutient que le recours aux connaissances symboliques explicites, et donc à des systèmes à base de connaissances, est une voie prometteuse pour concevoir des systèmes de traitement d'images, dès lors que l'on envisage d'accroître les capacités d'adaptation à tout un ensemble de contextes différents. C'est sous cet angle que sont abordées les différentes parties du système : la formulation d'objectifs de traitement d'images ; la génération automatique de programmes ; l'interaction Homme-Machine ; l'acquisition de connaissances.
20

Reconstitution tomographique de propriétés qualitatives et quantitatives d'images

Abdmouleh, Fatma 12 November 2013 (has links) (PDF)
La tomographie consiste à reconstruire un objet nD à partir de projections (n-1)D. Cette discipline soulève plusieurs questions auxquelles la recherche essaie d'apporter des réponses. On s'intéresse dans cette thèse à trois aspects de cette problématique : 1) la reconstruction de l'image 2D à partir de projections dans un cadre rarement étudié qui est celui des sources ponctuelles ; 2) l'unicité de cette reconstruction ; 3) l'estimation d'informations concernant un objet sans passer par l'étape de reconstitution de son image. Afin d'aborder le problème de reconstruction pour la classe des ensembles convexes, nous définissons une nouvelle classe d'ensembles ayant des propriétés de convexité qu'on appelle convexité par quadrants pour des sources ponctuelles. Après une étude de cette nouvelle classe d'ensembles, nous montrons qu'elle présente des liens forts avec la classe des ensembles convexes. Nous proposons alors un algorithme de reconstruction d'ensemblesconvexes par quadrants qui, si l'unicité de la reconstruction est garantie, permet de reconstruire des ensembles convexes en un temps polynomial. Nous montrons que si une conjecture, que nous avons proposée, est vraie, les conditions de l'unicité pour les ensembles convexes par quadrants sont les mêmes que celles pour les ensembles convexes. Concernant le troisième aspect étudié dans cette thèse, nous proposons une méthode qui permet d'estimer, à partir d'une seule projection, la surface d'un ensemble 2D. Concernant l'estimation du périmètre d'un ensemble 2D, en considérant les projections par une deuxième source d'un ensemble convexe, nous obtenons deux bornes inférieures et une borne supérieure pour le périmètre de l'objet projeté.

Page generated in 0.1067 seconds