• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 30
  • 23
  • 17
  • Tagged with
  • 72
  • 72
  • 57
  • 56
  • 53
  • 52
  • 48
  • 45
  • 25
  • 20
  • 18
  • 17
  • 15
  • 15
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Impact des transformations algorithmiques sur la synthèse de haut niveau : application au traitement du signal et des images / Impact of algorithmic transforms for High Level Synthesis (HLS) : application to signal and image processing

Ye, Haixiong 20 May 2014 (has links)
La thèse porte sur l'impact d'optimisations algorithmiques pour la synthèse automatique HLS pour ASIC. Ces optimisations algorithmiques sont des transformations de haut niveau, qui de part leur nature intrinsèque restent hors de porter des compilateurs modernes, même les plus optimisants. Le but est d'analyser l'impact des optimisations et transformations de haut niveau sur la surface, la consommation énergétique et la vitesse du circuit ASIC. Les trois algorithmes évalués sont les filtres non récursifs, les filtres récursifs et un algorithme de détection de mouvement. Sur chaque exemple, des gains ont été possibles en vitesse et/ou en surface et/ou en consommation. Le gain le plus spectaculaire est un facteur x12.6 de réduction de l'énergie tout en maitrisant la surface de synthèse et en respectant la contrainte d'exécution temps réel. Afin de mettre en perspective les résultats (consommation et vitesse), un benchmark supplémentaire a été réalisé sur un microprocesseur ST XP70 avec extension VECx, un processeur ARM Cortex avec extension Neon et un processeur Intel Penryn avec extensions SSE. / The thesis deals with the impact of algorithmic transforms for HLS synthesis for ASIC. These algorithmic transforms are high level transforms that are beyond the capabilities of modern optimizing compilers. The goal is to analyse the impact of the High level transforms on area execution time and energy consumption. Three algorithms have been analyzed: non recursive filters, recursive filter and a motion detection application. On each algorithm, the optimizations and transformations lead to speedups and area/surface gains. The most impressive gain in energy reduction is a factor x12.6, while the area remains constant and the execution time smaller than the real-time constraint. A benchmark has been done on SIMD general purpose processor to compare the impact of the high level transforms: ST XP70 microprocessor with VECx extension, ARM Cortex with Non extension and Intel Penryn with SSE extension.
52

3D segmentation and registration for minimal invasive prostate cancer therapy

Wu, Ke 05 March 2014 (has links) (PDF)
The work of this Thesis is focused on image guided focal therapy of prostate cancer by High Intensity Focused Ultrasound (HIFU). Currently MRI is the only imaging technique that can locate the tumor in prostate. In contrast, the tumor is not visible in the ultrasound image which is used to guide the HIFU planning and therapy. The aim of the Thesis is to provide registration techniques of T2 MRI to ultrasound. Two approaches were explored: 1) Region-based registration. More particularly, we studied an ultrasound texture descriptors based on moments invariant to rotation and scaling. These descriptors are sensitive to speckle distribution regardless of the scale or the orientation. As we expected, some of these descriptors can be used to characterize regions sharing a similar speckle spatial distribution. But, we also found that some other descriptors were sensitive to the contours of these regions. This property seems very useful to adapt the classical boundary-based or mixed region/boundary-based segmentation methods (active contours, graph cut, etc.) to process US images. 2) Surface-based registration approach.. We adapted the Optimal Definition Surface (OSD) method to the segmentation of the prostate in T2 MRI, Furthermore, we proposed the multiple-objects OSD which is a concurrent segmentation of the prostate, bladder and rectum. Finally we used the prostate surface extracted from the ultrasound volume and from T2 MRI in a surface-to-surface elastic registration scheme. This registration allowed us to merge the preoperative MR information in the peroperative US volume.
53

Mesures et modèles pour la capture de mouvement

Reveret, Lionel 16 May 2014 (has links) (PDF)
Il est beaucoup plus fréquent d'entendre parler de capture que de mesure de mouvement. On peut y voir l'intuition que derrière le mot mouvement se conçoit un phénomène plus complexe que la donnée de marqueurs qui en constitue aujourd'hui la norme d'instrumentation rigoureuse. Si le marqueur est quantifiable, le mouvement conserve une qualité supplémentaire à explorer. Je retrace ainsi ici les travaux de recherche que j'ai encadrés ces dernières années sur cette notion de capture de mouvement, à travers les outils scientifiques que sont la mesure et le modèle. Mes activités ont été initialement dédiées à l'animation 3D, puis se sont progressivement tournées vers des enjeux liés à l'anatomie. Les contributions en animation 3D ont d'abord porté sur la recherche d'espaces paramétriques optimaux pour mesurer et générer le mouvement articulé. L'optimalité est à prendre ici au sens de la recherche d'une réduction de dimensions qui préserve au mieux la qualité du mouvement. Elle s'est déclinée autour d'applications pour l'analyse vidéo du mouvement, en particuliers animal, sur la compression de données de mouvement articulé et l'édition de pose de personnage 3D. Ces différents thèmes ce sont structurés autour de modèles d'analyse statistique multidimensionnelle appris des différentes sources données, vidéo ou articulaires, conduisant à un paramétrage de haut niveau du mouvement. J'ai ensuite abordé différents aspects de l'intégration de données réelles dans des modèles d'animation physiques. Le mouvement animal a été étudié à travers une simulation de quadrupèdes dont les paramètres ont été optimisés par rapport à des données "terrain". Le mouvement humain a quant à lui été modélisé à travers le développement d'une formulation en mécanique Lagrangienne des paramètres de haut niveau identifiés précédemment. Une mesure des aspects dynamiques a été menée pour les situations de contacts multiples avec une application d'estimation de forces directement à partir de la cinématique. Une grande partie de mon activité de recherche a aussi porté sur le développement de systèmes expérimentaux pour le petit animal de laboratoire. Les tests sur rongeurs sont les premières étapes de toute mise sur le marché de médicament, de l'évaluation de la toxicité de substance chimique impliquée dans l'agro-alimentaire et de beaucoup de recherche en génétique grace au phénotypage. L'activité motrice est un indice princeps du comportement et donc sa quantification un enjeu important. Je me suis donc intéressé à la mesure 3D du mouvement du rongeur sous diverses conditions, du laboratoire d'anatomie comparée au vol parabolique en apesanteur. Des modèles anatomiques 3D ont été développés et couplés aux méthodes d'estimation de mouvement à partir de la vidéo. Ces recherches expérimentales ont conduit à la mise en place d'une nouvelle plateforme d'analyse construite autour d'un réseau de caméras et de cinéradiograpie biplanaire.
54

Brain microstructure mapping using quantitative and diffsusion MRI

Lebois, Alice 23 July 2014 (has links) (PDF)
This thesis is focused on the human brain microstructure mapping using quantitative and diffusion MRI. The T1/T2 quantitative imaging relies on sequences dedicated to the mapping of T1 and T2 relaxation times. Their variations within the tissue are linked to the presence of different water compartments defined by a specific organization of the tissue at the cell scale. Measuring these parameters can help, therefore, to better characterize the brain microstructure. The dMRI, on the other hand, explores the brownian motion of water molecules in the brain tissue, where the water molecules' movement is constrained by natural barriers, such as cell membranes. Thus, the information on their displacement carried by the dMRI signal gives access to the underlying cytoarchitecture. Combination of these two modalities is, therefore, a promising way to probe the brain tissue microstructure. The main goal of the present thesis is to set up the methodology to study the microstructure of the white matter of the human brain in vivo. The first part includes the acquisition of a unique MRI database of 79 healthy subjects (the Archi/CONNECT), which includes anatomical high resolution data, relaxometry data, diffusion-weighted data at high spatio-angular resolution and functional data. This database has allowed us to build the first atlas of the anatomical connectivity of the healthy brain through the automatic segmentation of the major white matter bundles, providing an appropriate anatomical reference for the white matter to study individually the quantitative parameters along each fascicle, characterizing its microstructure organization. Emphasis was placed on the construction of the first atlas of the T1/T2 profiles along the major white matter pathways. The profiles of the T1 and T2 relaxation times were then correlated to the quantitative profiles computed from the diffusion MRI data (fractional anisotropy, radial and longitudinal diffusivities, apparent diffusion coefficient), in order to better understand their relations and to explain the observed variability along the fascicles and the interhemispheric asymmetries. The second part was focused on the brain tissue modeling at the cell scale to extract the quantitative parameters characterizing the geometry of the cellular membranes, such as the axonal diameter and the axonal density. A diffusion MRI sequence was developed on the 3 Teslas and 7 Teslas Siemens clinical systems of NeuroSpin which is able to apply any kind of gradient waveforms to fall within an approach where the gradient waveform results from an optimization under the hypothesis of a geometrical tissue model, hardware and time constraints induced by clinical applications. This sequence was applied in the study of fourteen healthy subjects in order to build the first quantitative atlas of the axonal diameter and the local axonal density at 7T. We also proposed a new geometrical model to model the axon, dividing the axonal compartment, usually modelled using a simple cylinder, into two compartments: one being near the membranes with low diffusivity and one farer from the membranes, less restricted and with higher diffusivity. We conducted a theoretical study showing that under clinical conditions, this new model allows, in part, to overcome the bias induced by the simple cylindrical model leading to a systematic overestimation of the smallest diameters. Finally, in the aim of going further in the physiopathology of the autism, we added to the current 3T imaging protocol the dMRI sequence developed in the framework of this thesis in order to map the axonal diameter and density. This study is ongoing and should validate shortly the contribution of these new quantitative measures of the microstructure in the comprehension of the atrophies of the corpus callosum, initially observed using less specific diffusion parameters such as the generalized fractional anisotropy. There will be other clinical applications in the future.
55

Analyse de signaux ultrasonores, Formation d'Images de Cohérence - Application à la Microscopie Acoustique de circuits électroniques

Martin, Elodie 12 September 2007 (has links) (PDF)
La microscopie acoustique à balayage est une technologie largement utilisée dans l'imagerie non destructive de circuits microélectroniques. Les protocoles standards, établis pour des circuits simples, conduisent à des résultats difficilement interprétables lors de l'inspection d'assemblages petits et complexes. La limite de résolution axiale de ces dispositifs étant atteinte, une approche plus rigoureuse est proposée afin de comprendre la propagation des échos ultrasonores dans les circuits "Flip-Chip LFBGA". L'objectif de cette thèse consiste à présenter une analyse critique de signaux et images ultrasonores. La première partie de ce travail est consacrée à l'étude de la propagation des ondes planes dans des milieux feuilletés, modèle dit "direct". Dans la seconde partie, diverses méthodes de résolution du problème inverse, ou déconvolution, de signaux ultrasonores sont testées et comparées. Enfin, la troisième partie propose une nouvelle méthode, la cohérence locale temporelle, basée sur la comparaison de signaux ultrasonores réfléchis sur des circuits complexes.
56

Analyse et traitement d'images multi modales en oncologie

Hatt, Mathieu 27 March 2012 (has links) (PDF)
Avec une formation initiale en sciences de l'informatique et une spécialisation image, mes activités de recherche actuelles concernent le traitement et l'analyse de l'information et de l'image pour des applications en médecine, plus particulièrement l'oncologie et la radiothérapie. Plus spécifiquement, je m'intéresse à la segmentation et la classification automatique pour la définition des contours d'organes et de tumeurs, au filtrage du bruit et à la déconvolution pour l'amélioration qualitative et quantitative, et plus récemment, aux modèles multi observation pour la prise en compte des images multi modales, et la fusion d'informations pour l'aide à la décision dans la prise en charge des patients. Je poursuis ces thématiques spécifiquement dans le cadre de l'utilisation de l'imagerie TEP/TDM (Tomographie par Emission de Positons et scanner X) en oncologie et radiothérapie. Mes activités de recherche ont pris place dans le contexte de l'équipe " imagerie multi modale quantitative pour le diagnostic et la thérapie " du laboratoire INSERM U650 de traitement de l'information médicale (LaTIM). Ce contexte a garantit un travail l'équipe pluridisciplinaire, en collaboration notamment avec des radiothérapeutes, des médecins nucléaires, des physiciens, des ingénieurs, des mathématiciens et des informaticiens. En tant que doctorant, ma principale contribution a été le développement d'une méthode originale de segmentation d'image adaptée à la définition des volumes fonctionnels des tumeurs sur les images TEP. Lors de mon post-doctorat, j'ai poursuivi la validation de la précision, de la robustesse et de la reproductibilité de cette approche dans le cadre d'un projet ANR pour lequel j'ai reçu un financement de deux ans et demi. J'ai également étudié au cours de ces deux dernières années l'impact d'une telle méthode dans de nombreuses applications, telles que la dosimétrie en planification de traitement en radiothérapie, et la prise en charge des patients en oncologie. Au cours de ces six dernières années, j'ai été de plus en plus impliqué dans des travaux de recherche connexes menés par d'autres doctorants et post-doctorants. Ces travaux incluent la fusion d'images TEP pour le suivi temporel quantitatif, les simulations réalistes et l'évaluation dosimétrique, la caractérisation de l'hétérogénéité intra tumorale des traceurs TEP par analyse de texture, et la réduction des effets de volume partiel et du bruit en imagerie d'émission. J'ai assumé la responsabilité de co-encadrant de plusieurs stagiaires et doctorants de l'équipe sous la direction du directeur de recherche D. Visvikis. Cette responsabilité inclus des réunions hebdomadaires et des discussions régulières avec les étudiants, l'aide à la mise en place des expériences et protocoles de validation, à l'analyse des résultats, la correction de rapports de stage, d'articles et de manuscrits de thèse, ainsi que réfléchir à des solutions aux problèmes tant théoriques que techniques. Je travaille actuellement en tant que chercheur associé au département de recherche en imagerie et radiothérapie de Maastricht (MAASTRO) aux Pays-bas. Au cours des prochaines années, mon projet de recherche sera dédié au développement d'un contexte flexible et robuste permettant la modélisation et l'analyse semi-automatique d'ensemble d'images médicales multi modales, multi résolutions et multi temporelles, telles que TEP/TDM, TEMP/TDM, TEP/IRM, multi IRM ou TEP avec différents traceurs, ainsi que des acquisitions dynamiques. Ce développement permettra de déduire de nouveaux modèles prédictifs et des outils de décision adaptés à diverses applications cliniques tels que les cancers de l'oesophage, rectal, pulmonaire ou ORL, par la fusion de toute l'information disponible (imagerie, génétique, phéntypes et rapports cliniques). Ce projet se construira en partie sur les travaux préliminaires réalisés avec des doctorants venant de soutenir et en passe de terminer leur thèse, et sur les thèses de deux nouvelles doctorantes que j'encadrerai à partir d'octobre 2011 et courant 2012, recrutées sur des financements que j'ai contribué à obtenir en 2010-2011.
57

Approche parallèle pour l'estimation du flot optique par méthode variationnelle

Fezzani, Riadh 10 June 2011 (has links) (PDF)
Cette thèse s'inscrit dans le sillage des nombreuses recherches menées autour du problème d'estimation du flot optique. Elle se distingue par le fait d'avoir été menée dans un cadre pluridisciplinaire. Elle traite en effet d'un problème fondamental en traitement d'images (flot optique) auquel ont été appliqué des techniques de calcul scientifique (parallélisation) en visant une application expérimentale de la mécanique des fluides (vélocimétrie par images de particules). Le flot optique désigne le champ de vitesses apparent observé entre deux images successives d'une même scène. Son estimation est un intermédiaire essentiel dans de très nombreuses applications et nous proposons d'appliquer des techniques venant de la communauté de la vision par ordinateur à la vélocimétrie par images de particules (PIV). À la suite d'une évaluation préliminaire des approches classiques d'estimation du flot optique employant une régularisation soit locale soit globale du champ de vecteurs, nous décidons de considérer l'approche CLG de Bruhn et al. [2005b] qui propose de combiner les régularisations locale et globale. Nous étudions dans un premier temps la mise en œuvre du "warping" dans CLG puis nous le justifions dans notre approche baptisée "modified CLG" (MCLG). Nous décrivons ensuite deux méthodes de résolution. La première repose sur une approche par calcul variationnel et permet le développement d'un solveur de type Picard-SOR par bloc employant uniquement des linéarisations locales. Ce solveur est parallélisé par une technique de "color labelling". La deuxième méthode est une approche par "variable splitting" qui repose sur le fait d'introduire une seconde variable dans le modèle ce qui permet de le séparer en sous problèmes plus faciles à résoudre. Les solveurs intermédiaires employés dans cette techniques se composent d'opérations décorrélées, se qui facilite leur parallélisation. Une évaluation complète des différentes méthodes mises en œuvre au cours de ces travaux est présentée. On s'intéresse particulièrement au parallélisme des algorithmes développés, et cela sur différentes architectures (CPU multi-cœurs et GPU). On mesure également leur précison à l'aide de séquences classiques de traitement d'images mais aussi à l'aide d'images de PIV. On montre ainsi l'efficacité de la parallélisation de ces algorithmes (aussi bien sur CPU que sur GPU) et on prouve également l'interrés de considérer une approche CLG en PIV.
58

Capteur de stéréovision hybride pour la navigation des drones

Damien, Eynard 07 November 2011 (has links) (PDF)
La connaissance de l'attitude, de l'altitude, de la segmentation du sol et du mouvement est essentielle pour la navigation d'un drone, en particulier durant les phases critiques de décollage et d'atterrissage. Dans ce travail de thèse, nous présentons un système stéréoscopique hybride composé d'une caméra fisheye et d'une caméra perspective pour estimer les paramètres de navigation d'un drone. À partir de ce capteur, une approche systémique est proposée. Contrairement aux méthodes classiques de stéréovision basées sur l'appariement de primitives, nous proposons des méthodes qui évitent toute mise en correspondance entre les vues hybrides. Une technique de plane-sweeping est suggérée pour déterminer l'altitude et détecter le plan du sol. La rotation et la translation du mouvement sont ensuite découplés : la vue fisheye contribue à évaluer l'attitude et l'orientation tandis que la vue perspective contribue à apporter l'échelle métrique de la translation. Le mouvement peut ainsi être estimé de façon robuste et à l'échelle métrique grâce à la connaissance de l'altitude. Cette méthode repose sur l'algorithme des 2-points complété par un filtre de Kalman. Nous proposons des approches robustes, temps réel et précises, exclusivement basées sur la vision avec une implémentation C++. Bien que cette approche évite l'utilisation de capteurs autres que les caméras, ce système peut également être appuyé par une centrale inertielle.
59

Caractérisation probabiliste et synthèse de surfaces agricoles par objets structurants à partir d'images haute résolution

Chimi Chiadjeu, Olivier 27 November 2012 (has links) (PDF)
Ce travail de thèse porte sur la caractérisation probabiliste et la synthèse de surfaces agricoles par objets structurants (agrégats, mottes et creux) à partir d'images de haute résolution. Nous proposons de caractériser les surfaces par deux niveaux de rugosité : le premier niveau correspondant aux mottes, aux agrégats et aux creux et le second niveau étant le substrat sur lequel sont posés ces objets. Disposant d'un algorithme de segmentation par Hiérarchie de Contour (HC) pour l'identification des objets, nous avons mis en évidence l'influence de la méthode d'estimation du gradient sur cet algorithme. Nous avons aussi adapté une approche de morphologie mathématique - la Ligne de Partage des Eaux - pour identifier les différents objets. La méthode de HC sous-estime les dimensions des contours. Pour améliorer ces contours, nous avons développé un algorithme de déplacement de contours basé sur le principe du recuit simulé. Nous montrons que le demi-ellipsoïde est une forme mathématique qui modélise très correctement les objets. Après avoir déterminé les lois de probabilité des paramètres des demi-ellipsoïdes (orientation, axes et hauteur) et étudié leurs dépendances, nous avons mis en place un procédé de génération d'objets posés sur un plan. Nous montrons que les objets générés ont les mêmes statistiques que les objets identifiés sur les images hautes résolution. Nous montrons que l'isotropie des surfaces est liée à l'orientation des objets et que le substrat est corrélé à la surface comportant des objets.
60

Codage multi-vues multi-profondeur pour de nouveaux services multimédia

Mora, Elie Gabriel 04 February 2014 (has links) (PDF)
Les travaux effectués durant cette thèse de doctorat ont pour but d'augmenter l'efficacité de codage dans 3D-HEVC. Nous proposons des approches conventionnelles orientées vers la normalisation vidéo, ainsi que des approches en rupture basées sur le flot optique. En approches conventionnelles, nous proposons une méthode qui prédit les modes Intra de profondeur avec ceux de texture. L'héritage est conditionné par un critère qui mesure le degré de similitude entre les deux modes. Ensuite, nous proposons deux méthodes pour améliorer la prédiction inter-vue du mouvement dans 3D-HEVC. La première ajoute un vecteur de disparité comme candidat inter-vue dans la liste des candidats du Merge, et la seconde modifie le processus de dérivation de ce vecteur. Finalement, un outil de codage intercomposantes est proposé, où le lien entre les arbres quaternaires de texture et de profondeur est exploité pour réduire le temps d'encodage et le débit, à travers un codage conjoint des deux arbres. Dans la catégorie des approches en rupture, nous proposons deux méthodes basées sur l'estimation de champs denses de vecteurs de mouvement en utilisant le flot optique. La première calcule un champ au niveau d'une vue de base reconstruite, puis l'extrapole au niveau d'une vue dépendante, où il est hérité par les unités de prédiction en tant que candidat dense du Merge. La deuxième méthode améliore la synthèse de vues : quatre champs sont calculés au niveau de deux vues de référence en utilisant deux références temporelles. Ils sont ensuite extrapolés au niveau d'une vue synthétisée et corrigés en utilisant une contrainte épipolaire. Les quatre prédictions correspondantes sont ensuite combinées. Les deux méthodes apportent des gains de codage significatifs, qui confirment le potentiel de ces solutions innovantes.

Page generated in 0.1042 seconds