• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 338
  • 97
  • 24
  • 2
  • 1
  • Tagged with
  • 457
  • 457
  • 130
  • 128
  • 84
  • 82
  • 81
  • 65
  • 64
  • 64
  • 58
  • 56
  • 53
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
451

Etude morphologique et métrologique des sinus de Valsalva par traitement d'images tomographiques / Tomographic image processing for the morphological and metrological study of Valsalva sinuses

Blanchard, Cédric 28 September 2012 (has links)
L'objectif de cette thèse est l'élaboration et l'application de traitements d'images pour permettre une étude objective et fiable des sinus de Valsalva, importantes cavités de la base de l'aorte. Les méthodes proposées s'appliquent aux séquences ciné-IRM et aux examens de scanner sans qu'il n'y ait à modifier le paramétrage entre deux examens. Pour cela, nous avons d'abord étudié la morphologie de cette zone anatomique puis détaillé les différentes propriétés communes à toutes les images de sinus. Ceux-ci font en l'occurrence partie des principaux organes clairs et peu mobiles. Nous avons donc développé un algorithme qui détecte ces éléments et caractérise chacun d'entre eux par une trajectoire unique. Divers outils de morphologie mathématique ont été utilisés à cette occasion, tout comme pour l'extraction du contour des sinus dans chaque image. L'étape de segmentation repose elle sur la reconstruction géodésique, qui s'avère plus efficace et surtout plus robuste que l'usage de contours actifs usuels. L'intérieur des sinus forme un domaine simplement connexe et étoilé. Grâce à ce postulat, nous avons conçu une nouvelle reconstruction, nommée transformée en aurore, qui limite la propagation des intensités aux supports radiaux et présente les résultats dans un repère polaire pour une meilleure lecture des contours.Les points caractéristiques des sinus ont également été détectés, par étude de rayons et détermination de points dominants. Ces points fournissent les éléments nécessaires à une mesure automatique des sinus, mesure cohérente avec les mesures actuellement réalisées manuellement et les variations intra et inter-observateurs de celles-ci. D'autres outils sont enfin esquissés pour modéliser le contour par coniques, classer les images d'examens cinétiques en fonction du moment du cycle et suivre le mouvement des valves dans ces mêmes examens.L'ensemble de ces travaux ont amené à la réalisation d'un logiciel d'aide au diagnostic qui intègre nos méthodes et dont l'interface est également présentée dans le présent mémoire. / This Phd thesis deals with the design and the use of image processing tools in order to allow a reliable and objective study of the sinuses of Valsalva which are important cavities of the aortic root. The proposed methods can be applied on cine-MR sequences and CT examinations without any change in the settings between two examinations.Firstly, we studied the morphology of this anatomical area and its constant properties in all images of the dataset. Sinuses are one of the main bright organs with limited movements. Hence a new algorithm has been designed. It detects and characterizes each bright organ by a single trajectory. Various tools of mathematical morphology are used for this step, as for the extraction of the contour of the sinuses in each image.The segmentation step is based on the geodesic reconstruction, which is more effective and more robust than the usual active contours. The shape depicting the sinuses is simply connected and a star domain. With this assumption, a new reconstruction is proposed, called the Aurora transform. This transform limits the spread of intensities only on the radial lines and shows its results in a polar space for a better reading of edges.The relevant points of the sinuses are also detected by a study of radii and the determination of dominant points along edges. An automatic measurement of the sinuses is deduced from these points. The values are very close to the manual measures currently done according to the intra-and inter-observer variations.Some other tools are finally outlined. They includes the modeling of edges by conics, the image classification depending on the time of the cycle in sequences and the tracking of the aortic valves in these examinations.This work led to the devlopement of a diagnostic aid software based on our methods. Its interface is also presented herein.
452

Champs à phase aléatoire et champs gaussiens pour la mesure de netteté d’images et la synthèse rapide de textures / Random phase fields and Gaussian fields for image sharpness assessment and fast texture synthesis

Leclaire, Arthur 26 June 2015 (has links)
Dans cette thèse, on étudie la structuration des phases de la transformée de Fourier d'images naturelles, ce qui, du point de vue applicatif, débouche sur plusieurs mesures de netteté ainsi que sur des algorithmes rapides pour la synthèse de texture par l'exemple. Le Chapitre 2 présente dans un cadre unifié plusieurs modèles de champs aléatoires, notamment les champs spot noise et champs gaussiens, en prêtant une attention particulière aux représentations fréquentielles de ces champs aléatoires. Le Chapitre 3 détaille l'utilisation des champs à phase aléatoire à la synthèse de textures peu structurées (microtextures). On montre qu'une microtexture peut être résumée en une image de petite taille s'intégrant à un algorithme de synthèse très rapide et flexible via le modèle spot noise. Aussi on propose un algorithme de désocclusion de zones texturales uniformes basé sur la simulation gaussienne conditionnelle. Le Chapitre 4 présente trois mesures de cohérence globale des phases de la transformée de Fourier. Après une étude théorique et pratique établissant leur lien avec la netteté d'image, on propose un algorithme de déflouage aveugle basé sur l'optimisation stochastique de ces indices. Enfin, dans le Chapitre 5, après une discussion sur l'analyse et la synthèse directe de l'information de phase, on propose deux modèles de textures à phases cohérentes qui permettent la synthèse de textures plus structurées tout en conservant quelques garanties mathématiques simples. / This thesis deals with the Fourier phase structure of natural images, and addresses no-reference sharpness assessment and fast texture synthesis by example. In Chapter 2, we present several models of random fields in a unified framework, like the spot noise model and the Gaussian model, with particular attention to the spectral representation of these random fields. In Chapter 3, random phase models are used to perform by-example synthesis of microtextures (textures with no salient features). We show that a microtexture can be summarized by a small image that can be used for fast and flexible synthesis based on the spot noise model. Besides, we address microtexture inpainting through the use of Gaussian conditional simulation. In Chapter 4, we present three measures of the global Fourier phase coherence. Their link with the image sharpness is established based on a theoretical and practical study. We then derive a stochastic optimization scheme for these indices, which leads to a blind deblurring algorithm. Finally, in Chapter 5, after discussing the possibility of direct phase analysis or synthesis, we propose two non random phase texture models which allow for synthesis of more structured textures and still have simple mathematical guarantees.
453

Implémentation des filtres non-linéaires de rang sur des architectures universelles et reconfigurables

Milojevic, Dragomir 08 November 2004 (has links)
Les filtres non-linéaires de rang sont souvent utilisés dans le but de rehausser la qualité d'une image numérique. Leur application permet de faciliter l'interprétation visuelle et la compréhension du contenu des images que ce soit pour un opérateur humain ou pour un traitement automatique ultérieur. Dans le pipeline d'une chaîne habituelle de traitement des images, ces filtres sont appliqués généralement dans la phase de pré-traitement, juste après l'acquisition et avant le traitement et l'analyse d'image proprement dit.<p>Les filtres de rang sont considérés comme un important goulot d'étranglement dans la chaîne de traitement, à cause du tri des pixels dans chaque voisinage, à effectuer pour tout pixel de l'image. Les temps de calcul augmentent de façon significative avec la taille de l'image à traiter, la taille du voisinage considéré et lorsque le rang approche la médiane.<p>Cette thèse propose deux solutions à l'accélération du temps de traitement des filtres de rang.<p>La première solution vise l'exploitation des différents niveaux de parallélisme des ordinateurs personnels d'aujourd'hui, notamment le parallélisme de données et le parallélisme inter-processeurs. Une telle approche présente un facteur d'accélération de l'ordre de 10 par rapport à une approche classique qui fait abstraction du matériel grâce aux compilateurs des langages évolués. Si le débit résultant des pixels traités, de l'ordre d'une dizaine de millions de pixels par seconde, permet de travailler en temps réel avec des applications vidéo, peu de temps reste pour d'autres traitements dans la chaîne.<p>La deuxième solution proposée est basée sur le concept de calcul reconfigurable et réalisée à l'aide des circuits FPGA (Field Programmable Gate Array). Le système décrit combine les algorithmes de type bit-série et la haute densité des circuits FPGA actuels. Il en résulte un système de traitement hautement parallèle, impliquant des centaines d'unités de traitement par circuit FPGA et permet d'arriver à un facteur d'accélération supplémentaire de l'ordre de 10 par rapport à la première solution présentée. Un tel système, inséré entre une source d'image numérique et un système hôte, effectue le calcul des filtres de rang avec un débit de l'ordre de centaine de millions de pixels par seconde. / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
454

Mouvement et interaction d'un ensemble de particules dans un écoulement supercritique

Boehm, Tobias 18 February 2005 (has links) (PDF)
Le transport solide par charriage dans les cours d'eau est un problème de longue date dans l'étude des écoulement biphasiques. Les processus physiques impliqués sont en effet mal compris et complexes. Nous présentons une étude expérimentale du mouvement de billes de verre sphériques grossières. Elles étaient entraînées dans un mouvement quasi-bidimensionnel par un écoulement d'eau turbulent peu profond dans un canal à forte pente sur un lit mobile. Nous avons étudié le cas de l'équilibre du transport solide, c'est-à-dire qu'il n'y avait ni érosion ni dépôt de particules sur des intervalles de temps suffisamment longs. Les écoulements ont été filmés par le côté avec une caméra rapide. L'utilisation d'un logiciel de traitement d'images a permis de déterminer les caractéristiques des écoulements comme les trajectoires des particules, leur état de mouvement (arrêt, roulement ou saltation) et la hauteur d'eau. Le premier résultat frappant de nos expériences est que, sur des périodes de temps courtes, le transport par charriage apparaît comme un processus très intermittent. Les grandes fluctuations du débit solide résultent essentiellement de l'arrangement dans le lit mobile de particules. Alors que, pour des pentes modérées, les particules sont principalement transportées en saltation, le régime de roulement est prédominant pour des pentes fortes.
455

Réduction de dimension en statistique et application en imagerie hyper-spectrale

Girard, Robin 26 June 2008 (has links) (PDF)
Cette thèse est consacrée à l'analyse statistique de données en grande dimension. Nous nous intéressons à trois problèmes statistiques motivés par des applications médicales : la classification supervisée de courbes, la segmentation supervisée d'images hyperspectrales et la segmentation non-supervisée d'images hyperspectrales. Les procédures développées reposent pour la plupart sur la théorie des tests d'hypothèses (tests multiples, minimax, robustes et fonctionnels) et la théorie de l'apprentissage statistique. Ces théories sont introduites dans une première partie. Nous nous intéressons, dans la deuxième partie, à la classification supervisée de données gaussiennes en grande dimension. Nous proposons une procédure de classification qui repose sur une méthode de réduction de dimension et justifions cette procédure sur le plan pratique et théorique. Dans la troisième et dernière partie, nous étudions le problème de segmentation d'images hyper-spectrales. D'une part, nous proposons un algorithme de segmentation supervisée reposant à la fois sur une analyse multi-échelle, une estimation par maximum de vraisemblance pénalisée, et une procédure de réduction de dimension. Nous justifions cet algorithme par des résultats théoriques et des applications pratiques. D'autre part, nous proposons un algorithme de segmentation non supervisée impliquant une décomposition en ondelette des spectres observées en chaque pixel, un lissage spatial par croissance adaptative de régions et une extraction des frontières par une méthode de vote majoritaire.
456

Patient-Derived Tumour Growth Modelling from Multi-Parametric Analysis of Combined Dynamic PET/MR Data

Martens, Corentin 03 March 2021 (has links) (PDF)
Gliomas are the most common primary brain tumours and are associated with poor prognosis. Among them, diffuse gliomas – which include their most aggressive form glioblastoma (GBM) – are known to be highly infiltrative. The diagnosis and follow-up of gliomas rely on positron emission tomography (PET) and magnetic resonance imaging (MRI). However, these imaging techniques do not currently allow to assess the whole extent of such infiltrative tumours nor to anticipate their preferred invasion patterns, leading to sub-optimal treatment planning. Mathematical tumour growth modelling has been proposed to address this problem. Reaction-diffusion tumour growth models, which are probably the most commonly used for diffuse gliomas growth modelling, propose to capture the proliferation and migration of glioma cells by means of a partial differential equation. Although the potential of such models has been shown in many works for patient follow-up and therapy planning, only few limited clinical applications have seemed to emerge from these works. This thesis aims at revisiting reaction-diffusion tumour growth models using state-of-the-art medical imaging and data processing technologies, with the objective of integrating multi-parametric PET/MRI data to further personalise the model. Brain tissue segmentation on MR images is first addressed with the aim of defining a patient-specific domain to solve the model. A previously proposed method to derive a tumour cell diffusion tensor from the water diffusion tensor assessed by diffusion-tensor imaging (DTI) is then implemented to guide the anisotropic migration of tumour cells along white matter tracts. The use of dynamic [S-methyl-11C]methionine ([11C]MET) PET is also investigated to derive patient-specific proliferation potential maps for the model. These investigations lead to the development of a microscopic compartmental model for amino acid PET tracer transport in gliomas. Based on the compartmental model results, a novel methodology is proposed to extract parametric maps from dynamic [11C]MET PET data using principal component analysis (PCA). The problem of estimating the initial conditions of the model from MR images is then addressed by means of a translational MRI/histology study in a case of non-operated GBM. Numerical solving strategies based on the widely used finite difference and finite element methods are finally implemented and compared. All these developments are embedded within a common framework allowing to study glioma growth in silico and providing a solid basis for further research in this field. However, commonly accepted hypothesis relating the outlines of abnormalities visible on MRI to tumour cell density iso-contours have been invalidated by the translational study carried out, leaving opened the questions of the initialisation and the validation of the model. Furthermore, the analysis of the temporal evolution of real multi-treated glioma patients demonstrates the limitations of the formulated model. These latter statements highlight current obstacles to the clinical application of reaction-diffusion tumour growth models and pave the way to further improvements. / Les gliomes sont les tumeurs cérébrales primitives les plus communes et sont associés à un mauvais pronostic. Parmi ces derniers, les gliomes diffus – qui incluent la forme la plus agressive, le glioblastome (GBM) – sont connus pour être hautement infiltrants. Le diagnostic et le suivi des gliomes s'appuient sur la tomographie par émission de positons (TEP) ainsi que l'imagerie par résonance magnétique (IRM). Cependant, ces techniques d'imagerie ne permettent actuellement pas d'évaluer l'étendue totale de tumeurs aussi infiltrantes ni d'anticiper leurs schémas d'invasion préférentiels, conduisant à une planification sous-optimale du traitement. La modélisation mathématique de la croissance tumorale a été proposée pour répondre à ce problème. Les modèles de croissance tumorale de type réaction-diffusion, qui sont probablement les plus communément utilisés pour la modélisation de la croissance des gliomes diffus, proposent de capturer la prolifération et la migration des cellules tumorales au moyen d'une équation aux dérivées partielles. Bien que le potentiel de tels modèles ait été démontré dans de nombreux travaux pour le suivi des patients et la planification de thérapies, seules quelques applications cliniques restreintes semblent avoir émergé de ces derniers. Ce travail de thèse a pour but de revisiter les modèles de croissance tumorale de type réaction-diffusion en utilisant des technologies de pointe en imagerie médicale et traitement de données, avec pour objectif d'y intégrer des données TEP/IRM multi-paramétriques pour personnaliser davantage le modèle. Le problème de la segmentation des tissus cérébraux dans les images IRM est d'abord adressé, avec pour but de définir un domaine propre au patient pour la résolution du modèle. Une méthode proposée précédemment permettant de dériver un tenseur de diffusion tumoral à partir du tenseur de diffusion de l'eau évalué par imagerie DTI a ensuite été implémentée afin de guider la migration anisotrope des cellules tumorales le long des fibres de matière blanche. L'utilisation de l'imagerie TEP dynamique à la [S-méthyl-11C]méthionine ([11C]MET) est également investiguée pour la génération de cartes de potentiel prolifératif propre au patient afin de nourrir le modèle. Ces investigations ont mené au développement d'un modèle compartimental pour le transport des traceurs TEP dérivés des acides aminés dans les gliomes. Sur base des résultats du modèle compartimental, une nouvelle méthodologie est proposée utilisant l'analyse en composantes principales pour extraire des cartes paramétriques à partir de données TEP dynamiques à la [11C]MET. Le problème de l'estimation des conditions initiales du modèle à partir d'images IRM est ensuite adressé par le biais d'une étude translationelle combinant IRM et histologie menée sur un cas de GBM non-opéré. Différentes stratégies de résolution numérique basées sur les méthodes des différences et éléments finis sont finalement implémentées et comparées. Tous ces développements sont embarqués dans un framework commun permettant d'étudier in silico la croissance des gliomes et fournissant une base solide pour de futures recherches dans le domaine. Cependant, certaines hypothèses communément admises reliant les délimitations des anormalités visibles en IRM à des iso-contours de densité de cellules tumorales ont été invalidée par l'étude translationelle menée, laissant ouverte les questions de l'initialisation et de la validation du modèle. Par ailleurs, l'analyse de l'évolution temporelle de cas réels de gliomes multi-traités démontre les limitations du modèle. Ces dernières affirmations mettent en évidence les obstacles actuels à l'application clinique de tels modèles et ouvrent la voie à de nouvelles possibilités d'amélioration. / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished
457

Vers un système de vision auto-adaptatif à base de systèmes multi-agents

Mahdjoub, Jason 15 December 2011 (has links) (PDF)
Il existe une multitude de traitements d'images dans la littérature, chacun étant adapté à un ensemble plus ou moins grand de cadres d'application. La généralisation ou la mise en collaboration de ces traitements pour un système plus complet et plus robuste est un problème mal posé. Les traitements d'images sont fondamentalement trop différents les uns par rapport aux autres pour être mis en commun de façon naturelle. De plus, ces derniers sont trop rigides pour pouvoir s'adapter d'eux-mêmes lorsqu'un problème non prévu à l'avance par le concepteur apparaît. Or la vision est un phénomène autoadaptatif, qui sait traiter en temps réel des situations singulières, en y proposant des traitements particuliers et adaptés. Elle est aussi un traitement complexe des informations, tant ces dernières ne peuvent être réduites à des représentations réductionnistes et simplifiantes sans être mutilées. Dans cette thèse, un système de vision est entrepris comme un tout où chaque partie est adaptée à l'autre, mais aussi où chaque partie ne peut s'envisager sans l'autre dans les tensions les plus extrêmes générées par la complexité et l'intrication des informations. Puisque chaque parcelle d'information joue un rôle local dans la vision, tout en étant dirigée par un objectif global peu assimilable à son niveau, nous envisageons la vision comme un système où chaque agent délibère selon une interférence produite par le potentiel décisionnel de chacun de ses voisins. Cette délibération est entreprise comme le résultat produit par l'interférence d'une superposition de solutions. De cette manière, il émerge du système à base d'agents une décision commune qui dirige les actions locales faites par chaque agent ou chaque partie du système. En commençant par décrire les principales méthodes de segmentation ainsi que les descripteurs de formes, puis en introduisant les systèmes multi-agents dans le domaine de l'image, nous discutons d'une telle approche où la vision est envisagée comme un système multi-agent apte à gérer la complexité inhérente de l'information visuelle tant en représentation qu'en dynamisme systémique. Nous ancrons dans ces perspectives deux modèles multi-agents. Le premier modèle traite de la segmentation adaptative d'images sans calibration manuelle par des seuils. Le deuxième modèle traite de la représentation de formes quelconques à travers la recherche de coefficients d'ondelettes pertinents. Ces deux modèles remplissent des critères classiques liés au traitement d'images, et à la reconnaissance de formes, tout en étant des cas d'études à développer pour la recherche d'un système de vision auto-adaptatif tel que nous le décrivons.

Page generated in 0.0377 seconds