• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 5
  • 3
  • Tagged with
  • 12
  • 12
  • 8
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Algorithme de reconstruction itératif pour tomographie optique diffuse avec mesures dans le domaine temporel

Allali, Anthony January 2016 (has links)
L'imagerie par tomographie optique diffuse requiert de modéliser la propagation de la lumière dans un tissu biologique pour une configuration optique et géométrique donnée. On appelle cela le problème direct. Une nouvelle approche basée sur la méthode des différences finies pour modéliser numériquement via l'équation de la diffusion (ED) la propagation de la lumière dans le domaine temporel dans un milieu inhomogène 3D avec frontières irrégulières est développée pour le cas de l'imagerie intrinsèque, c'est-à-dire l'imagerie des paramètres optiques d'absorption et de diffusion d'un tissu. Les éléments finis, lourds en calculs, car utilisant des maillages non structurés, sont généralement préférés, car les différences finies ne permettent pas de prendre en compte simplement des frontières irrégulières. L'utilisation de la méthode de blocking-off ainsi que d'un filtre de Sobel en 3D peuvent en principe permettre de surmonter ces difficultés et d'obtenir des équations rapides à résoudre numériquement avec les différences finies. Un algorithme est développé dans le présent ouvrage pour implanter cette approche et l'appliquer dans divers cas puis de la valider en comparant les résultats obtenus à ceux de simulations Monte-Carlo qui servent de référence. L'objectif ultime du projet est de pouvoir imager en trois dimensions un petit animal, c'est pourquoi le modèle de propagation est au coeur de l'algorithme de reconstruction d'images. L'obtention d'images requière la résolution d'un problème inverse de grandes dimensions et l'algorithme est basé sur une fonction objective que l'on minimise de façon itérative à l'aide d'une méthode basée sur le gradient. La fonction objective mesure l'écart entre les mesures expérimentales faites sur le sujet et les prédictions de celles-ci obtenues du modèle de propagation. Une des difficultés dans ce type d'algorithme est l'obtention du gradient. Ceci est fait à l'aide de variables auxiliaire (ou adjointes). Le but est de développer et de combiner des méthodes qui permettent à l'algorithme de converger le plus rapidement possible pour obtenir les propriétés optiques les plus fidèles possible à la réalité capable d'exploiter la dépendance temporelle des mesures résolues en temps, qui fournissent plus d'informations tout autre type de mesure en TOD. Des résultats illustrant la reconstruction d'un milieu complexe comme une souris sont présentés pour démontrer le potentiel de notre approche.
2

Mise au point et qualification d'une technique de mesure du taux de présence local par tomographie à rayons X

Jouet, Emmanuel 22 October 2001 (has links) (PDF)
Cette étude a pour objectif le développement d'un instrument de mesure du taux de présence local d'un écoulement eau - air par tomographie à rayons X. Après une analyse bibliographique exhaustive, les algorithmes de reconstruction retenus sont comparés afin de sélectionner le plus efficace. Afin d'améliorer la précision de reconstruction au voisinage des parois, plusieurs améliorations de cet algorithme sont rajoutées et testées. En parallèle, un dispositif expérimental a été mis au point et ses paramètres d'acquisition ont été optimisés. L'ensemble chaîne de mesure et algorithme de reconstruction est ensuite mis en oeuvre sur des mesures en géométrie parallèle de fantômes et d'écoulements eau-air homogènes, non homogènes et autour de faisceaux de tubes carrés et cylindriques. Ces mesures sont réalisées avec deux schémas d'échantillonnage : régulier et entrelacé. La comparaison des cartes de taux de présence local tomographiques avec les cartes obtenues par une sonde optique permet de valider la méthode développée. Enfin, l'extension de la méthode à la géométrie en éventail (fan-beam) est étudiée.
3

Reconstitution tomographique de propriétés qualitatives et quantitatives d'images

Abdmouleh, Fatma 12 November 2013 (has links) (PDF)
La tomographie consiste à reconstruire un objet nD à partir de projections (n-1)D. Cette discipline soulève plusieurs questions auxquelles la recherche essaie d'apporter des réponses. On s'intéresse dans cette thèse à trois aspects de cette problématique : 1) la reconstruction de l'image 2D à partir de projections dans un cadre rarement étudié qui est celui des sources ponctuelles ; 2) l'unicité de cette reconstruction ; 3) l'estimation d'informations concernant un objet sans passer par l'étape de reconstitution de son image. Afin d'aborder le problème de reconstruction pour la classe des ensembles convexes, nous définissons une nouvelle classe d'ensembles ayant des propriétés de convexité qu'on appelle convexité par quadrants pour des sources ponctuelles. Après une étude de cette nouvelle classe d'ensembles, nous montrons qu'elle présente des liens forts avec la classe des ensembles convexes. Nous proposons alors un algorithme de reconstruction d'ensemblesconvexes par quadrants qui, si l'unicité de la reconstruction est garantie, permet de reconstruire des ensembles convexes en un temps polynomial. Nous montrons que si une conjecture, que nous avons proposée, est vraie, les conditions de l'unicité pour les ensembles convexes par quadrants sont les mêmes que celles pour les ensembles convexes. Concernant le troisième aspect étudié dans cette thèse, nous proposons une méthode qui permet d'estimer, à partir d'une seule projection, la surface d'un ensemble 2D. Concernant l'estimation du périmètre d'un ensemble 2D, en considérant les projections par une deuxième source d'un ensemble convexe, nous obtenons deux bornes inférieures et une borne supérieure pour le périmètre de l'objet projeté.
4

Reconstitution tomographique de propriétés qualitatives et quantitatives d'images

Abdmouleh, Fatma 12 November 2013 (has links) (PDF)
La tomographie consiste à reconstruire un objet nD à partir de projections (n-1)D. Cette discipline soulève plusieurs questions auxquelles la recherche essaie d'apporter des réponses. On s'intéresse dans cette thèse à trois aspects de cette problématique : 1) la reconstruction de l'image 2D à partir de projections dans un cadre rarement étudié qui est celui des sources ponctuelles ; 2) l'unicité de cette reconstruction ; 3) l'estimation d'informations concernant un objet sans passer par l'étape de reconstitution de son image. Afin d'aborder le problème de reconstruction pour la classe des ensembles convexes, nous définissons une nouvelle classe d'ensembles ayant des propriétés de convexité qu'on appelle convexité par quadrants pour des sources ponctuelles. Après une étude de cette nouvelle classe d'ensembles, nous montrons qu'elle présente des liens forts avec la classe des ensembles convexes. Nous proposons alors un algorithme de reconstruction d'ensemblesconvexes par quadrants qui, si l'unicité de la reconstruction est garantie, permet de reconstruire des ensembles convexes en un temps polynomial. Nous montrons que si une conjecture, que nous avons proposée, est vraie, les conditions de l'unicité pour les ensembles convexes par quadrants sont les mêmes que celles pour les ensembles convexes. Concernant le troisième aspect étudié dans cette thèse, nous proposons une méthode qui permet d'estimer, à partir d'une seule projection, la surface d'un ensemble 2D. Concernant l'estimation du périmètre d'un ensemble 2D, en considérant les projections par une deuxième source d'un ensemble convexe, nous obtenons deux bornes inférieures et une borne supérieure pour le périmètre de l'objet projeté.
5

Approche déterministe de l'acquisition comprimée et la reconstruction des signaux issus de capteurs intelligents distribués / Determinitic approach of compressed sensing and reconstruction of signals from wireless body sensor networks

Ravelomanantsoa, Andrianiaina 09 November 2015 (has links)
Le réseau sans fil sur le corps humain ou « wireless body area network (WBAN) » est une nouvelle technologie de réseau sans fil dédié à la surveillance des paramètres physiologiques d’une personne. Le réseau est composé de dispositifs électroniques miniatures, appelés nœuds, disposés aux alentours ou à l’intérieur du corps humain. Chaque nœud est doté d’un ou plusieurs capteurs mesurant les paramètres physiologiques de la personne, comme l’électrocardiogramme ou bien la température du corps, et les caractéristiques de l’environnement qui l’entoure. Ces nœuds sont surtout soumis à une contrainte énergétique importante puisque la miniaturisation a réduit les dimensions de leurs batteries. Puisque les nœuds consomment la majorité de l’énergie pour transmettre les données, une solution pour diminuer leur consommation consisterait à compresser les données avant la transmission. Les méthodes classiques de compression ne sont pas adaptées pour le WBAN particulièrement à cause de la puissance de calcul requise et la consommation qui en résulterait. Dans cette thèse, pour contourner ces problèmes, nous utilisons une méthode à base de l’acquisition comprimée pour compresser et reconstruire les données provenant des nœuds. Nous proposons un encodeur simple et facile à mettre en œuvre pour compresser les signaux. Nous présentons aussi un algorithme permettant de réduire la complexité de la phase de reconstruction des signaux. Un travail collaboratif avec l’entreprise TEA (Technologie Ergonomie Appliquées) nous a permis de valider expérimentalement une version numérique de l’encodeur et l’algorithme de reconstruction. Nous avons aussi développé et validé une version analogique de l’encodeur en utilisant des composants standards. / A wireless body area network (WBAN) is a new class of wireless networks dedicated to monitor human physiological parameters. It consists of small electronic devices, also called nodes, attached to or implanted in the human body. Each node comprises one or many sensors which measure physiological signals, such as electrocardiogram or body heat, and the characteristics of the surrounding environment. These nodes are mainly subject to a significant energy constraint due to the fact that the miniaturization has reduced the size of their batteries. A solution to minimize the energy consumption would be to compress the sensed data before wirelessly transmitting them. Indeed, research has shown that most of the available energy are consumed by the wireless transmitter. Conventional compression methods are not suitable for WBANs because they involve a high computational power and increase the energy consumption. To overcome these limitations, we use compressed sensing (CS) to compress and recover the sensed data. We propose a simple and efficient encoder to compress the data. We also introduce a new algorithm to reduce the complexity of the recovery process. A partnership with TEA (Technologie Ergonomie Appliquées) company allowed us to experimentally evaluate the performance of the proposed method during which a numeric version of the encoder has been used. We also developed and validated an analog version of the encoder.
6

Unicité, reconstruction, stabilité pour des problèmes inverses bidimensionnels

Santacesaria, Matteo 30 November 2012 (has links) (PDF)
Dans cette thèse nous étudions quelques problèmes inverses de valeurs au bord en dimension deux. Les problèmes considérés sont le problème de Calderon et le problème de Gel'fand-Calderon dans le cas scalaire et multi-canal, c'est-à-dire matriciel : cela peut etre vu notamment comme une approximation non-surdéterminée du cas tridimensionnel. Nous montrons d'abord quelques résultats pour le problème de Calderon anisotrope : nous présentons une nouvelle formulation du résultat d'unicité sur le plan ainsi que le premier résultat d'unicité globale pour le cas des surfaces à bord. Après, nous démontrons une nouvelle estimation de stabilité globale pour le problème de Gel'fand-Calderon dans le cas scalaire et multi-canal. Des techniques similaires donnent aussi une procédure de reconstruction globale pour le meme problème. Nous proposons ensuite un algorithme d'approximation rapidement convergent pour le problème de Gel'fand-Calderon multi-canal : cet algorithme est principalement motivé par des résultats de la théorie de diffusion inverse multi-dimensionnelle. Comme derniers résultats nous présentons des nouvelles estimations de stabilité globale pour les deux problèmes mentionnés plus haut qui dépendent explicitement de la régularité et de l'énergie.
7

Caractérisation de tissus biologiques par diffusion de la lumière : application au diagnostic du cancer / Biological tissues characterization by light scattering : cancer diagnosis application

Addoum, Ahmad 15 January 2018 (has links)
La Tomographie Optique Diffuse (TOD) est une nouvelle technique d'imagerie médicale permettant de reconstruire les propriétés optiques des tissus biologiques dans le but de détecter des tumeurs cancéreuses. Il s’agit, toutefois, d’un problème inverse mal-posé et sous-déterminé. Le travail de cette thèse s’articule autour de la résolution de ce problème en utilisant l’équation du transfert radiatif comme modèle de propagation de la lumière (modèle direct). L’analyse de sensibilité a montré que le facteur d’anisotropie g de la fonction de phase de Henyey-Greenstein est le paramètre le plus influant sur la sortie du modèle direct suivi du coefficient de diffusion µs puis du coefficient d’absorption µa. Dans un premier temps, un algorithme de Gauss-Newton a été implémenté en utilisant les fonctions de sensibilités. Toutefois, ce dernier ne permet d’estimer qu'un nombre très limité de paramètres optiques (supposés constants en espace). Dans un second temps, un algorithme de Quasi-Newton a été développé pour reconstruire les distributions spatiales des propriétés optiques. Le gradient de la fonction objectif a été calculé efficacement par la méthode adjointe à travers le formalisme de Lagrange avec une approche Multi-fréquences. Les reconstructions sont obtenues à partir des données simulées en surface. Le facteur g est reconstruit comme un nouvel agent de contraste en TOD. Le problème de diaphonie entre µs g a été donc mis en évidence dans cette thèse. Notre algorithme a permis de reconstruire en 2D et 3D une ou plusieurs inclusions tumorales présentant différentes formes. La qualité des images reconstruites a été examinée en fonction du nombre de fréquences, de la diaphonie, du niveau de contraste (Inclusion/Fond), du niveau de bruit et de la position des inclusions tumorales / Diffuse Optical Tomography (DOT) is a new medical imaging technique used to reconstruct the optical properties of biological tissues in order to detect cancerous tumors. However, this is an ill-posed and under-determined inverse problem. The work of this thesis deals with the resolution of this problem using the radiative transfer equation as a forward model of light propagation. The sensitivity analysis showed that the anisotropy factor g of the Henyey-Greenstein phase function is the most sensitive parameter of the forward model followed by the scattering coefficient µs and then the absorption coefficient µa. In a first step, a Gauss-Newton algorithm was implemented using the sensitivity functions. However, this algorithm allows to estimate a very limited number of the optical parameters (assumed to be constant in space). In a second step, a Quasi-Newton algorithm was developed to reconstruct the spatial distributions of the optical properties. The gradient of the objective function was efficiently computed by the adjoint method through the Lagrangian formalism with a Multi-frequency approach. The reconstructed images were obtained from simulated boundary data. The g factor was reconstructed as a new optical contrast agent in DOT and the crosstalk problem between this factor and µs has been studied. The results showed that the algorithm is efficient to reconstruct in 2D and 3D one or several tumor inclusions having different shapes. The quality of the reconstructed images was examined according to several parameters: the number of frequencies, the crosstalk, the contrast and the noise levels
8

Développement d'une méthode de reconstruction d'image basée sur la détection de la fluorescence X pour l'analyse d'échantillon / Development of an image reconstruction method based on the detected X-ray fluorescence for sample analysis

Hamawy, Lara 23 October 2014 (has links)
Une nouvelle technique qui localise et identifie les éléments fluorescents dans un échantillon a été développé. Cette modalité d'imagerie pratique utilise une source de rayons X poly-chromatique pour irradier l'échantillon et favoriser l'émission de fluorescence. De nombreux facteurs qui affectent l'ensemble du système comme l'atténuation, l'auto-absorption de l'échantillon, la probabilité de fluorescence et la diffusion Compton ont été pris en compte. Ensuite, un système de détection efficace a été établi pour acquérir les données de fluorescence optimales et discriminer entre les éléments en fonction de leur fluorescence caractéristiques. Ce dispositif, couplé avec une technique de reconstruction d'image approprié conduit à une image détaillée à deux dimensions. Par rapport aux techniques classiques de reconstruction d'image, la méthode de reconstruction développée est une technique statistique qui a une convergence appropriée vers une image avec une résolution acceptable. En outre, c'est une technique simplifiée qui permet l'imagerie de nombreuses applications différentes. / A new technique that localizes and identifies fluorescing elements in a sample wasdeveloped. This practical imaging modality employs a polychromatic X-ray source toirradiate the sample and prompts the fluorescence emission. Many factors affecting thewhole system like attenuation, sample self-absorption, probability of fluorescence andCompton scattering were taken into account. Then, an effective detection system wasestablished to acquire the optimum fluorescence data and discriminate betweenelements depending on their characteristic fluorescence. This set-up, coupled with anappropriate image reconstruction technique leads to a detailed two-dimensional image.Compared to the conventional image reconstruction techniques, the developedreconstruction method is a statistical technique and has an appropriate convergencetoward an image with acceptable resolution. Moreover, it is a simplified technique thatallows the imaging of many different applications.
9

Reconstitution tomographique de propriétés qualitatives et quantitatives d'images / Tomographic reconstruction of qualitative and quantitative properties of images

Abdmouleh, Fatma 12 November 2013 (has links)
La tomographie consiste à reconstruire un objet nD à partir de projections (n-1)D. Cette discipline soulève plusieurs questions auxquelles la recherche essaie d’apporter des réponses. On s’intéresse dans cette thèse à trois aspects de cette problématique : 1) la reconstruction de l’image 2D à partir de projections dans un cadre rarement étudié qui est celui des sources ponctuelles ; 2) l’unicité de cette reconstruction ; 3) l'estimation d’informations concernant un objet sans passer par l'étape de reconstitution de son image. Afin d’aborder le problème de reconstruction pour la classe des ensembles convexes, nous définissons une nouvelle classe d’ensembles ayant des propriétés de convexité qu’on appelle convexité par quadrants pour des sources ponctuelles. Après une étude de cette nouvelle classe d’ensembles, nous montrons qu’elle présente des liens forts avec la classe des ensembles convexes. Nous proposons alors un algorithme de reconstruction d’ensemblesconvexes par quadrants qui, si l’unicité de la reconstruction est garantie, permet de reconstruire des ensembles convexes en un temps polynomial. Nous montrons que si une conjecture, que nous avons proposée, est vraie, les conditions de l’unicité pour les ensembles convexes par quadrants sont les mêmes que celles pour les ensembles convexes. Concernant le troisième aspect étudié dans cette thèse, nous proposons une méthode qui permet d’estimer, à partir d’une seule projection, la surface d’un ensemble 2D. Concernant l’estimation du périmètre d’un ensemble 2D, en considérant les projections par une deuxième source d’un ensemble convexe, nous obtenons deux bornes inférieures et une borne supérieure pour le périmètre de l’objet projeté. / Tomography is about reconstructing an nD object from its (n-1)D projections. This discipline addresses many questions to which research tries to provide answers. In this work, we are interested to three aspects: 1) the 2D image reconstruction from projections in a rarely studies framework that is the point sources; 2) the uniqueness of this reconstruction; 3) estimating information about an object without going through the step of reconstructing its image. To approach the problem of tomographic reconstruction for the class of convex sets, we define a new class of sets having properties of convexity called quadrant convexity for point sources. After a study of this new class of sets, we show that it presents strong links with the class of convex sets. Wepropose a reconstruction algorithm for quadrant-convex sets that, if the uniqueness of the reconstruction is guaranteed, allows the reconstruction of convex sets in polynomial time. We also show that if a conjecture we have proposed is true the conditions of uniqueness for quadrant-convex sets are the same as those for convex sets. Regarding the third aspect studied in this thesis, we focus on two quantitative properties that are the surface and the perimeter. We propose a method to estimate, from only one projection, the surface of a 2D set. We obtain two lower bounds and an upper bound for the perimeter of a projected convexobject by considering the projections from a second point source.
10

Réduction des artéfacts de tuteur coronarien au moyen d’un algorithme de reconstruction avec renforcement des bords : étude prospective transversale en tomodensitométrie 256 coupes

Chartrand-Lefebvre, Carl 08 1900 (has links)
Les artéfacts métalliques entraînent un épaississement artéfactuel de la paroi des tuteurs en tomodensitométrie (TDM) avec réduction apparente de leur lumière. Cette étude transversale prospective, devis mesures répétées et observateurs avec méthode en aveugle, chez 24 patients consécutifs/71 tuteurs coronariens a pour objectif de comparer l’épaisseur de paroi des tuteurs en TDM après reconstruction par un algorithme avec renforcement des bords et un algorithme standard. Une angiographie coronarienne par TDM 256 coupes a été réalisée, avec reconstruction par algorithmes avec renforcement des bords et standard. L’épaisseur de paroi des tuteurs était mesurée par méthodes orthogonale (diamètres) et circonférentielle (circonférences). La qualité d’image des tuteurs était évaluée par échelle ordinale, et les données analysées par modèles linéaire mixte et régression logistique des cotes proportionnelles. L’épaisseur de paroi des tuteurs était inférieure avec l’algorithme avec renforcement des bords comparé à l’algorithme standard, avec les méthodes orthogonale (0,97±0,02 vs 1,09±0,03 mm, respectivement; p<0,001) et circonférentielle (1,13±0,02 vs 1,21±0,02 mm, respectivement; p<0,001). Le premier causait moins de surestimation par rapport à l’épaisseur nominale comparé au second, avec méthodes orthogonale (0,89±0,19 vs 1,00±0,26 mm, respectivement; p<0,001) et circonférentielle (1,06±0,26 vs 1,13±0,31 mm, respectivement; p=0,005) et diminuait de 6 % la surestimation. Les scores de qualité étaient meilleurs avec l’algorithme avec renforcement des bords (OR 3,71; IC 95% 2,33–5,92; p<0,001). En conclusion, la reconstruction des images avec l’algorithme avec renforcement des bords génère des parois de tuteurs plus minces, moins de surestimation, et de meilleurs scores de qualité d’image que l’algorithme standard. / Metallic artifacts can result in an artificial thickening of the coronary stent wall which can significantly impair computed tomography (CT) imaging in patients with coronary stents. The purpose of this study is to assess the in vivo visualization of coronary stent wall and lumen with an edge-enhancing CT reconstruction kernel, as compared to a standard kernel. This is a prospective cross-sectional study of 24 consecutive patients with 71 coronary stents, using a repeated measure design and blinded observers, approved by the Local Institutional Review Board. 256-slice CT angiography was used, as well as standard and edge-enhancing reconstruction kernels. Stent wall thickness was measured with orthogonal and circumference methods, averaging wall thickness from stent diameter and circumference measurements, respectively. Stent image quality was assessed on an ordinal scale. Statistical analysis used linear and proportional odds models. Stent wall thickness was inferior using the edge-enhancing kernel compared to the standard kernel, either with the orthogonal (0.97±0.02 versus 1.09±0.03 mm, respectively; p<0.001) or circumference method (1.13±0.02 versus 1.21±0.02 mm, respectively; p<0.001). The edge-enhancing kernel generated less overestimation from nominal thickness compared to the standard kernel, both with orthogonal (0.89±0.19 versus 1.00±0.26 mm, respectively; p<0.001) and circumference (1.06±0.26 versus 1.13±0.31 mm, respectively; p=0.005) methods. The average decrease in stent wall thickness overestimation with an edge-enhancing kernel was 6%. Image quality scores were higher with the edge-enhancing kernel (odds ratio 3.71, 95% CI 2.33–5.92; p<0.001). In conclusion, the edge-enhancing CT reconstruction kernel generated thinner stent walls, less overestimation from nominal thickness, and better image quality scores than the standard kernel.

Page generated in 0.5249 seconds