• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 122
  • 25
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 187
  • 187
  • 187
  • 48
  • 47
  • 47
  • 32
  • 28
  • 27
  • 27
  • 26
  • 19
  • 17
  • 16
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Mechanical modeling of brain and breast tissue

Ozan, Cem 28 April 2008 (has links)
We propose a new approach for defining mechanical properties of the brain tissue in-vivo by taking MRI or CT images of a brain response to ventriculostomy operation, i.e., the relief of the elevated pressure in the ventricular cavities. Then, based on 3-D image analysis, the displacement fields are recovered from these images. Constitutive parameters of the brain tissue are determined using inverse analysis and a numerical method allowing for computations of large strain deformations. We tested this approach in controlled laboratory experiments with silicone brain models mimicking brain geometry, mechanical properties, and boundary conditions. The ventriculostomy was simulated by inflating and deflating internal cavities that model cerebral ventricles. Subsequently, the silicone brain model was described by a hyperelastic (neo-Hookean) material. The obtained mechanical properties have been verified with direct laboratory tests. Properties of real brain tissue are more complicated, but the proposed approach requires only conventional medical images collected before and after ventriculostomy. Breast cancer is the second most prevalent cancer in women, and an operative mastectomy is frequently a part of the treatment. Women often choose to follow a mastectomy with a reconstruction surgery using a breast implant. Furthermore, there is a growing demand for breast augmentation for the sake of aesthetic improvement. In this dissertation, we also developed a quantitative large-strain 3-D mechanical model of female breast deformation. The results show that the stiffness of skin and the constitutive parameters of the breast tissue are important factors affecting breast shape. Our results also suggest that the published Mooney-Rivlin parameters of breast tissue are underestimated by at least one or two orders of magnitude. Scale analysis, representing female breast as a cantilever beam, confirms these conclusions. Subdural hematoma (tearing and bleeding between scull and brain) is one of the major complications of the ventriculostomy operations. Understanding the mechanism of subdural hematoma is critically important for development of more effective medical treatments. In this work, we developed a simple, spherically-symmetrical poroelastic model of the ventriculostomy operation and studied brain response to the pressure change in the ventricles. The observed effect of the material properties on the occurrence of subdural hematoma may be useful for making clinical decisions.
172

Cardiac motion recovery from magnetic resonance images using incompressible deformable models

Bistoquet, Arnaud 24 June 2008 (has links)
The study of myocardial motion is essential for understanding the normal heart function and developing new treatments for cardiovascular diseases. The goals of my PhD research is to develop new methods for cardiac deformation recovery from 3D magnetic resonance (MR) images. The main contribution of my work is that the proposed methods are guaranteed to generate exactly or nearly incompressible deformations. This is a desirable property since the myocardium has been shown to be close to incompressible. From the recovered deformation, one can directly compute a number of clinically useful parameters, including strains. The first method for 3D deformation recovery of the left ventricular wall (LV) from anatomical cine MRI is based on a deformable model that is incompressible. This method is not suitable for the deformation recovery of the biventricular wall. The second method is based on a 3D deformable model that is nearly incompressible. The model uses a matrix-valued radial basis function to represent divergence free displacement fields, which is a first order approximation of incompressibility. This representation allows for deformation modeling of arbitrary topologies with a relatively small number of parameters, which is suitable for representing the motion of the multi-chamber structure of the heart. The two methods have similar performance. A method to obtain a smooth and accurate surface of the myocardium wall is needed to illustrate the cardiac deformation recovery. I present a novel method for the generation of endocardial and epicardial surface meshes. The same algorithm is independently used to generate the surface meshes of the epicardium and endocardium of the four cardiac chambers. It provides smooth meshes despite the strong voxel anisotropy, which is not the case for the marching cubes algorithm. Phase velocity MRI is an acquisition technique that contains more information about the myocardial motion than cine MRI. I present a method to interpolate the velocity vector field in a phase velocity MRI sequence. The method uses an interpolation model that provides a continuous divergence free velocity vector field, which means that the corresponding deformation is incompressible.
173

Attribute-driven segmentation and analysis of mammograms

Kwok, Sze Man Simon January 2005 (has links)
[Truncated abstract] In this thesis, we introduce a mammogram analysis system developed for the automatic segmentation and analysis of mammograms. This original system has been designed to aid radiologists to detect breast cancer on mammograms. The system embodies attribute-driven segmentation in which the attributes of an image are extracted progressively in a step-by-step, hierarchical fashion. Global, low-level attributes obtained in the early stages are used to derive local, high-level attributes in later stages, leading to increasing refinement and accuracy in image segmentation and analysis. The proposed system can be characterized as: • a bootstrap engine driven by the attributes of the images; • a solid framework supporting the process of hierarchical segmentation; • a universal platform for the development and integration of segmentation and analysis techniques; and • an extensible database in which knowledge about the image is accumulated. Central to this system are three major components: 1. a series of applications for attribute acquisition; 2. a standard format for attribute normalization; and 3. a database for attribute storage and data exchange between applications. The first step of the automatic process is to segment the mammogram hierarchically into several distinctive regions that represent the anatomy of the breast. The adequacy and quality of the mammogram are then assessed using the anatomical features obtained from segmentation. Further image analysis, such as breast density classification and lesion detection, may then be carried out inside the breast region. Several domain-specific algorithms have therefore been developed for the attribute acquisition component in the system. These include: 1. automatic pectoral muscle segmentation; 2. adequacy assessment of positioning and exposure; and 3. contrast enhancement of mass lesions. An adaptive algorithm is described for automatic segmentation of the pectoral muscle on mammograms of mediolateral oblique (MLO) views
174

In Vivo Coronary Wall Shear Stress Determination Using CT, MRI, and Computational Fluid Dynamics

Johnson, Kevin Robert 02 April 2007 (has links)
Wall shear stress (WSS) has long been identified as a factor in the development of atherosclerotic lesions. Autopsy studies have revealed a strong tendency for lesion development at arterial branch sites and along the inner walls of curvature areas that, in theory, should experience low WSS. Calculations of coronary artery WSS have typically been based upon average models of coronary artery geometry with average flow conditions and then compared to average lesion distributions. With all the averaging involved, a more detailed knowledge of the correlation between WSS and atherosclerotic lesion development might be obscured. Recent advancements in hemodynamic modeling now enable the calculation of WSS in individual subjects. An image-based approach for patient-specific calculation of in vivo WSS using computational fluid dynamics (CFD) would allow a more direct study of this correlation. New state-of-the-art technologies in multi-detector computed tomography (CT) and 3.0 Tesla magnetic resonance imaging (MRI) offer potential improvements for the measurement of coronary artery geometry and blood flow. The overall objective of this research was to evaluate the quantitative accuracy of multi-detector CT and 3.0 Tesla MRI and incorporate those imaging modalities into a patient-specific CFD model of coronary artery WSS. Using a series of vessel motion phantoms, it has been shown that 64-detector CT can provide accurate measurements of coronary artery geometry for heart rates below 70 beats per minute. A flow phantom was used to validate the use of navigator-echo gated, phase contrast MRI at 3.0 Tesla to measure velocity of coronary blood flow. Patient-specific, time-resolved CFD models of coronary WSS were created for two subjects. Furthermore, it was determined that population-average velocity curves or steady state velocities can predict locations of high or low WSS with high degrees of accuracy compared to the use of patient-specific blood flow velocity measurements as CFD boundary conditions. This work is significant because it constitutes the first technique to non-invasively calculate in vivo coronary artery WSS using image-based, patient-specific modeling.
175

Diffusion tensor imaging at long diffusion time

Rane, Swati 30 June 2009 (has links)
Diffusion Tensor Imaging (DTI) is a well-established magnetic resonance technique that can non-invasively interpret tissue geometry and track neural pathways by sampling the diffusion of water molecules in the brain tissue. However, it is currently limited to tracking large nerve fiber bundles and fails to faithfully resolve thinner fibers. Conventional DTI studies use a diffusion time, t[subscript diff] of 30 ms - 55 ms for diffusion measurements. This work proposes the use of DTI at long t[subscript diff] to enhance the sensitivity of the method towards regions of low diffusion anisotropy and improve tracking of smaller fibers. The Stimulated Echo Acquisition Mode (STEAM) sequence was modified to allow DTI measurements at long t[subscript diff] (approximately 200 ms), while avoiding T2 signal loss. For comparison, DTI data was acquired using STEAM at the shorter value of t[subscript diff] and with the standard Double Spin Echo sequence with matched signal-to-noise ratio. This approach was tested on phantoms and fixed monkey brains and then translated to in vivo studies in rhesus macaques. Qualitative and quantitative comparison of the techniques was based on fractional anisotropy, diffusivity, three-phase plots and directional entropy. Tensor-field maps and probabilistic connectivity fronts were evaluated for all three acquisitions. Comparison of the tracked nerve pathways showed that fibers obtained at long t[subscript diff] were much longer. Further, the optic tract was tracked in ex vivo fixed rhesus brains for cross validation. The optic tract, traced at long t[subscript diff], conformed to the well documented anatomical description, thus confirming the accuracy of tract tracing at long t[subscript diff]. The benefits of DTI at long t[subscript diff] indeed help to realize the potential of tensor based tractography towards studying neural development and diagnosing neuro-pathologies, albeit the improvement is more significant ex vivo than in vivo.
176

Light-tissue interactions for developing portable and wearable optoelectronic devices for sensing of tissue condition, diagnostics and treatment in photodynamic therapy (PDT)

Kulyk, Olena January 2016 (has links)
This thesis presents the development and in-vivo applications of wearable and portable devices for the investigation of light interaction with tissue involved in Photodynamic therapy (PDT) and during contraction of muscles. A hand-held device and a clinical method were developed for time course in-vivo imaging of the fluorescence of the photosensitizer Protoporphyrin IX (PpIX) in healthy and diseased skin with the aim to guide improvement of PDT protocols. The device was used in a small clinical study on 11 healthy volunteers and 13 patients diagnosed with non-melanoma skin cancer (NMSC). Two types of PpIX precursors were administered: Ameluz gel and Metvix® cream. The fluorescence was imaged with a 10 minute time step over three hours which was the recommended metabolism time before commencing PDT treatment at Ninewells Hospital, Dundee. The fluorescence time course was calculated by integrating the areas with the highest intensity. The fluorescence continued to grow in all subjects during the three hours. The time course varied between individuals. There was no statistical significance between either healthy volunteers or patients in Ameluz vs Metvix® groups; nor was there statistical difference between the three lesions groups (Actinic keratosis (AK) Ameluz vs AK Metvix® vs Basal cell carcinoma (BCC) Metvix®). The p-value was larger than 0.05 in a two sample t-test with unequal variances for all the groups. However, there was strong body site dependence between the head & neck compared to the lower leg & feet, or the trunk & hands body site groups (p-value < 0.01). One of the possible explanations for this was temperature and vasculature variation in skin at different body sites: the temperature is higher and the vasculature structure is denser at the head and the neck compared to the lower leg or the trunk. The temperature was not measured during the study. So in order to support this hypothesis, typical skin temperatures at the lesion sites were taken from the IR thermal images of healthy skin available in literature. PpIX fluorescence had a positive correlation to temperature. If this hypothesis is true, it will be highly important to PDT treatment. Increasing the temperature could speed up the metabolism and reduce the waiting time before starting the treatment; ambient temperature should be taken into account for daylight PDT; cooling air as pain management should be administered with caution. Potential improvements for wearable PDT light sources were investigated by modelling light transport in skin for the current LED-based Ambulight PDT device, a commercial OLED for future devices and a directional OLED developed in the group. The optical models were implemented in commercial optical software (with intrinsic Monte Carlo ray tracing and Henyey-Greenstein scattering approximation) which was validated on diffuse reflectance and transmittance measurements using in-house made tissue phantoms. The modelling was applied to investigate the benefits from diffusive and forward scattering properties of skin on light transmission in treatment light sources. 1 mm thick skin can only compensate approximately 10% of non-uniform irradiance. It means that uniform illumination is crucial for the treatment light sources. Forward scattering in skin showed a 10% improved light transmission from a collimated emission compared to a wide angle Lambertian emission. However, depth-dependent transmission measurements of directional vs Lambertian emission from organic light emitting films (a nano-imprinted grating was fabricated to provide directional emission in one of the films), collimated vs diffused HeNe laser light through fresh porcine skin did not show the expected improvement. This could be explained by skin roughness which was previously found to change the optical properties and may also affect light coupling. The modelling was applied to guide an optical design of another wearable device – a muscle contraction sensor. Muscle is fibrous and because of that scatters light differently in different directions. The sensor detects the change in backscattered light in parallel and perpendicular directions with respect to muscle fibres. The sensor was implemented on a wearable bandage on fully flexible substrate with flexible OLED and organic photodiodes. The major advantages of organic optoelectronic sensing compared to conventional electromyography (EMG) sensors are the ability to distinguish two types of contractions (isotonic and isometric), insensitivity to electromagnetic interference and the absence of an immune response due to non-invasive electrode-free sensing. Optical modelling was performed to understand the operation of the sensor. A 3D anisotropic optical model of scattering in muscle was created by geometrical manipulations with the standard Henyey-Greenstein scattering volumes. The penetration depth from the Super Yellow OLED was found to be 20-25 mm; the optimal separation between the source and the detector was found to be 20 mm. This distance provided a still detectable signal along with the best discrimination between the two backscatterings. When a 2 mm thick layer of skin and a 2 mm thick layer of adipose tissue were added to the model, the signal was hugely diffused. The discrimination between the two backscatterings decreased by three orders of magnitude, the penetration depth in muscle was reduced, and the intensity of the signal dropped down but was still detectable. With 5 mm thick adipose tissue and 2 mm thick skin the signal was too diffused and interacted with very shallow layers of muscle which approached the limits of the optical sensing of muscle activity.
177

Characterization and Colocalization of Tissue-Based Biomarker Expression by Quantitative Image Analysis: Development and Extraction of Novel Features

Moles Lopez, Xavier 25 March 2014 (has links)
Proteins are the actual actors in the (normal or disrupted) physiological processes and immunohistochemistry (IHC) is a very efficient mean of visualizing and locating protein expression in tissue samples. By comparing pathologic and normal tissue, IHC is thus able to evidence protein expression alterations. This is the reason why IHC plays a grow- ing role to evidence tissue-based biomarkers in clinical pathology for diagnosing var- ious diseases and directing personalized therapy. Therefore, IHC biomarker evaluation significantly impacts the adequacy of the therapeutic choices for patients with serious pathologies, such as cancer. However, this evaluation may be time-consuming and dif- ficult to apply in practice due to the absence of precise positive cut-off values as well as staining (i.e. protein expression) heterogeneity intra- and inter-samples. Quantifying IHC staining patterns has thus become a crucial need in histopathology. For this task, automated image analysis has multiple advantages, such as avoiding the evidenced ef- fects of human subjectivity. The recent introduction of whole-slide scanners opened a wide range of possibilities for addressing challenging image analysis problems, includ- ing the identification of tissue-based biomarkers. Whole-slide scanners are devices that are able to image whole tissue slides at resolutions up to 0.1 micrometers per pixels, often referred to as virtual slides. In addition to quantification of IHC staining patterns, virtual slides are invaluable tools for the implementation of digital pathology work- flows. The present work aims to make several contributions towards this current digital shift in pathology. Our first contribution was to propose an automated virtual slide sharpness assessment tool. Although modern whole-slide scanner devices resolve most image standardization problems, focusing errors are still likely to be observed, requiring a sharpness assessment procedure. Our proposed tool will ensure that images provided to subsequent pathologist examination and image analysis are correctly focused. Virtual slides also enable the characterization of biomarker expression heterogeneity. Our sec- ond contribution was to propose a method to characterize the distribution of densely stained regions in the case of nuclear IHC biomarkers, with a focus on the identification of highly proliferative tumor regions by analyzing Ki67-stained tissue slides. Finally, as a third contribution, we propose an efficient mean to register virtual slides in order to characterize biomarker colocalization on adjacent tissue slides. This latter contribution opens new prospects for the analysis of more complex questions at the tissue level and for finely characterizing disease processes and/or treatment responses./Les protéines sont les véritables acteurs des processus physiologiques (normaux ou per- turbés) et l’immunohistochimie (IHC) est un moyen efficace pour visualiser et localiser leur expression au sein d’échantillons histologiques. En comparant des échantillons de tissus pathologiques et normaux, l’IHC permet de révéler des altérations dans des pro- fils d’expression protéique. C’est pourquoi l’IHC joue un rôle de plus en plus important pour mettre en évidence des biomarqueurs histologiques intervenant dans le diagnos- tic de diverses pathologies et dans le choix de thérapies personnalisées. L’évaluation de l’expression de biomarqueurs révélés par IHC a donc des répercussions importantes sur l’adéquation des choix thérapeutiques pour les patients souffrant de pathologies graves, comme le cancer. Cependant, cette évaluation peut être chronophage et difficile à appliquer en pratique, d’une part, à cause de l’hétérogénéité de l’expression protéique intra- et inter-échantillon, d’autre part, du fait de l’absence de critères de positivité bien définis. Il est donc devenu crucial de quantifier les profils d’expression de marquages IHC en histopathologie. A cette fin, l’analyse d’image automatisée possède de multiples avantages, comme celui d’éviter les effets de la subjectivité humaine, déjà démontrés par ailleurs. L’apparition récente des numériseurs de lames histologiques complètes, ou scanners de lames, a permis l’émergence d’un large éventail de possibilités pour traiter des problèmes d’analyse d’image difficiles menant à l’identification de biomar- queurs histologiques. Les scanners de lames sont des dispositifs capables de numériser des lames histologiques à une résolution pouvant atteindre 0,1 micromètre par pixel, expliquant la dénomination de "lames virtuelles" des images ainsi acquises. En plus de permettre la quantification des marquages IHC, les lames virtuelles sont des outils indis- pensables pour la mise en place d’un flux de travail numérique en pathologie. Le travail présenté ici vise à fournir plusieurs contributions au récent changement de cap vers une numérisation de la discipline médicale qu’est l’anatomie pathologique. Notre première contribution consiste en un outil permettant d’évaluer automatiquement la netteté des lames virtuelles. En effet, bien que les scanners de lames résolvent la plupart des pro- blèmes liés à la standardisation de l’acquisition, les erreurs de focus restent fréquentes, ce qui nécessite la mise en place d’une procédure de vérification de la netteté. L’outil que nous proposons assurera la netteté des images fournies à l’examen du pathologiste et à l’analyse d’image. Les lames virtuelles permettent aussi de caractériser l’hétérogénéité de l’expression de biomarqueurs. Ainsi, la deuxième contribution de ce travail repose sur une méthode permettant de caractériser la distribution de régions densément marquées par des biomarqueurs IHC nucléaires. Pour ce travail, nous nous sommes concentrés sur l’identification de régions tumorales présentant une forte activité proliférative en analysant des lames virtuelles révélant l’expression de la protéine Ki67. Finalement, la troisième contribution de ce travail fut de proposer un moyen efficace de recaler des lames virtuelles dans le but de caractériser la colocalisation de biomarqueurs IHC révé- lés sur des coupes de tissu adjacentes. Cette dernière contribution ouvre de nouvelles perspectives pour l’analyse de questions complexes au niveau histologique ainsi que la caractérisation fine de processus pathologiques et de réponses thérapeutiques. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
178

Multimodality imaging for treatment response prediction in colorectal cancer / Utilité de l'imagerie multimodale pour la prédiction de la réponse au traitement dans le cancer colorectal

Hendlisz, Alain 25 February 2015 (has links)
L’hypothèse prédominante de cette thèse est que les changements métaboliques tumoraux mesurés par FDG-PET/CT sous l’influence des traitements anticancéreux, apparaissent plus précocement et parfois exclusivement par rapport aux modalités d’imagerie morphologique classique. L’imagerie multimodale, en combinant les avantages de chacune des techniques, dépasse leur limitations et pourrait permettre (i) une évaluation du bénéfice du traitement plus rapide et plus adéquate ;(ii) de modifier les algorithmes thérapeutiques à différents stades de cancer colorectal et (iii) d’améliorer la compréhension des mécanismes d’échappement aux traitements anticancéreux. Pour évaluer l’apport de l’imagerie multimodale dans l’évaluation de la réponse au traitement des cancers colorectaux (CCR), nous avons poursuivi 3 séries d’expérimentation cliniques.<p><p>1) Le premier projet explore l’imagerie multimodale comme un outil d’individualisation pour la radio-embolisation (microsphères chargées en 90Yttrium) chez des patients porteurs d’un CCR métastatique au niveau du foie, pour laquelle l’imagerie morphologique classique est incapable de mesurer l’effet thérapeutique. Nous montrons que l’usage non sélectif de la radio-embolisation améliore l’histoire clinique de ces patients, bien que certains d’entre eux ne semblent pas en bénéficier. Ensuite, par une analyse multimodale lésion par lésion intégrant angiographie-CT Scan, FDG-PET/CT et scintigraphie aux macro-agrégats d’albumine marqués au 99mTechnetium, nous démontrons que la distribution pré-thérapeutique des macro-agrégats d’albumine est hétérogène entre les différentes lésions des patients et prédictive de la réponse métabolique au sein de ces lésions, permettant le développement d’un outil de prédiction et de planification pour la radio-embolisation.<p><p>2) Le deuxième projet explore le domaine du CCR métastatique traité par chimiothérapie palliative. (i) Nous démontrons d’abord que la réponse métabolique (RM) tumorale après une cure de chimiothérapie cytolytique prédit plus vite et plus adéquatement que l’imagerie morphologique basée sur les critères RECIST les bénéfices cliniques du traitement. La RM précoce a une excellente valeur prédictive négative sur l’absence de réponse morphologique et met en évidence une variabilité de réponse inter-lésionnelle chez une proportion importante des patients. (ii) L’étude SoMore explore ensuite des patients présentant un CCR avancé et réfractaire, traités par capecitabine et sorafenib, et confirme l’importance pronostique des RM mixtes, suggérant une méthodologie de classification clinique basée sur la consistance de la RM. (iii) Cette classification cherche confirmation dans l’étude RegARd-C, encore en cours, évaluant les effets du regorafenib, et explorant également la signification génomique et épigénétique de la variabilité de RM. <p><p>3) Le troisième projet cherche à utiliser les propriétés de l’imagerie métabolique pour modifier l’algorithme de traitement adjuvant des patients porteurs d’un cancer du côlon de stade III. Ce projet, encore en cours, fait l’hypothèse que l’absence de RM de la lésion primitive après une cure de chimiothérapie prédit l’absence de bénéfice du traitement adjuvant complet. Une analyse intérimaire en démontre la faisabilité et confirme la présence de 40% de tumeurs présentant des caractéristiques métaboliques de chimio-résistance.<p><p>En conclusion, pour des patients porteurs d’un CCR, l’imagerie multimodale comprenant une évaluation du métabolisme tumoral permet une évaluation plus précoce et plus adéquate du bénéfice au traitement anticancéreux pour différentes modalités thérapeutiques comme la radio-embolisation, la chimiothérapie cytotoxique et les agents biologiques. L’imagerie multimodale permet de prédire et planifier les radio-embolisations et se révèle très prometteuse pour les traitements chimiothérapiques cytotoxiques ou combinés à des biologiques en situation adjuvante ou métastatique. Elle démontre par ailleurs une importante variabilité de réponse métabolique inter-lésionnelle qui représente un axe de recherche majeur sur les mécanismes moléculaires d’hétérogénéité génomique tumorale et de résistance aux traitements anti-cancéreux.<p> / Doctorat en Sciences médicales / info:eu-repo/semantics/nonPublished
179

Système de réalité virtuelle d'aide à la réalisation et à l'évaluation d'exercices physiques

Penelle, Benoît 29 April 2014 (has links)
Les travaux de recherche présentés dans cette thèse ont pour but de développer un système de réalité virtuelle d'aide à la réalisation et à l'évaluation d'exercices physiques. La notion d'exercice physique étant très large, nous avons pris le parti de cibler des exercices réalisés dans le cadre médical de traitements de rééducation fonctionnelle. Dans un premier temps, nous avons mis au point un socle technologique et algorithmique basé sur du matériel standard, peu coûteux, simple à installer et à utiliser. Il met en place les fondations nécessaires pour le développement d'applications de réalité virtuelle destinées à supporter et à superviser des exercices de rééducation, qu'ils soient réalisés dans un centre de rééducation, dans le cabinet d'un kinésithérapeute, ou à domicile. Sur base de ce socle, nous avons ensuite développé deux applications de rééducation ciblant des pathologies différentes. La première application est destinée aux patients atteints de douleurs neuropathiques telles que les douleurs fantômes (DF) chez les amputés ou le Syndrome Douloureux Régional Complexe (SDRC). Grâce à la réalité virtuelle, nous donnons l'illusion au patient qu'il peut à nouveau bouger son membre amputé ou pathologique, réduisant ainsi l'intensité des douleurs. La seconde application a pour but d'offrir au thérapeute et au patient un outil de quantification des mouvements réalisés dans le cadre d'exercices de rééducation motrice. Les mesures ainsi obtenues vont permettre d'aider le médecin à identifier et à objectiver le diagnostic d'une pathologie du mouvement, et, par la suite, vont permettre au kinésithérapeute d'en suivre l'évolution tout au long du traitement de rééducation. Pour chacune de ces applications, un algorithme spécifique de suivi de mouvements, basé sur le socle commun, est au cœur de la solution mise en œuvre. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
180

Optimiser l'utilisation des données en reconstruction TEP: modélisation de résolution dans l'espace image et contribution à l'évaluation de la correction de mouvement

Cloquet, Christophe 11 July 2011 (has links)
Cancers et maladies cardio-vasculaires sont responsables de plus de 40 % des décès dans le monde. De nombreuses personnes souffrent par ailleurs quotidiennement de ces maladies. En réduire la fréquence dans le futur passe avant tout par une adaptation de notre mode de vie et une prévention accrue, éclairées par une connaissance plus approfondie des mécanismes de ces maladies. Il est également crucial d'améliorer les diagnostics et les traitements actuels afin de mieux prendre en charge les malades d'aujourd'hui et de demain.<p><p>Lorsque le tableau clinique présenté par un patient n'est pas clair, de nombreuses techniques d'imagerie médicale permettent d'affiner le diagnostic, de préciser le pronostic et de suivre l'évolution des maladies au cours du temps. Ces mêmes techniques sont également utilisées en recherche fondamentale pour faire progresser la connaissance du fonctionnement normal et pathologique du corps humain. Il s'agit par exemple de l'échographie, de l'imagerie par résonance magnétique, de la tomodensitométrie à rayons X ou encore de la tomographie par émission de positrons (TEP).<p><p>Certaines de ces techniques mettent en évidence le métabolisme de molécules, comme le glucose et certains acides aminés. C'est le cas de la tomographie par émission de positrons, dans laquelle une petite quantité de molécules marquées avec un élément radioactif est injectée au patient. Ces molécules se concentrent de préférence dans les endroits du corps humain où elles sont utilisées. Instables, les noyaux radioactifs se désintègrent en émettant un anti-électron, encore appelé positron. Chaque positron s'annihile ensuite à proximité du lieu d'émission avec un électron du corps du patient, provoquant l'émission simultanée de deux photons de haute énergie dans deux directions opposées. Après avoir traversé les tissus, ces photons sont captés par un anneau de détecteurs entourant le patient. Sur base de l'ensemble des événements collectés, un algorithme de reconstruction produit enfin une image de la distribution du traceur radioactif.<p><p>La tomographie par émission de positrons permet notamment d'évaluer l'efficacité du traitement des tumeurs avant que la taille de celles-ci n'ait changé, ce qui permet d'aider à décider de poursuivre ou non le traitement en cours. En cardiologie, cette technique permet de quantifier la viabilité du muscle cardiaque après un infarctus et aide ainsi à évaluer la pertinence d'une intervention chirurgicale.<p><p>Plusieurs facteurs limitent la précision des images TEP. Parmi ceux-ci, on trouve l'effet de volume partiel et le mouvement du coeur.<p><p>L'effet de volume partiel mène à des images floues, de la même manière qu'un objectif d'appareil photo incorrectement mis au point produit des photographies floues. Deux possibilités s'offrent aux photographes pour éviter cela :soit améliorer la mise au point de leur objectif, soit retoucher les images après les avoir réalisées ;améliorer la mise au point de l'objectif peut s'effectuer dans l'espace des données (ajouter une lentille correctrice avant l'objectif) ou dans l'espace des images (ajouter une lentille correctrice après l'objectif).<p><p>Le mouvement cardiaque provoque également une perte de netteté des images, analogue à l'effet de flou sur une photographie d'une voiture de course réalisée avec un grand temps de pose. Classiquement, on peut augmenter la netteté d'une image en diminuant le temps de pose. Cependant, dans ce cas, moins de photons traversent l'objectif et l'image obtenue est plus bruitée.<p><p>On pourrait alors imaginer obtenir de meilleurs images en suivant la voiture au moyen de l'appareil photo. <p><p>De cette manière, la voiture serait à la fois nette et peu corrompue par du bruit, car beaucoup de photons pourraient être détectés.<p><p>En imagerie TEP, l'effet de volume partiel est dû à de nombreux facteurs dont le fait que le positron ne s'annihile pas exactement à l'endroit de son émission et que le détecteur frappé par un photon n'est pas toujours correctement identifié. La solution passe par une meilleure modélisation de la physique de l'acquisition au cours de la reconstruction, qui, en pratique est complexe et nécessite d'effectuer des approximations.<p><p>La perte de netteté due au mouvement du coeur est classiquement traitée en figeant le mouvement dans plusieurs images successives au cours d'un battement cardiaque. Cependant, une telle solution résulte en une diminution du nombre de photons, et donc en une augmentation du bruit dans les images. Tenir compte du mouvement de l'objet pendant la reconstruction TEP permettrait d'augmenter la netteté en gardant un bruit acceptable. On peut également penser à superposer différentes images recalées au moyen du mouvement.<p><p>Au cours de ce travail, nous avons étudié des méthodes qui tirent le meilleur parti possible des informations fournies par les événements détectés. Pour ce faire, nous avons choisi de baser nos reconstructions sur une liste d'événements contenant la position exacte des détecteurs et le temps exact d'arrivée des photons, au lieu de l'histogramme classiquement utilisé.<p><p>L'amélioration de résolution passe par la connaissance de l'image d'une source ponctuelle radioactive produite par la caméra.<p><p>À la suite d'autres travaux, nous avons mesuré cette image et nous l'avons modélisée, pour la première fois, au moyen d'une fonction spatialement variable, non-gaussienne et asymétrique. Nous avons ensuite intégré cette fonction dans un algorithme de reconstruction, dans l'espace image. C'est la seule possibilité pratique dans le cas d'acquisitions en mode liste. Nous avons ensuite comparé les résultats obtenus avec un traitement de l'image après la reconstruction.<p><p>Dans le cadre de la correction de mouvement cardiaque, nous avons opté pour l'étude de la reconstruction simultanée de l'image et du déplacement, sans autres informations externes que les données TEP et le signal d'un électrocardiogramme. Nous avons ensuite choisi d'étudier la qualité de ces estimateurs conjoints intensité-déplacement au moyen de leur variance. Nous avons étudié la variance minimale que peut atteindre un estimateur conjoint intensité-mouvement, sur base des données TEP uniquement, au moyen d'un outil appelé borne de Cramer-Rao. Dans ce cadre, nous avons étudié différentes manières existantes d'estimer la borne de Cramer-Rao et nous avons proposé une nouvelle méthode d'estimation de la borne de Cramer-Rao adaptée à des images de grande dimension. Nous avons enfin mis en évidence que la variance de l'algorithme classique OSEM était supérieure à celle prédite par la borne de Cramer-Rao. En ce qui concerne les estimateurs combinés intensité-déplacement, nous avons observé la diminution de la variance minimale possible sur les intensités lorsque le déplacement était paramétrisé sur des fonctions spatiales lisses.<p><p>Ce travail est organisé comme suit. Le chapitre théorique commence par brosser brièvement le contexte historique de la tomographie par émission de positrons. Nous avons souhaité insister sur le fait que l'évolution des idées n'est romantique et linéaire qu'à grande échelle. Nous abordons ensuite la description physique de l'acquisition TEP. Dans un deuxième chapitre, nous rappelons quelques éléments de la théorie de l'estimation et de l'approximation et nous traitons des problèmes inverses en général et de la reconstruction TEP en particulier.<p><p>La seconde partie aborde le problème du manque de netteté des images et la solution que nous avons choisi d'y apporter :une modélisation dans l'espace image de la réponse impulsionnelle de la caméra, en tenant compte de ses caractéristiques non gaussienne, asymétrique et spatialement variable. Nous présentons également le résultat de la comparaison avec une déconvolution post-reconstruction. Les résultats présentés dans ce chapitre ont fait l'objet d'une publication dans la revue Physics in Medicine and Biology.<p><p>Dans un troisième volet, nous abordons la correction de mouvement. Une premier chapitre brosse le contexte de la correction de mouvement en TEP et remet en perspective les différentes méthodes existantes, dans un cadre bayésien unificateur.<p><p>Un second chapitre aborde ensuite l'estimation de la qualité des images TEP et étudie en particulier la borne de Cramer-Rao.<p><p>Les résultats obtenus sont enfin résumés et replacés dans leur contexte dans une conclusion générale.<p> / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished

Page generated in 0.1206 seconds