• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 548
  • 94
  • 93
  • 91
  • 30
  • 22
  • 17
  • 15
  • 14
  • 12
  • 12
  • 9
  • 9
  • 8
  • 5
  • Tagged with
  • 1125
  • 419
  • 167
  • 149
  • 114
  • 108
  • 105
  • 94
  • 86
  • 85
  • 83
  • 71
  • 70
  • 64
  • 63
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
651

Imagerie multimodale et planification interactive pour la reconstruction 3D et la métrologie dimensionnelle / Multimodal imaging and interactive planning for 30 reconstruction and the dimensional metrology

Hannachi, Ammar 21 August 2015 (has links)
La fabrication de pièces manufacturées génère un nombre très important de données de différents types définissant les géométries de fabrication ainsi que la qualité de production. Ce travail de thèse s’inscrit dans le cadre de la réalisation d’un système de vision cognitif dédié à l’évaluation d’objets 3D manufacturés incluant éventuellement des surfaces gauches, en tenant compte des tolérances géométriques et des incertitudes. Ce système permet un contrôle exhaustif de pièces manufacturées et offre la possibilité d’une inspection tridimensionnelle automatique de la pièce. La mise en place d’un système de mesures multi-capteurs (passifs et actifs) a permis d’améliorer significativement la qualité d’évaluation par le biais d’une reconstruction tridimensionnelle enrichie de l’objet à évaluer. En particulier, nous avons employé simultanément un système stéréoscopique de vision et un système à projection de lumière structurée afin de reconstruire les contours et les surfaces de différents objets 3D. / Producing industrially manufactured parts generates a very large number of data of various types defining the manufacturing geometries as well as the quality of production. This PhD work has been carried out within the framework of the realization of a cognitive vision system dedicated to the 3D evaluation of manufactured objects including possibly free form surfaces, taking into account the geometric tolerances and uncertainties. This system allows the comprehensive control of manufactured parts, and provides the means for their automated 3D dimensional inspection. The implementation of a multi-sensor (passive and active) measuring system enabled to improve significantly the assessment quality through an enriched three-dimensional reconstruction of the object to be evaluated. Specifically, we made use simultaneously of a stereoscopic vision system and of a structured light based system in order to reconstruct the edges and surfaces of various 3D objects.
652

Automatic localization of endoscope in intraoperative CT image : a simple approach to augmented reality guidance in laparoscopic surgery / Localisation automatique de l'endoscope dans une image CT intraopératoire : une approche simple du guidage par réalité augmentée en chirurgie laparoscopique

Bernhardt, Sylvain 25 February 2016 (has links)
Au cours des dernières décennies, la chirurgie mini invasive a progressivement gagné en popularité face à la chirurgie ouverte, grâce à de meilleurs bénéfices cliniques. Cependant, ce type d'intervention introduit une perte de vision directe sur la scène pour le chirurgien. L'introduction de la réalité augmentée en chirurgie mini invasive semble être une solution viable afin de remédier à ce problème et a donc été activement considérée par la recherche. Néanmoins, augmenter correctement une scène laparoscopique reste difficile à cause de la non-rigidité des tissus et organes abdominaux. En conséquence, la littérature ne fournit pas d'approche satisfaisante à la réalité augmentée en laparoscopie, car de telles méthodes manquent de précision ou requièrent un équipement supplémentaire, contraignant et onéreux. Dans ce contexte, nous présentons un nouveau paradigme à la réalité augmentée en chirurgie laparoscopique. Se reposant uniquement sur l'équipement standard d'une salle opératoire hybride, notre approche peut fournir la relation statique entre l'endoscope et un scan intraopératoire 3D. De nombreuses expériences sur un motif radio-opaque montrent quantitativement que nos augmentations sont exactes à moins d'un millimètre près. Des tests sur des données in vivo consolident la démonstration du potentiel clinique de notre approche dans plusieurs cas chirurgicaux réalistes. / Over the past decades, minimally invasive surgery has progressively become more popular than open surgery thanks to greater clinical benefits. However, this kind of intervention introduced a loss of direct vision upon the scene for the surgeon. Introducing augmented reality to minimally invasive surgery appears to be a viable solution to alleviate this drawback and has thus been an attractive topic for the research community. Yet, correctly augmenting a laparoscopic scene remains challenging, due to the non-rigidity of abdominal tissues and organs. Therefore, the literature does not report a satisfactory approach to laparoscopic augmented reality, as such methods lack accuracy or require expensive and impractical additional equipment. In light of this, we present a novel paradigm to augmented reality in abdominal minimally invasive surgery. Based only on standard hybrid operating room equipment, our approach can provide the static relationship between the endoscope and an intraoperative 3D scan. Extensive experiments on a radio-opaque pattern quantitatively show that the accuracy of our augmentations is less than one millimeter. Tests on in vivo data further demonstrates the clinical potential of our approach in several realistic surgical cases.
653

Registrace kandidátů na úřad prezidenta republiky / "Registration of Candidates for the Office of the President of the Czech Republic".

Vodehnal, Ondřej January 2015 (has links)
Zusammenfassung Die Diplomarbeit beschäftigt sich mit der Problematik der Nomination und Registration der Kandidaten für die tschechische Präsidentenwahl. Im Jahre 2012 genehmigte das Parlament eine Änderung der Verfassung, die die Wahl des tschechischen Präsidenten auf die direkte Wahl änderte. Im Zusammenhang damit kamen viele Fragen über die Nomination und Registration der Kandidaten für die Funktion des Präsidenten. Diese Fragen musste man nicht lösen, weil das Recht auf die Nomination des Kandidaten neu die Bürger bekamen, die eine Petition mit den Unterschriften mindestens 50.000 Bürger mit dem Wahlrecht vorlegen. Die Diplomarbeit bemüht sich diese Probleme zu analysieren und ihre Lösung vorzuschlagen. Nach dem Einführungsteil über die Geschichte der Anträge auf die direkte Wahl im tschechischen Verfassungssystem und nach der Rekapitulation der anderen Rechtsvorschriften, laut den man in einigen Fällen (Kandidatur der unabhängigen Kandidaten in den Komunal- oder Senatwahlen, bzw. Gründung einer neuen politischen Partei) eine Petition mit einer bestimmten Anzahl der Unterschriften vorlegen muss, folgt gerade dieser analytischer Anteil. In dieser Diplomarbeit beschäftigt sich der Autor z.B. damit, auf welche Art und Weise bei der ersten tschechischen Präsidentenwahl das Innenministerium die...
654

The three-dimensional normal-distributions transform : an efficient representation for registration, surface analysis, and loop detection

Magnusson, Martin January 2009 (has links)
This dissertation is concerned with three-dimensional (3D) sensing and 3D scan representation. Three-dimensional records are important tools in several disciplines; such as medical imaging, archaeology, and mobile robotics. This dissertation proposes the normal-distributions transform, NDT, as a general 3D surface representation with applications in scan registration, localisation, loop detection, and surface-structure analysis. After applying NDT, the surface is represented by a smooth function with analytic derivatives. This representation has several attractive properties. The smooth function representation makes it possible to use standard numerical optimisation methods, such as Newton’s method, for 3D registration. This dissertation extends the original two-dimensional NDT registration algorithm of Biber and Straßer to 3D and introduces a number of improvements. The 3D-NDT scan-registration algorithm is compared to current de facto standard registration algorithms. 3D-NDT scan registration with the proposed extensions is shown to be more robust, more accurate, and faster than the popular ICP algorithm. An additional benefit is that 3D-NDT registration provides a confidence measure of the result with little additional effort. Furthermore, a kernel-based extension to 3D-NDT for registering coloured data is proposed. Approaches based on local visual features typically use only a small fraction of the available 3D points for registration. In contrast, Colour-NDT uses all of the available 3D data. The dissertation proposes to use a combination of local visual features and Colour-NDT for robust registration of coloured 3D scans. Also building on NDT, a novel approach using 3D laser scans to perform appearance-based loop detection for mobile robots is proposed. Loop detection is an importantproblem in the SLAM (simultaneous localisation and mapping) domain. The proposed approach uses only the appearance of 3D point clouds to detect loops and requires nopose information. It exploits the NDT surface representation to create histograms based on local surface orientation and smoothness. The surface-shape histograms compress the input data by two to three orders of magnitude. Because of the high compression rate, the histograms can be matched efficiently to compare the appearance of two scans. Rotation invariance is achieved by aligning scans with respect to dominant surface orientations. In order to automatically determine the threshold that separates scans at loop closures from nonoverlapping ones, the proposed approach uses expectation maximisation to fit a Gamma mixture model to the output similarity measures. In order to enable more high-level tasks, it is desirable to extract semantic information from 3D models. One important task where such 3D surface analysis is useful is boulder detection for mining vehicles. This dissertation presents a method, also inspired by NDT, that provides clues as to where the pile is, where the bucket should be placed for loading, and where there are obstacles. The points of 3D point clouds are classified based on the surrounding surface roughness and orientation. Other potential applications include extraction of drivable paths over uneven surfaces.
655

Blur invariant pattern recognition and registration in the Fourier domain

Ojansivu, V. (Ville) 13 October 2009 (has links)
Abstract Pattern recognition and registration are integral elements of computer vision, which considers image patterns. This thesis presents novel blur, and combined blur and geometric invariant features for pattern recognition and registration related to images. These global or local features are based on the Fourier transform phase, and are invariant or insensitive to image blurring with a centrally symmetric point spread function which can result, for example, from linear motion or out of focus. The global features are based on the even powers of the phase-only discrete Fourier spectrum or bispectrum of an image and are invariant to centrally symmetric blur. These global features are used for object recognition and image registration. The features are extended for geometrical invariances up to similarity transformation: shift invariance is obtained using bispectrum, and rotation-scale invariance using log-polar mapping of bispectrum slices. Affine invariance can be achieved as well using rotated sets of the log-log mapped bispectrum slices. The novel invariants are shown to be more robust to additive noise than the earlier blur, and combined blur and geometric invariants based on image moments. The local features are computed using the short term Fourier transform in local windows around the points of interest. Only the lowest horizontal, vertical, and diagonal frequency coefficients are used, the phase of which is insensitive to centrally symmetric blur. The phases of these four frequency coefficients are quantized and used to form a descriptor code for the local region. When these local descriptors are used for texture classification, they are computed for every pixel, and added up to a histogram which describes the local pattern. There are no earlier textures features which have been claimed to be invariant to blur. The proposed descriptors were superior in the classification of blurred textures compared to a few non-blur invariant state of the art texture classification methods.
656

Modèles statistiques réduits de la croissance cardiaque, du mouvement et de la circulation sanguine : application à la tétralogie de Fallot / Reduced-order statistical models of cardiac growth, motion and blood flow : application to the tetralogy of Fallot heart

Mcleod, Kristin 08 November 2013 (has links)
Cette thèse présente les travaux réalisés en vue de l’élaboration d’un modèle cardiaque associant croissance, mouvement et circulation sanguine pour permettre ensuite la construction d’un modèle patient à partir d’un modèle de population. Le premier axe de ce travail est la simulation de la croissance bi-ventriculaire. Un modèle existant de surface unique, calculé à l’aide de méthodes statistiques, a été généralisé à un modèle bi-ventriculaire puis appliqué à la tétralogie de Fallot (ToF). Le deuxième axe concerne la modélisation du mouvement cardiaque au niveau de la population. Un modèle d’ordre réduit basé sur un modèle Polyaffine et LogDemons a été proposé. Il simule la dynamique cardiaque avec peu de paramètres. Les paramètres de transformation sont analysés par des méthodes statistiques. Un modèle de mouvement moyen a été calculé pour représenter le mouvement standard de la population. Le troisième axe s'intéresse à la simulation de l’écoulement sanguin à l’échelle de la population. La complexité des simulations spécifiques à un patient a été réduite grâce à l’utilisation de méthodes d’analyse d’image, de dynamique des fluides numérique et de réduction d’ordre de modèle. La simulation du flux sanguin dans l’artère pulmonaire pour des patients ToF a permis de mieux comprendre l’impact du sang régurgité sur la pression et la vitesse. Étant donné nos contributions sur ces trois axes, nous sommes maintenant en bonne position pour élaborer le modèle couplé des contributions interdépendantes de la croissance, du mouvement et de l'écoulement sanguin. Ce modèle pourrait être utilisé afin d'aider la planification de la thérapie chez les patients atteints de maladies cardiaques. / This thesis presents work towards a coupled model of cardiac growth, motion, and blood flow to enable predictive patient-specific models to be built from a population-based model. The first axis of this work is to simulate bi-ventricular growth through aging. A previously proposed single surface model computed using statistical methods was extended to a bi-ventricular model and applied to Tetralogy of Fallot patients to model the complex evolution of the ventricles due to the pathology. The second axis concerns the development of a model to simulate cardiac motion at a population level. A reduced-order cardiac-specific motion model was proposed to simulate the motion dynamics with a small number of parameters using a Polyaffine and LogDemons based model. From the computed transformations, the parameters were analysed using statistical methods to obtain population-based measures of normality. A mean motion model was derived to represent the normal motion for a given population. The third axis is to develop a model of population-based flow dynamics. The complexity of patient-specific simulations was reduced by combining image analysis, computational fluid dynamics and model order reduction techniques. Blood flow through the pulmonary artery in Tetralogy of Fallot patients was simulated to better understand the impact of regurgitated blood on pressure and velocity. Given our contributions on these three axes, we are now in a good position to couple the models in order to capture the interrelated contributions of growth, motion and flow. Such a model could be used to aid in therapy planning and decision making for patients with heart disease.
657

Génération d'images 3D HDR / Generation of 3D HDR images

Bonnard, Jennifer 11 December 2015 (has links)
L’imagerie HDR et l’imagerie 3D sont deux domaines dont l’évolution simultanée mais indépendante n’a cessé de croître ces dernières années. D’une part, l’imagerie HDR (High Dynamic Range) permet d’étendre la gamme dynamique de couleur des images conventionnelles dites LDR (Low Dynamic Range). D’autre part, l’imagerie 3D propose une immersion dans le film projeté avec cette impression de faire partie de la scène tournée. Depuis peu, ces deux domaines sont conjugués pour proposer des images ou vidéos 3D HDR mais peu de solutions viables existent et aucune n’est accessible au grand public. Dans ce travail de thèse, nous proposons une méthode de génération d’images 3D HDR pour une visualisation sur écrans autostéréoscopiques en adaptant une caméra multi-points de vue à l’acquisition d’expositions multiples. Pour cela, des filtres à densité neutre sont fixés sur les objectifs de la caméra. Ensuite, un appareillement des pixels homologues permet l’agrégation des pixels représentant le même point dans la scène acquise. Finalement, l’attribution d’une valeur de radiance est calculée pour chaque pixel du jeud’images considéré par moyenne pondérée des valeurs LDR des pixels homologues. Une étape supplémentaire est nécessaire car certains pixels ont une radiance erronée. Nous proposons une méthode basée surla couleur des pixels voisins puis deux méthodes basées sur la correction de la disparité des pixels dontla radiance est erronée. La première est basée sur la disparité des pixels du voisinage et la seconde sur la disparité calculée indépendamment sur chaque composante couleur. Ce pipeline permet la générationd’une image HDR par point de vue. Un algorithme de tone-mapping est ensuite appliqué à chacune d’elles afin qu’elles puissent être composées avec les filtres correspondants à l’écran autostéréoscopique considéré pour permettre la visualisation de l’image 3D HDR. / HDR imaging and 3D imaging are two areas in which the simultaneous but separate development has been growing in recent years. On the one hand, HDR (High Dynamic Range) imaging allows to extend the dynamic range of traditionnal images called LDR (Low Dynamic Range). On the other hand, 3Dimaging offers immersion in the shown film with the feeling to be part of the acquired scene. Recently, these two areas have been combined to provide 3D HDR images or videos but few viable solutions existand none of them is available to the public. In this thesis, we propose a method to generate 3D HDR images for autostereoscopic displays by adapting a multi-viewpoints camera to several exposures acquisition.To do that, neutral density filters are fixed on the objectives of the camera. Then, pixel matchingis applied to aggregate pixels that represent the same point in the acquired scene. Finally, radiance is calculated for each pixel of the set of images by using a weighted average of LDR values. An additiona lstep is necessary because some pixels have wrong radiance. We proposed a method based on the color of adjacent pixels and two methods based on the correction of the disparity of those pixels. The first method is based on the disparity of pixels of the neighborhood and the second method on the disparity independently calculated on each color channel. This pipeline allows the generation of 3D HDR image son each viewpoint. A tone-mapping algorithm is then applied on each of these images. Their composition with filters corresponding to the autostereoscopic screen used allows the visualization of the generated 3DHDR image.
658

Autoradiographie quantitative d'échantillons prélevés par biopsie guidée par TEP/TDM : méthode et applications cliniques / Quantitative autoradiography of biopsy specimens obtained under PET/CT guidance : method development and clinical applications

Fanchon, Louise 24 March 2016 (has links)
Au cours des dix dernières années, l’utilisation de l’imagerie par tomographie par émission de positrons (TEP) s’est rapidement développée en oncologie. Certaines tumeurs non visibles en imagerie anatomique conventionnelle sont détectables en mesurant l'activité métabolique dans le corps humain par TEP. L’imagerie TEP est utilisée pour guider la délivrance de traitements locaux tels que par rayonnement ionisants ou ablation thermique. Pour la délivrance de ces traitements, segmenter la zone tumorale avec précision est primordial. Cependant, la faible résolution spatiale des images TEP rend la segmentation difficile. Plusieurs études ont démontré que la segmentation manuelle est sujette à une grande variabilité inter- et intra- individuelle et est fastidieuse. Pour ces raisons, de nombreux algorithmes de segmentation automatiques ont été développés. Cependant, peu de données fiables, avec des résultats histopathologiques existent pour valider ces algorithmes car il est expérimentalement difficile de les produire. Le travail méthodologique mis en place durant cette thèse a eu pour but de développer une méthode permettant de comparer les données histopathologiques aux données obtenue par TEP pour tester et valider des algorithmes de segmentation automatiques. Cette méthode consiste à réaliser des autoradiographies quantitatives de spécimens prélevés lors de biopsies guidées par TEP/tomodensitométrie (TDM); l’autoradiographie permettant d’imager la distribution du radiotraceur dans les échantillons avec une haute résolution spatiale. Les échantillons de tissus sont ensuite finement tranchés pour pouvoir être étudiés à l’aide d’un microscope. L’autoradiographie et les photomicrographes de l’échantillon de tissus sont ensuite recalés à l’image TEP, premièrement en les alignant avec l’aiguille à biopsie visible sur l’image TDM, puis en les transférant sur l’image TEP. Nous avons ensuite cherché à utiliser ces données pour tester deux algorithmes de segmentation automatique d'images TEP, le Fuzzy Locally Adaptive Bayesian (FLAB) développé au Laboratoire de Traitement de l'Information Médicale (LaTIM) à Brest, ainsi qu’une méthode de segmentation par seuillage. Cependant, la qualité de ces données repose sur la précision du recalage des images TEP, autoradiographiques et des micrographes. La principale source d’erreur dans le recalage de ces images venant de la fusion des images TEP/TDM, une méthode a été développée afin de quantifier la précision du recalage. Les résultats obtenus pour les patients inclus dans cette étude montrent que la précision de la fusion varie de 1.1 à 10.9 mm. En se basant sur ces résultats, les données ont été triées, pour finalement sélectionner les données acquises sur 4 patients jugées satisfaisantes pour tester les algorithmes de segmentation. Les résultats montrent qu’au point de la biopsie, les contours obtenus avec FLAB concordent davantage avec le bord de la lésion observé sur les micrographes. Cependant les deux méthodes de segmentation donnent des contours similaires, les lésions étant peu hétérogènes. / During the last decade, positron emission tomography (PET) has been finding broader application in oncology. Some tumors that are non-visible in standard anatomic imaging like computerized tomography (CT) or ultrasounds, can be detected by measuring in 3D the metabolic activity of the body, using PET imaging. PET images can also be used to deliver localized therapy like radiation therapy or ablation. In order to deliver localized therapy, the tumor border has to be delineated with very high accuracy. However, the poor spatial resolution of PET images makes the segmentation challenging. Studies have shown that manual segmentation introduces a large inter- and intra- variability, and is very time consuming. For these reasons, many automatic segmentation algorithms have been developed. However, few datasets with histopathological information are available to test and validate these algorithms since it is experimentally difficult to produce them. The aim of the method developed was to evaluate PET segmentation algorithms against the underlying histopathology. This method consists in acquiring quantitative autoradiography of biopsy specimen extracted under PET/CT guidance. The autoradiography allows imaging the radiotracer distribution in the biopsy specimen with a very high spatial accuracy. Histopathological sections of the specimen can then obtained and observed under the microscope. The autoradiography and the micrograph of the histological sections can then be registered with the PET image, by aligning them first with the biopsy needle seen on the CT image and then transferring them onto the PET image. The next step was to use this dataset to test two PET automatic segmentation algorithms: the Fuzzy Locally Adaptive Bayesian (FLAB) developed at the Laboratory of Medical Information Processing (LaTIM) in Brest, France, as well as a fix threshold segmentation method. However, the reliability of the dataset produced depends on the accuracy of the registration of the PET, autoradiography and micrograph images. The main source of uncertainty in the registration of these images comes from the registration between the CT and the PET. In order to evaluate the accuracy of the registration, a method was developed. The results obtained with this method showed that the registration error ranges from 1.1 to 10.9mm. Based on those results, the dataset obtained from 4 patients was judged satisfying to test the segmentation algorithms. The comparison of the contours obtained with FLAB and with the fixed threshold method shows that at the point of biopsy, the FLAB contour is closer than that to the histopathology contour. However, the two segmentation methods give similar contours, because the lesions were homogeneous.
659

Hereditary colorectal cancer : registration, screening and prognostic biomarker analysis

Barrow, Paul January 2015 (has links)
Aims: The purpose of the research was to investigate the benefits of a hereditary colorectal cancer registry in the management of patients and families with Lynch syndrome. In study one, a systematic review was performed to quantify the impact of registration and screening on colorectal cancer (CRC) incidence and mortality, with comparison between familial adenomatous polyposis (FAP) and Lynch syndrome (LS). In study two, a regional Lynch syndrome registry was utilised to evaluate the uptake of predictive testing and colorectal screening among first-degree relatives (FDRs) and investigate novel methods for engaging at-risk relatives, including an enhanced role for the general practitioner (GP). In study three, the registry was used to investigate proposed associations between Lynch syndrome and prostate and bladder cancer. In study four, mismatch repair-deficient (dMMR) CRCs from Lynch syndrome patients and randomised-controlled trials (RCTs) were used to evaluate a novel prognostic biomarker, beta-2 microglobulin (B2M). Methods: An electronic database search was conducted to identify studies describing CRC incidence and/or mortality in FAP or LS, with comparison of either: 1) screened and unscreened patients or 2) patients ‘before and after’ establishment of the registry. Using the Manchester regional Lynch syndrome registry database, the uptake of predictive testing and colorectal screening among FDRs was assessed with Kaplan-Meier analysis. Novel strategies for improving engagement were explored via a patient advisory group discussion and a regional primary care questionnaire. Cases of prostate and bladder cancer in male mutation carriers and their male FDRs were identified, and cumulative and relative risks were calculated, using expected rates from cancer registry data. DNA from 350 dMMR CRC specimens from Lynch syndrome patients and RCTs were tested for B2M mutations using Sanger sequencing, and correlated with clinical outcome. Results: 43 studies were included in the systematic review (33 FAP; 10 Lynch). Registry-based screening was associated with a significant reduction in CRC incidence and in Lynch syndrome, CRC-related mortality was negligible in those undergoing surveillance. 242 Lynch syndrome families were recorded on the Manchester Lynch syndrome registry. 329 of 591 (55.7%) eligible FDRs had undergone predictive testing. Uptake was significantly lower in males and younger age groups (<25 yrs). Compliance with colorectal screening was excellent following a mutation positive predictive test but poor in untested individuals (97.3% vs 35.0%). Eight prostate cancers were identified in 821 male LS mutation carriers and male FDRs. MSH2 mutation carriers had a ten-fold increased risk of prostate cancer (RR 10.41; 95%CI 2.80, 26.65) but no association with bladder cancer was identified. 69/286 (24.1%) of dMMR CRCs contained significant B2M mutations. B2M mutations were associated with complete absence of recurrence (0/39) during follow-up in the QUASAR trial (stage II), compared with 14/77 (18.2%) in wild-type B2M (p=0.005). Conclusion: Studies consistently report that registration and screening result in a reduction of CRC incidence and mortality in FAP and LS (Level 2a evidence, Grade B recommendation). Funding and managerial support for registries should be made available. Uptake of predictive testing and colorectal screening in Lynch syndrome could be substantially improved, particularly among males and younger age groups, but this requires advances in communication with at-risk relatives. It is unlikely that GPs will actively participate without considerable support from genetics services. A trial of PSA screening in MSH2 mutation carriers from 50 years would be appropriate. B2M mutation status has potential clinical utility as a prognostic biomarker in stage II dMMR CRC.
660

Diffusion MRI processing for multi-comportment characterization of brain pathology / Caractérisation de pathologies cérébrales par l’analyse de modèles multi-compartiment en IRM de diffusion

Hédouin, Renaud 12 June 2017 (has links)
L'imagerie pondérée en diffusion est un type d'acquisition IRM spécifique basé sur la direction de diffusion des molécules d'eau dans le cerveau. Cela permet, au moyen de plusieurs acquisitions, de modéliser la microstructure du cerveau, comme la matière blanche qui à une taille très inférieur à la résolution du voxel. L'obtention d'un grand nombre d'images nécessite, pour un usage clinique, des techniques d'acquisition ultra rapide tel que l'imagerie parallèle. Malheureusement, ces images sont entachées de large distorsions. Nous proposons une méthode de recalage par blocs basée sur l'acquisition d'images avec des directions de phase d'encodage opposées. Cette technique spécialement conçue pour des images écho planaires, mais qui peut être générique, corrige les images de façon robuste tout en fournissant un champs de déformation. Cette transformation est applicable à une série entière d'image de diffusion à partir d'une seule image b 0 renversée, ce qui permet de faire de la correction de distorsion avec un temps d'acquisition supplémentaire minimal. Cet algorithme de recalage, qui a été validé à la fois sur des données synthétiques et cliniques, est disponible avec notre programme de traitement d'images Anima. A partir de ces images de diffusion, nous sommes capable de construire des modèles de diffusion multi-compartiment qui représentent la microstructure complexe du cerveau. Pour pouvoir produire des analyses statistiques sur ces modèles, nous devons être capable de faire du recalage, du moyennage, ou encore de créer un atlas d'images. Nous proposons une méthode générale pour interpoler des modèles multi-compartiment comme un problème de simplification basé sur le partitionnement spectral. Cette technique qui est adaptable pour n'importe quel modèle, a été validé à la fois sur des données synthétiques et réelles. Ensuite à partir d'une base de données recalée, nous faisons des analyses statistiques en extrayant des paramètres au niveau du voxel. Une tractographie, spécifiquement conçue pour les modèles multi-compartiment, est aussi utilisée pour faire des analyses en suivant les fibres de matière blanche. Ces outils sont conçus et appliqués à des données réelles pour contribuer à la recherche de biomarqueurs pour les pathologies cérébrales. / Diffusion weighted imaging (DWI) is a specific type of MRI acquisition based on the direction of diffusion of the brain water molecule. Its allow, through several acquisitions, to model brain microstructure, as white matter, which are significantly smaller than the voxel-resolution. To acquire a large number of images in a clinical use, very-fast acquisition technique are required as single-shot imaging, however these acquisitions suffer local large distortions. We propose a Block-Matching registration method based on a the acquisition of images with opposite phase-encoding directions (PED). This technique specially designs for Echo-Planar Images (EPI), but which could be generic, robustly correct images and provide a deformation field. This field is applicable to an entire DWI series from only one reversed b 0 allowing distortion correction with a minimal time acquisition cost. This registration algorithm has been validated both on a phantom data set and on in-vivo data and is available in our source medical image processing toolbox Anima. From these diffusion images, we are able to construct multi-compartments models (MCM) which could represented complex brain microstructure. We need to do registration, average, create atlas on these MCM to be able to make studies and produce statistic analysis. We propose a general method to interpolate MCM as a simplification problem based on spectral clustering. This technique, which is adaptable for any MCM, has been validated for both synthetic and real data. Then, from a registered dataset, we made analysis at a voxel-level doing statistic on MCM parameters. Specifically design tractography can also be perform to make analysis, following tracks, based on individual compartment. All these tools are designed and used on real data and contribute to the search of biomakers for brain diseases.

Page generated in 0.1441 seconds