• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 16
  • 16
  • 7
  • 5
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Caractérisation et exploitation de l'hétérogénéité intra-tumorale des images multimodales TDM et TEP / Quantization and exploitation of intra-tumoral heterogeneity on PET and CT images

Desseroit, Marie-Charlotte 21 December 2016 (has links)
L’imagerie multi-modale Tomographie par émission de positons (TEP)/ Tomodensitométrie(TDM) est la modalité d’imagerie la plus utilisée pour le diagnostic et le suivi des patients en oncologie. Les images obtenues par cette méthode offrent une cartographie à la fois de la densité des tissus (modalité TDM) mais également une information sur l’activité métabolique des lésions tumorales (modalité TEP). L’analyse plus approfondie de ces images acquises en routine clinique a permis d’extraire des informations supplémentaires quant à la survie du patient ou à la réponse au(x) traitement(s). Toutes ces nouvelles données permettent de décrire le phénotype d’une lésion de façon non invasive et sont regroupées sous le terme de Radiomics. Cependant, le nombre de paramètres caractérisant la forme ou la texture des lésions n’a cessé d’augmenter ces dernières années et ces données peuvent être sensibles à la méthode d’extraction ou encore à la modalité d’imagerie employée. Pour ces travaux de thèse, la variabilité de ces caractéristiques a donc été évaluée sur les images TDM et TEP à l’aide d’une cohorte test-retest : pour chaque patient, deux examens effectués dans les mêmes conditions, espacés d’un intervalle de l’ordre de quelques jours sont disponibles. Les métriques reconnues comme fiables à la suite de cette analyse sont exploitées pour l’étude de la survie des patients dans le cadre du cancer du poumon. La construction d’un modèle pronostique à l’aide de ces métriques a permis, dans un premier temps, d’étudier la complémentarité des informations fournies par les deux modalités. Ce nomogramme a cependant été généré par simple addition des facteurs de risque. Dans un second temps, les mêmes données ont été exploitées afin de construire un modèle pronostique à l’aide d’une méthode d’apprentissage reconnue comme robuste : les machines à vecteurs de support ou SVM (support vector machine). Les modèles ainsi générés ont ensuite été testés sur une cohorte prospective en cours de recrutement afin d’obtenir des résultats préliminaires sur la robustesse de ces nomogrammes. / Positron emission tomography (PET) / Computed tomography (CT) multi-modality imaging is the most commonly used imaging technique to diagnose and monitor patients in oncology. PET/CT images provide a global tissue density description (CT images) and a characterization of tumor metabolic activity (PET images). Further analysis of those images acquired in clinical routine supplied additional data as regards patient survival or treatment response. All those new data allow to describe the tumor phenotype and are generally grouped under the generic name of Radiomics. Nevertheless, the number of shape descriptors and texture features characterising tumors have significantly increased in recent years and those parameters can be sensitive to exctraction method or whether to imaging modality. During this thesis, parameters variability, computed on PET and CT images, was assessed thanks to a test-retest cohort : for each patient, two groups of PET/CT images, acquired under the same conditions but generated with an interval of few minutes, were available. Parameters classified as reliable after this analysis were exploited for survival analysis of patients in the context of non-small cell lug cancer (NSCLC).The construction of a prognostic model with those metrics permitted first to study the complementarity of PET and CT texture features. However, this nomogram has been generated by simply adding risk factors and not with a robust multi-parametric analysis method. In the second part, the same data were exploited to build a prognostic model using support vector machine (SVM) algorithm. The models thus generated were then tested on a prospective cohort currently being recruited to obtain preliminary results as regards the robustness of those nomograms.
12

Validierung einer neuen Software für halbautomatische Volumetrie – ist diese besser als manuelle Messungen?

Noschinski, Leonie 19 July 2016 (has links)
This study compared a manual program for liver volumetry with a semiautomated software. The hypothesis was that the software would be faster, more accurate and less dependent on the evaluator’s experience. Materials and Methods: Ten patients undergoing hemihepatectomy were included into this IRB approved study after written informed consent. All patients underwent a preoperative abdominal CTScan, which was used for whole liver volumetry and volume prediction for the liver part to be resected. Two different softwares were used: 1) manual method: borders of the liver had to be defined per slice by the user; 2) semiautomated software: automatic identification of liver volume with manual assistance for definition of Couinaud-segments. Measurements were done by six observers with different experience levels. Water displacement volumetry immediately after partial liver resection served as gold standard. The resected part was examined with a CT-scan after displacement volumetry. Results: Volumetry of the resected liver scan showed excellent correlations to water displacement volumetry (manual: ρ=0.997; semiautomated software: ρ=0.995). Difference between the predicted volume and the real volume was significantly smaller with the semiautomated software than with the manual method (33 % vs. 57 %, p=0.002). The semiautomated software was almost four times faster for volumetry of the whole liver. Conclusion: Both methods for liver volumetry give an estimated liver volume close to the real one. The tested semiautomated software is faster, more accurate in predicting the volume of the resected liver part, gives more reproducible results and is less dependent on the user’s experience. / Ziel dieser Studie war es, eine manuelle Methode zur Lebervolumetrie mit einer halbautomatischen Software zu vergleichen. Die zu prüfende Hypothese war eine Überlegenheit der halbautomatischen Software hinsichtlich Schnelligkeit, Genauigkeit und Unabhängigkeit von der Erfahrung des Auswerters. Material und Methoden: Die Studie wurde von der Ethikkommission geprüft und es lagen Einverständniserklärungen aller Patienten vor. In die Studie wurden zehn Patienten eingeschlossen, die eine Hemihepatektomie erhielten. Es wurde präoperativ ein CT-Scan angefertigt, der sowohl für die Volumetrie der gesamten Leber als auch zur Bestimmung des Resektatvolumens verwendet wurde. Für die Volumetrie wurden zwei verschiedene Programme genutzt: 1) eine manuelle Methode, wobei die Lebergrenzen in jeder Schicht vom Auswerter definiert werden mussten 2) eine halbautomatische Software mit automatischer Erkennung des Lebervolumens und manueller Definition der Lebersegmente nach Coinaud. Die Messungen wurden von sechs Auswertern mit unterschiedlicher Erfahrung vorgenommen. Als Goldstandard diente eine Verdrängungsvolumetrie des Leberresektats, die direkt nach der Resektion im Operationssaal durchgeführt wurde. Anschließend wurde zusätzlich ein CT-Scan des Resektats angefertigt. Ergebnisse: Die Ergebnisse des postoperativen CT-Scans korrelierten hochgradig mit den Ergebnissen der Verdrängungsvolumetrie (manuell: ρ=0.997; halbautomatische Software: ρ=0.995). Mit der halbautomatischen Software fielen die Unterschiede zwischen dem vorhergesagten und dem tatsächlichen Volumen signifikant kleiner aus (33 % vs. 57 %, p=0.002). Zudem lieferte die halbautomatische Software die Volumina der Gesamtleber 3.9mal schneller. Schlussfolgerung: Beide Methoden erlauben eine sehr gute Abschätzung des Lebervolumens. Die getestete halbautomatische Software kann das Lebervolumen jedoch schneller und das Resektatvolumen genauer vorhersagen und ist zusätzlich unabhängiger von der Erfahrung des Auswerters.
13

Simulation d’un accélérateur linéaire d’électrons à l’aide du code Monte-Carlo PENELOPE : métrologie des traitements stéréotaxiques par cônes et évaluation de l’algorithme eMC / Simulation of a linear accelerator with PENELOPE Monte Carlo code : stereotactic treatments metrology by cones and eMC algorithm assessment

Garnier, Nicolas 19 December 2018 (has links)
L’accélérateur linéaire d’électrons du Centre Hospitalier Princesse Grace a été simulé à l’aide du code Monte-Carlo PenEasy. Après avoir validé l’ensemble des techniques permettant d’accélérer le temps de calcul (réduction de variance, parallélisation, …), les caractéristiques des faisceaux initiaux d’électrons ont été déterminées pour une énergie photons et quatre énergies électrons afin d’étudier deux problématiques cliniques. La première concerne l’étude comparative des réponses de huit dosimètres pour la mesure des données de base en mini-faisceaux à l’aide de cônes stéréotaxiques de diamètres compris entre 30 mm et 4 mm. Ces faisceaux de photons sont caractérisés par de forts gradients de dose et un manque important d’équilibre électronique latéral, ce qui rend les techniques dosimétriques conventionnelles inadaptées. Des mesures de facteurs d’ouverture collimateur (FOC), de profil de dose et de rendement en profondeur ont été réalisées avec sept détecteurs actifs (diodes, chambres d’ionisations et MicroDiamond) et un détecteur passif (film radiochromique) et comparées avec les résultats issus de la simulation Monte-Carlo considérée comme notre référence. Pour la mesure du FOC, seul le film radiochromique est en accord avec la simulation avec des écarts inférieurs à 1 %. La MicroDiamond semble être le meilleur détecteur actif avec un écart maximal de 3,7 % pour le cône de 5 mm. Concernant les mesures de profils de dose, les meilleurs résultats ont été obtenus avec le film radiochromique et les diodes blindées ou non (écart de pénombre inférieur à 0,2 mm). Pour les rendements en profondeur, l’ensemble des détecteurs utilisés sont satisfaisants (écart de dose absorbée inférieur à 1 %). La deuxième application concerne l’évaluation de l’algorithme de dépôt de dose électron eMC sur des coupes scanographiques. Pour cela, un programme de « voxélisation » sous MATLAB a été développé afin de transformer les nombres Hounsfield issus du scanner en propriété de matériau (densité et composition chimique) utilisable par le code Monte-Carlo PenEasy. Une triple comparaison entre la mesure avec films radiochromiques, le calcul avec l’algorithme eMC et la simulation Monte-Carlo PenEasy a été réalisée dans différentes configurations : des fantômes hétérogènes simples (superposition de plaques de différentes densités), un fantôme hétérogène complexe (fantôme anthropomorphique) et une comparaison sur patient. Les résultats ont montré qu’une mauvaise affectation d’un matériau du milieu provoque un écart de dose absorbée localement (jusqu’à 16 %) mais aussi en aval de la simulation du fait d’une mauvaise prise en compte de la modification du spectre électronique. La comparaison des distributions de dose absorbée sur le plan patient a montré un très bon accord entre les résultats issus de l’algorithme eMC et ceux obtenus avec le code PenEasy (écart < 3 %). / Using the PenEasy Monte-Carlo code was simulated the linear electron accelerator of Princess Grace Hospital Center. After the validation of all the techniques allowing to accelerate the calculation time (variance reduction technique, parallelization, etc.), the characteristics of the initial electron beams were determined for one photon energy and four electron energies in order to study two clinical issues. The first one concerns the comparative study of the responses of eight dosimeters for the measurement of basic data in small fields using stereotactic cones with a diameter between 30 mm to 4 mm. These photon beams are characterized by strong dose gradients and a significant lack of charged particule equilibrium, making conventional dosimetric techniques unsuitable. Output factor measurment (OF), dose profile and depth dose measurements were performed with seven active detectors (diodes, ionization chambers and MicroDiamond) and a passive detector (radiochromic film) and compared with the results from the Monte Carlo simulation considered as our reference. For the OF measurement, only the radiochromic film is in agreement with the simulation with difference less than 1%. The MicroDiamond seems to be the best active detector with a maximum gap of 3.7% for the 5 mm cone. Concerning the dose profile measurements, the best results were obtained with the radiochromic film and diodes shielded or not (penumbre difference of less than 0,2 mm). For depth dose, all the detectors used have good result (absorbed dose difference less than 1 %). The second application concerns the evaluation of the eMC electron deposition algorithm on CT slices. For this, a « voxelisation » program under MATLAB was developed to transform the Hounsfield numbers from the scanner to material property (density and chemical composition) usable by the PenEasy Monte-Carlo code. A triple comparison between measurement with radiochromic films, calculation with the eMC algorithm and Monte-Carlo PenEasy simulation was carried out in different configurations: simple heterogeneous phantom (superposition of plates of different densities), a complex heterogeneous phantom (anthropomorphic phantom) and a patient comparison. The results showed that a wrong material assignment of the medium causes a difference of dose absorbed locally (up to 16%) but also downstream the simulation due to a wrong taking into account of the modification of the electronic spectrum. The absorbed dose distribution comparison on the patient plane showed a very good agreement between the results from the eMC algorithm and those obtained with the PenEasy code (deviation < 3%).
14

[en] A NON-DETERMINISTIC PORE-THROAT NETWORK EXTRACTION FROM SKELETON BY THINNING ALGORITHM / [pt] EXTRAÇÃO DE REDE DE POROS E GARGANTAS NÃO-DETERMINÍSTICA A PARTIR DE ESQUELETO VIA ALGORITMO DE EROSÃO

TAMIRES PEREIRA PINTO DA SILVA 31 October 2023 (has links)
[pt] A microtomografia computadorizada de uma amostra de rocha possibilita uma caracterização do meio poroso e pode ser utilizada para estimar propriedades da rocha em macroescala, isto é, em escala de reservatório. Métodos baseados em mapas de distâncias e em algoritmos de erosão são as principais abordagens utilizadas para extração de uma rede de poros e gargantas a partir de imagens microtomográficas de rocha. Este trabalho propõe um método híbrido para a construção da rede, de modo que, durante o processo de modelagem na escala de poros, obtemos um esqueleto do espaço poroso por meio de um algoritmo de erosão e utilizamos um mapa de distâncias para construir uma rede de poros e gargantas. A determinação dos poros e gargantas a partir do esqueleto adota uma abordagem não-determinística possibilitando a geração de múltiplas redes com configurações distintas a partir de um mesmo esqueleto. Avaliamos a variabilidade dos cenários gerados e comparamos as estimativas para as propriedades petrofísicas com as obtidas pelo método de Bolas Máximas por meio dos resultados de uma simulação de fluxo monofásica na rede. / [en] Computerized microtomography of a rock sample enables a characterization of the porous medium and can be used to estimate rock properties at the macro-scale, i.e., reservoir-scale. Methods based on distance maps and thinning algorithms are the main approaches used for extracting a pore and throats network from microtomographic rock images. This paper proposes a hybrid method for constructing the network. So that during the pore-scale modeling process, we obtain a skeleton of the pore space by using a thinning algorithm and a distance map to build a network of pores and throats. The determination of pores and throats from the skeleton assumes a non-deterministic approach enabling the generation of multiple networks with distinct configurations from the same skeleton. We evaluate the variability of the generated scenarios and compare the estimates for the petrophysical properties with those obtained by the Maximum Ball Method through the results of a single-phase flow simulation on the network.
15

Biomechanická studie obličejového skeletu / Biomechanical studies of facial bone

Valášek, Jiří Unknown Date (has links)
Presented work deals with Biomechanical study of the facial skeleton. This work is focused on the fixation of the mandible after removal of a tumor from affected bone tissue. The aim of the work is to perform biomechanical study of the facial skeleton with subsequent detailed stress strain analysis of two mandible implants designed and manufactured for specific patients. The geometry model of mandible used for design of mandible implants and used for computational modelling has been obtained on the basis of CT data of two patients. A Theoretical-Clinical sub-study that deals with the comparison the CT data processing which is necessary for creating the model of geometry is a part of the thesis. Two models of mandible with applied mandible implant have been created for two specific patients with tumorous mandible bone tissue. Stress strain analysis has been performed for these two models. Results of the stress strain analysis of two models of mandibles with mandible implants are presented in the final chapters of the thesis. Findings of the biomechanical study have been published and applied in clinical practice.
16

Biomechanická studie obličejového skeletu / Biomechanical Studies of Facial Bone

Valášek, Jiří January 2016 (has links)
Presented work deals with Biomechanical study of the facial skeleton. This work is focused on the fixation of the mandible after removal of a tumor from affected bone tissue. The aim of the work is to perform biomechanical study of the facial skeleton with subsequent detailed stress strain analysis of two mandible implants designed and manufactured for specific patients. The geometry model of mandible used for design of mandible implants and used for computational modelling has been obtained on the basis of CT data of two patients. A Theoretical-Clinical sub-study that deals with the comparison the CT data processing which is necessary for creating the model of geometry is a part of the thesis. Two models of mandible with applied mandible implant have been created for two specific patients with tumorous mandible bone tissue. Stress strain analysis has been performed for these two models. Results of the stress strain analysis of two models of mandibles with mandible implants are presented in the final chapters of the thesis. Findings of the biomechanical study have been published and applied in clinical practice.

Page generated in 0.0261 seconds