• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 115
  • 17
  • 7
  • Tagged with
  • 142
  • 40
  • 32
  • 23
  • 20
  • 18
  • 15
  • 14
  • 14
  • 14
  • 14
  • 13
  • 12
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

L'utilisation du recalage déformable d'images CT sur CBCT dans le but de générer des contours du jour et d'améliorer le cumul de dose avec image du jour

Fillion, Olivier 24 April 2018 (has links)
Ce projet de maitrise concerne l'utilisation du recalage déformable pour la déformation des contours et la déformation des distributions de dose. Son but est d'étudier la possibilité de générer automatiquement des contours du jour par recalage déformable et de proposer une nouvelle méthode pour cumuler les doses sur l'ensemble d'un traitement de radiothérapie. La méthode consiste à recaler l'image CT, qui permet de faire des calculs de dose, sur l'image CBCT, qui montre l'anatomie du jour, dans le but d'améliorer les suivis de patients. Pour évaluer la possibilité d'utiliser cette méthode, le projet est divisé en trois parties, centrées autour de cas de cancer de la prostate. Premièrement, on caractérise les recalages déformables provenant du logiciel Elastix en utilisant les images d'un fantôme anthropomorphique. Les calculs de dose sur ces images montrent que la méthode permettrait de calculer précisément des doses sur image du jour. Deuxièmement, on quantifie la précision de la déformation de contours avec le logiciel OnQ rts. La précision est évaluée en comparant les contours recalés aux contours tracés manuellement à l'aide de métriques de similarité. Cette étude montre que les contours produits par recalage déformable doivent être corrigés par la suite pour améliorer leur précision. De plus, la combinaison de l'indice d'inclusivité et des contours comme la prostate et le contour externe du corps permettent d'évaluer avec le plus de précision les déformations anatomiques. Troisièmement, on démontre la faisabilité de déformer les doses du jour de manière à les cumuler à l'aide du logiciel Elastix. Le principal défi pour bien déterminer les écarts de dose en clinique serait de bien caractériser la précision des recalages des organes à risque, puisqu'ils sont situés près des régions de haut gradient de dose. Dans le futur, cette technique pourrait être utilisée si la qualité des recalages est bien contrôlée.
22

Développement d'un outil de simulation par Monte Carlo du rayonnement diffusé en tomodensitométrie

Saucier, Marie Annie 25 September 2018 (has links)
L’objectif de ce projet est de créer un programme logiciel permettant de corriger le rayonnement diffusé dans une acquisition tomodensitométrique à géométrie conique. Pour ce faire, une simulation Monte Carlo est utilisée pour estimer le rayonnement diffusé, ce qui consiste à reproduire numériquement un examen en tomodensitométrie. Ce projet a été divisé en deux sections : la validation de la physique pour ce programme spécifique et le développement logiciel du programme. La validation consistait à reproduire les résultats obtenus avec Geant4 avec GPUMCD. Geant4, la plateforme de référence, et GPUMCD, la plateforme à l’étude, sont deux librairies logicielles pour la simulation numérique du transport de particules à travers la matière utilisant les calculs Monte Carlo. Les éléments étudiés sont les sections efficaces, les matériaux, l’algorithme de diffusion Rayleigh et l’algorithme de diffusion Compton. Bien que quelques erreurs persistent dans la physique de GPUMCD, une nette amélioration des résultats entre GPUMCD et Geant4 a été obtenue. La différence entre les deux simulations qui était supérieure à 100% pour une géométrie complexe est passée sous la barre du 10%. De plus, il a été possible d’identifier quelques autres causes telles qu’une différence dans la définition des modèles physiques, et ce, plus précisément dans l’algorithme de diffusion Compton. En ce qui concerne la seconde partie du projet, bien que la correction n’a pu être effectuée pour une reconstruction, tous les éléments ont été implémentés pour estimer le rayonnement diffusé pour une géométrie de patient provenant de données cliniques d’une reconstruction tomodensitométrique. Les paramètres et les stratégies étudiés dans le but d’optimiser le temps de calculs tout en conservant la justesse des résultats sont : le traçage de rayons, le lissage gaussien du rayonnement diffusé, la réduction du nombre de pixels sur le détecteur, l’interpolation des projections, la symétrie et la réduction de nombre de voxels dans le patient. De plus, en considérant une correction de haute qualité, soit 2% d’erreur et moins par stratégie implémentée, on obtient un temps de simulation de moins de 2 minutes sur une GPU Nvidia Titan X. Pour une simulation dite de basse qualité, soit 5% d’erreur et moins par stratégie implémentée, on obtient un temps d’exécution de moins de 15 s par simulation. Cela correspond à des temps cliniquement acceptables si le patient doit attendre sur la table. / The goal of this project is to develop an application to correct the scattered radiation in a cone beam computed tomography scan (CBCT). A Monte Carlo simulation is used to estimate the scattered radiation which is a numerical replication of a CBCT acquisition. This project has been divided into two sections : the validation of the physics for this specific application and the development of the application. The validation consisted in reproducing the results obtained with Geant4 in GPUMCD. Geant4 is the reference platform and GPUMCD is the platform studied. Both are Monte Carlo simulators of the passage of particles through matter.The elements studied are the cross sections, the materials, the Rayleigh scattering algorithm and the Compton scattering algorithm. Although some errors are still present, a great improvement of the results between GPUMCD and Geant4 was obtained. The difference between the two simulations was greater than 100 % for complex geometries and dropped below 10% after corrections of the physics. In addition, it was possible to identify some other problems such as a theoretical difference in the Compton scattering algorithms. Regarding the second part of the project, although the correction could not be implemented in a reconstruction, all elements are present to estimate the scattered radiation for an actual CBCT reconstruction. The parameters and strategies studied in order to optimize the computation time while maintaining the accuracy of the results are : ray tracing, Gaussian smoothing of scattered radiation, reduction of the number of pixels on the detector, interpolation of between the simulated projections, symmetry and reduction of number of voxels in the patient. In addition, considering a correction of high quality is 2 % error and less per implemented strategy, a simulation time of less than 2 minutes is obtained. For a low quality simulation (5% error and less per parameter), a simulation time of less than 15 seconds per simulation was obtained. Those are clinically acceptable simulation times.
23

Évaluation rétrospective des bénéfices de la radiothérapie adaptative pour les cancers ORL

Airouss, Zouhair 16 January 2024 (has links)
Titre de l'écran-titre (visionné le 11 janvier 2024) / L'objectif de ce projet de maîtrise était d'évaluer la précision et la faisabilité de la dosimétrie basée sur la tomographie par faisceau conique (CBCT) dans la replanification des traitements en radiothérapie pour des patients atteints de cancers de la tête et du cou (ORL). Une étude rétrospective a été menée sur 20 patients replanifiés pour comparer la distribution de dose basée sur CBCT à celle du TDM. Les résultats montrent que la CBCT offre une précision similaire au TDM, avec une différence maximale de 2.2% pour le D98% au niveau du volume cible prévisionnel (PTV). Des algorithmes d'auto-segmentation et de recalage déformable (ANACONDA de RayStation et Limbus basé sur l'apprentissage profond) ont également été évalués pour leur performance en segmentation. Les résultats ont montré une haute similarité entre les auto-contours et les contours manuels, bien que certaines structures, comme l'œsophage et le larynx, nécessitent une vérification systématique. Nous avons également mis en évidence l'importance de la replanification en montrant des variations significatives en termes de couverture de dose dans différentes régions d'intérêt. Un seuil d'action basé sur la variation de D98% a été proposé pour guider la replanification. Ce seuil, ayant une spécificité de 0.9 mais une sensibilité de 0.684, nécessite une validation supplémentaire. Ce travail souligne l'importance de la replanification dans le traitement en radiothérapie et propose la CBCT comme une alternative viable pour la surveillance et l'ajustement du traitement.
24

Calcul de dose avec images de tomographie à faisceau mégavoltage conique pour le développement de la radiothérapie guidée par la dose

Aubry, Jean-François. 16 April 2018 (has links)
L'imagerie mégavoltage à faisceau conique (MVCBCT) est une technique de tomographie qui permet d'obtenir des images 3D d'un patient quelques instants avant son irradiation. Le présent projet se consacre à cette technologie et est bâti en trois étages superposés: d'abord une étude des caractéristiques du système d'imagerie et des images qu'il produit, suivi du développement de méthodes de correction des images permettant un calcul de dose exact, pour terminer avec quelques applications cliniques adhérant au principe de radiothérapie guidée par la dose (DG RT). Les images MVCBCT présentent invariablement un artéfact en creux, caractérisé par une diminution de l'intensité au centre de l'image et causant des erreurs de calcul de dose allant facilement jusqu'à 10%. L'étude du système MVCBCT, réalisée à partir de simulations Monte Carlo, conclut que l'artéfact en creux est majoritairement dû à l'adoucissement radial et au duricissement en pronfondeur du faisceau de photons. Deux méthodes de correction de l' artéfact en creux ont été développées, l'une pour les images de la région ORL (tête et cou), l'autre pour les images pelviennes. L'algorithme de correction d'images ORL met à profit l'information contenue dans l'image CT de planification pour rétablir les densités sur l'image MVCBCT. Le traitement des images pelviennes est quant à lui basé sur des facteurs de correction obtenus à partir de mesures sur différents fantômes anthropomorphiques. Ces deux méthodes permettent de réduire l'incertitude des calculs de dose à partir d'images MVCBCT à ±3%. Enfin, une étude de recalcul de dose pour un nombre de cas d'ORL et de prostate a été menée à l'aide d'images MVCBCT acquises au début de plusieurs fractions du traitement. Cette étude confirme que les patients recoivent la dose prescrite au volume cible, sauf pour une fraction d'un cas de prostate où une erreur de positionnement n'a pas été détectée sur le fait. Il a aussi été révélé que la dose moyenne aux glandes parotides des patients ORL peut augmenter jusqu'à 50% au cours du traitement. D'importantes variations dans la dose par fraction reçue par le rectum et la vessie ont aussi été remarquées pour les cas de prostate. Des stratégies d'adaptation des plans de traitement évitant une replanification totale n'ont pu permettre de rétablir les valeurs dosimétriques originales chez les patients ORL.
25

Etude des paramètres affectant le transfert d'oxygène dans les vins

Chiciuc, Igor 07 December 2010 (has links) (PDF)
La micro-oxygénation des vins, par la dispersion de bulles d'oxygène, est une pratique de plus en plus utilisée dans le domaine de l'œnologie. Cette technique n'est pas toujours convenablement maitrisée par manque de connaissances scientifiques sur les paramètres régissant le transfert de l'oxygène. La recherche s'est focalisée sur l'étude des coefficients de transfert en fonction des composés du vin (CO2, éthanol, sucrose, consommateurs d'oxygène) et des conditions opératoires (type de diffuseur, température, rapport entre hauteur et diamètre du contenant de liquide). Les résultats montrent que lors de la micro-oxygénation, le dioxyde de carbone dissous et le sucrose ont une incidence négative sur le transfert alors que la présence d'éthanol améliore le transfert. En ce qui concerne les conditions opératoires, l'augmentation de débit de gaz et l'augmentation de rapport entre la hauteur et le diamètre de la cuve de micro-oxygénation joue positivement sur le transfert d'oxygène La surface spécifique des bulles et le coefficient de transfert de matière ont pu être dissociés pour les vins. La nature tensio-active des composés du vin semble être un élément important sur le transfert de matière. Les connaissances acquises ont été appliquées à la micro-oxygénation au cours de deux étapes de l'élaboration des vins : la fermentation alcoolique avec la maitrise de l'apport d'oxygène et la simulation de la technique d'élevage en barrique par micro-oxygénation couplée à l'ajout de copeaux de bois. Une nouvelle approche concerne l'étude d'un contacteur membranaire qui permet le transfert d'oxygène par diffusion.
26

Instrumentation d'un four pilote pour la cuisson de génoise

Douiri, Imen 31 January 2007 (has links) (PDF)
La cuisson de produits céréaliers provoque des transformations physicochimiques dans la pâte pour lui conférer une structure, une texture, une forme, une couleur et un goût désirés. Un four pilote électrique avec circulation d'air chaud a été instrumenté pour suivre en continu la cuisson d'un produit type génoise (700g) placé dans un moule : perte de poids, profil de température interne et température de surface, pression interne. A travers une fenêtre dans la paroi isolée du moule des images ont été enregistrées pour suivre le gonflement. L'évolution de masse volumique a été déduite. Des mesures de flux de chaleur radiatif et convectif reçus par la surface du produit ont contribué à expliquer la coloration de la surface et la forme du produit cuit. Des cuissons à 160, 180, 220°C ont été réalisées avec une perte de masse constante (eau) de 6% durant la période de chauffage, avec des temps de chauffage respectivement de 81, 71, 52 min. Durant cette période la pâte se transforme en croûte colorée sèche en surface, et mie humide. La période de refroidissement contrôlé avec ventilation d'air (90min) conduit à une perte additionnelle de poids de 6% et représente une phase importante pour stabiliser la structure.
27

Effet de l'hypertrophie cardiaque physiologique et pathologique sur la régulation du pore de perméabilité transitionnelle

Marcil, Mariannick January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
28

Dispersion à deux et trois phases dans le cadre de l'ingénierie tissulaire du cartilage

Letellier, Samuel 24 October 2008 (has links)
Ce travail s’inscrit dans le contexte général de l’ingénierie tissulaire du cartilage (culture in vitro) bien que la physique employée puisse s’appliquer à d’autres domaines. Après un rappel du modèle macroscopique de dispersion réactive obtenu en employant la prise de moyenne volumique, les problèmes de fermeture sont résolus numériquement afin de déterminer la macro-dispersion. Les solutions numériques sont tout d’abord validées dans des cas sans advection et/ou sans réaction. L’étude de la dispersion passive (sans réaction) sur des micro-géométries simples illustre la dépendance des coefficients de dispersion macroscopiques vis-à-vis de la géométrie (porosité, croissance directionnelle ou homothétique). Enfin, la simulation du cas complet (incluant la réaction) nous a permis de montrer l’influence de plusieurs paramètres : nombre cinétique, nombre de Sherwood, structure géométrique microscopique. / Abstract
29

Visualisations interactives haute-performance de données volumiques massives : une approche out-of-core multi-résolution basée GPUs / High performance interactive visualization of large volume data : a GPUs-based multi-resolution out-of-core approach

Sarton, Jonathan 28 November 2018 (has links)
Les travaux de cette thèse s'inscrivent dans le cadre du projet PIA2 3DNeuroSecure. Ce dernier vise à proposer un système collaboratif de navigation multi-échelle interactive dans des données visuelles massives (Visual Big Data) ayant pour cadre applicatif l'imagerie biomédicale 3D ultra-haute résolution (ordre du micron) possiblement multi-modale. En outre, ce système devra être capable d'intégrer divers traitements et/ou annotations (tags) au travers de ressources HPC distantes. Toutes ces opérations doivent être envisagées sans possibilité de stockage complet en mémoire (techniques out-of-core : structures pyramidales, tuilées, … avec ou sans compression …). La volumétrie des données images envisagées (Visual Big Data) induit par ailleurs le découplage des lieux de capture/imagerie/génération (histologie, confocal, imageurs médicaux variés, simulation …), de ceux de stockage et calcul haute performance (data center) mais aussi de ceux de manipulation des données acquises (divers périphériques connectés, mobiles ou non, tablette, PC, mur d’images, salle de RV …). La visualisation restituée en streaming à l’usager sera adaptée à son périphérique, tant en termes de résolution (Full HD à GigaPixel) que de rendu 3D (« à plat » classique, en relief stéréoscopique à lunettes, en relief autostéréoscopique sans lunettes). L'ensemble de ces développements pris en charge par le CReSTIC avec l'appui de la MaSCA (Maison de la Simulation de Champagne-Ardenne) se résument donc par : - la définition et la mise en oeuvre des structures de données adaptées à la visualisation out-of-core des visual big data (VBD) ciblées - l’adaptation des traitements spécifiques des partenaires comme des rendus 3D interactifs à ces nouvelles structures de données - les choix techniques d’architecture pour le HPC et la virtualisation de l’application de navigation pour profiter au mieux des ressources du datacanter local ROMEO. Le rendu relief avec ou sans lunettes, avec ou sans compression du flux vidéo relief associé seront opérés au niveau du logiciel MINT de l’URCA qui servira de support de développement. / These thesis studies are part of the PIA2 project 3DNeuroSecure. This one aims to provide a collaborative system of interactive multi-scale navigation within visual big data (VDB) with ultra-high definition (tera-voxels), potentially multimodal, 3D biomedical imaging as application framework. In addition, this system will be able to integrate a variety of processing and/or annotations (tags) through remote HPC resources. All of these treatments must be possible in an out-of-core context. Because of the visual big data, we have to decoupled the location of acquisition from ones of storage and high performance computation and from ones for the manipulation of the data (various connected devices, mobile or not, smartphone, PC, large display wall, virtual reality room ...). The streaming visualization will be adapted to the user device in terms of both resolution (Full HD to GigaPixel) and 3D rendering (classic rendering on 2D screens, stereoscopic with glasses or autostereoscopic without glasses). All these developments supported by the CReSTIC with the support of MaSCA (Maison de la Simulation de Champagne-Ardenne) can therefore be summarized as: - the definition and implementation of the data structures adapted to the out-of-core visualization of the targeted visual big data. - the adaptation of the specific treatments partners, like interactive 3D rendering, to these new data structures. - the technical architecture choices for the HPC and the virtualization of the navigation software application, to take advantage of "ROMEO", the local datacenter. The auto-/stereoscopic rendering with or without glasses will be operated within the MINT software of the "université de Reims Champagne-Ardenne".
30

Multi scale modelling and numerical simulation of metal foam manufacturing process via casting / Modélisation et simulation multi-échelle du procédé de fabrication des mousses métallique par voie de fonderie

Moussa, Nadine 11 January 2016 (has links)
L'objectif est d'élaborer un nouveau procédé de fabrication de mousses métalliques par voie de fonderie en modélisant l'infiltration et la solidification d'un métal liquide dans un milieu poreux. La modélisation est faite en deux étapes.Tout d'abord, à l'échelle locale un brin de la mousse métallique est considéré comme un tube capillaire et l'infiltration et solidification d'un métal liquide dans un moule cylindrique est étudiée. Deuxièmement,le modèle macroscopique de la solidification diffusive d'un métal liquide dans un milieu poreux est obtenu par prise de moyenne volumique. Le modèle local est codée dans un outil CFD opensource et trois études paramétriques ont été faites permettant la détermination des relations de la longueur et le temps d'infiltration en fonction de paramètres de fonctionnement. La modélisation de la solidification d’un métal liquide dans un milieu poreux est simplifié en considérant que le moule est complètement saturé par un métal liquide au repos,par suite la solidification se produit par diffusion pure (pas de convection). L'équilibre thermique local (LTE) est considéré entre les phases solide et liquide du métal tandis qu'un non équilibre thermique local (LTNE) est retenue entre la phase métallique et le moule. Les problèmes de fermeture associés ainsi que le problème macroscopique ont été résolus numériquement. / The objective of this work is to elaborate a new manufacturing process of metal foams via casting by modelling the infiltration and solidification of liquid metal inside a porous medium.However, due to the complexity of this problem the study is divided into two steps. First, at local scale one strut of the metal foam is considered as a capillary tube and the infiltration and solidification of liquid metal inside a cylindrical mould is studied. Second, a macroscopic model of diffusive solidification is derived using the volume average method. The local model is coded in an open source CFD tool and three parametric studies were done where the relations between the infiltration length and time as function of the operating parameters are determined. The modelling of the solidification of liquid metal inside a porous medium is simplified by considering that the mould is fully saturated by liquid metal at rest, solidification occurs by pure diffusion. Local thermal equilibrium (LTE) is considered between the solid and liquid phases of the metal while local thermal non equilibrium (LTNE) is retained between the metallic mixture and the mould. The associated closure problems as well as the macroscopic problem were numerically solved.

Page generated in 0.1071 seconds