Spelling suggestions: "subject:"A para""
321 |
Defect detection in infrared thermography by deep learning algorithmsFang, Qiang 27 January 2024 (has links)
L'évaluation non destructive (END) est un domaine permettant d'identifier tous les types de dommages structurels dans un objet d'intérêt sans appliquer de dommages et de modifications permanents. Ce domaine fait l'objet de recherches intensives depuis de nombreuses années. La thermographie infrarouge (IR) est l'une des technologies d'évaluation non destructive qui permet d'inspecter, de caractériser et d'analyser les défauts sur la base d'images infrarouges (séquences) provenant de l'enregistrement de l'émission et de la réflexion de la lumière infrarouge afin d'évaluer les objets non autochauffants pour le contrôle de la qualité et l'assurance de la sécurité. Ces dernières années, le domaine de l'apprentissage profond de l'intelligence artificielle a fait des progrès remarquables dans les applications de traitement d'images. Ce domaine a montré sa capacité à surmonter la plupart des inconvénients des autres approches existantes auparavant dans un grand nombre d'applications. Cependant, en raison de l'insuffisance des données d'entraînement, les algorithmes d'apprentissage profond restent encore inexplorés, et seules quelques publications font état de leur application à l'évaluation non destructive de la thermographie (TNDE). Les algorithmes d'apprentissage profond intelligents et hautement automatisés pourraient être couplés à la thermographie infrarouge pour identifier les défauts (dommages) dans les composites, l'acier, etc. avec une confiance et une précision élevée. Parmi les sujets du domaine de recherche TNDE, les techniques d'apprentissage automatique supervisées et non supervisées sont les tâches les plus innovantes et les plus difficiles pour l'analyse de la détection des défauts. Dans ce projet, nous construisons des cadres intégrés pour le traitement des données brutes de la thermographie infrarouge à l'aide d'algorithmes d'apprentissage profond et les points forts des méthodologies proposées sont les suivants: 1. Identification et segmentation automatique des défauts par des algorithmes d'apprentissage profond en thermographie infrarouge. Les réseaux neuronaux convolutifs (CNN) pré-entraînés sont introduits pour capturer les caractéristiques des défauts dans les images thermiques infrarouges afin de mettre en œuvre des modèles basés sur les CNN pour la détection des défauts structurels dans les échantillons composés de matériaux composites (diagnostic des défauts). Plusieurs alternatives de CNNs profonds pour la détection de défauts dans la thermographie infrarouge. Les comparaisons de performance de la détection et de la segmentation automatique des défauts dans la thermographie infrarouge en utilisant différentes méthodes de détection par apprentissage profond : (i) segmentation d'instance (Center-mask ; Mask-RCNN) ; (ii) détection d’objet (Yolo-v3 ; Faster-RCNN) ; (iii) segmentation sémantique (Unet ; Res-unet); 2. Technique d'augmentation des données par la génération de données synthétiques pour réduire le coût des dépenses élevées associées à la collecte de données infrarouges originales dans les composites (composants d'aéronefs.) afin d'enrichir les données de formation pour l'apprentissage des caractéristiques dans TNDE; 3. Le réseau antagoniste génératif (GAN convolutif profond et GAN de Wasserstein) est introduit dans la thermographie infrarouge associée à la thermographie partielle des moindres carrés (PLST) (réseau PLS-GANs) pour l'extraction des caractéristiques visibles des défauts et l'amélioration de la visibilité des défauts pour éliminer le bruit dans la thermographie pulsée; 4. Estimation automatique de la profondeur des défauts (question de la caractérisation) à partir de données infrarouges simulées en utilisant un réseau neuronal récurrent simplifié : Gate Recurrent Unit (GRU) à travers l'apprentissage supervisé par régression. / Non-destructive evaluation (NDE) is a field to identify all types of structural damage in an object of interest without applying any permanent damage and modification. This field has been intensively investigated for many years. The infrared thermography (IR) is one of NDE technology through inspecting, characterize and analyzing defects based on the infrared images (sequences) from the recordation of infrared light emission and reflection to evaluate non-self-heating objects for quality control and safety assurance. In recent years, the deep learning field of artificial intelligence has made remarkable progress in image processing applications. This field has shown its ability to overcome most of the disadvantages in other approaches existing previously in a great number of applications. Whereas due to the insufficient training data, deep learning algorithms still remain unexplored, and only few publications involving the application of it for thermography nondestructive evaluation (TNDE). The intelligent and highly automated deep learning algorithms could be coupled with infrared thermography to identify the defect (damages) in composites, steel, etc. with high confidence and accuracy. Among the topics in the TNDE research field, the supervised and unsupervised machine learning techniques both are the most innovative and challenging tasks for defect detection analysis. In this project, we construct integrated frameworks for processing raw data from infrared thermography using deep learning algorithms and highlight of the methodologies proposed include the following: 1. Automatic defect identification and segmentation by deep learning algorithms in infrared thermography. The pre-trained convolutional neural networks (CNNs) are introduced to capture defect feature in infrared thermal images to implement CNNs based models for the detection of structural defects in samples made of composite materials (fault diagnosis). Several alternatives of deep CNNs for the detection of defects in the Infrared thermography. The comparisons of performance of the automatic defect detection and segmentation in infrared thermography using different deep learning detection methods: (i) instance segmentation (Center-mask; Mask-RCNN); (ii) objective location (Yolo-v3; Faster-RCNN); (iii) semantic segmentation (Unet; Res-unet); 2. Data augmentation technique through synthetic data generation to reduce the cost of high expense associated with the collection of original infrared data in the composites (aircraft components.) to enrich training data for feature learning in TNDE; 3. The generative adversarial network (Deep convolutional GAN and Wasserstein GAN) is introduced to the infrared thermography associated with partial least square thermography (PLST) (PLS-GANs network) for visible feature extraction of defects and enhancement of the visibility of defects to remove noise in Pulsed thermography; 4. Automatic defect depth estimation (Characterization issue) from simulated infrared data using a simplified recurrent neural network: Gate Recurrent Unit (GRU) through the regression supervised learning.
|
322 |
Amélioration de l'écoulement dans un banc d'essai de turbine hydraulique à l'aide de la CFDTonot, Yohan 02 February 2024 (has links)
Ce projet de maîtrise a pour but d'améliorer l'uniformité de l'écoulement en entrée de turbine dans le banc d'essai du Laboratoire de Machines Hydrauliques (LAMH) de l'Université Laval. Pour cela, une approche numérique a été utilisée. Diverses simulations numériques de ce banc d'essai ont été réalisées sur le logiciel de simulation numérique ANSYS CFX, afin de permettre la comparaison de différentes solutions techniques. Une simulation utilisant l'approche URANS (Unsteady Reynolds Average Navier-Stokes) avec un modèle de turbulence k-e a d'abord été réalisée pour analyser le comportement de l'écoulement dans le banc d'essai initial du laboratoire. La validation de ce modèle est basée sur un travail antérieur donnant le comportement expérimental de l'écoulement en certains endroits dans le banc d'essai, en amont d'une turbine bulbe. Cette simulation a montré qu'une modification majeure de l'amenée aurait un effet bénéfique sur l'écoulement. Les autres simulations, utilisant une approche RANS (Reynolds Average Navier-Stokes), ont servi à comparer différentes solutions technologiques envisageables selon la littérature pour une application dans le banc d'essai, et qui seraient, à priori, bénéfiques pour la stabilité de l'écoulement. L'analyse de diverses caractéristiques de cet écoulement a permis de mettre en avant deux solutions aux résultats prometteurs dans ces conditions d'expérimentation, à savoir l'installation d'un coude avec deux aubes directrices avant la section d'essai, et l'installation d'une plaque stabilisatrice d'écoulement dans un tuyau droit en amont de la turbine. Cette dernière solution est celle qui aura été retenue par le LAMH pour son nouveau projet de recherche : Tr-Francis. / The objetive of this project is to improve the uniformity of the inlet flow of a turbine within the test bench of the Laboratory of Hydraulic Machines, LAMH, of Université Laval. For this purpose, a numerical approach has been employed. Several numerical simulations have been carried out on the software "ANSYS CFX" and compared with one another, after validation of the simulation conditions and assumptions. A simulation using the URANS (Unsteady Reynolds Average Navier-Stokes) approach with a turbulence model k-e was first used to analyze the flow behavior in the original test bench installed in the laboratory. The validation of the model is based on a previous project giving the experimental flow behavior at certain locations in the test bench upstream a bulb turbine. The simulation showed that a major change in the configuration upstream of the turbine in the test bench would be beneficial on the effect it has on the flow. Other simulations using the RANS (Reynolds Average Navier-Stokes) approach compared several technological solutions for application in the modified test bench, which, according to the literature, would be beneficial for flow stability. The analysis of various flow characteristics higlighted two potential solutions in this situation : the installation of a curved pipe with two guided vanes upstream of the test section, or the installation of a flow stabilizer plate in a straight pipe to replace the upstream tank, upstream the turbine. This second solution is the one the LAMH put to use for its next project : Tr-Francis.
|
323 |
Automatisation du procédé de béton projeté : contrôle du rebond et vision numériqueSchaeffer, Julien 13 December 2023 (has links)
Le virage technologique débutant dans le secteur du génie civil a permis la création d'outils et de procédés tournés vers le numérique et l'automatisation. Le béton projeté, qui comprend un grand potentiel d'automatisation, ne doit pas faire exception à la règle puisque l'avancement et l'optimisation des méthodes de production sont clairement poussés en avant par cet élan technologique. Le Laboratoire de béton projeté de l'Université Laval travaille depuis plus de 15 ans sur plusieurs initiatives de recherche visant à comprendre et à améliorer la méthode de mise en place qu'est le béton projeté. Sur cette base de réflexion, un effort de recherche visant à réduire le rebond et à automatiser le procédé par voie sèche avec un bras robotisé a été lancé avec le projet SPARO. Le présent projet de recherche se place dans sa continuité directe, et il s'articule autour de 4 axes principaux : optimisation et compréhension du phénomène de rebond, étude de l'influence de l'automatisation du procédé sur les propriétés du béton projeté durci, amélioration de l'autonomie du procédé et enfin, développement d'une assistance au lancier. La première partie du projet contribue à la compréhension des interactions entre les différentes trajectoires et le rebond, notamment avec l'utilisation de la trajectoire dite planétaire. Elle présente des valeurs de rebond remarquablement faibles et proches de celles obtenues usuellement par voie humide; elle apporte le concept de rebond fondamental du matériau et génère moins de rebonds que la trajectoire « classique » largement adoptée par les lanciers. L'hypothèse soutenue est que la trajectoire optimale est celle qui, pour une consigne d'épaisseur donnée, couvre une surface de taille maximale, tout en s'assurant que chaque portion de cette surface soit impactée, ou excitée, en permanence de façon à dépasser une fréquence énergétique critique du substrat, facilitant la capture des particules. L'étude des propriétés du béton projeté à l'état durci souligne que la technique de mise en place a un effet important sur la résistance en compression. Une diminution de 7% est observée entre la méthode automatisée et un projeteur traditionnel; en revanche, aucun changement n'a été observé pour la porosité. Dans la contribution à l'automatisation globale du système, l'utilisation de la vision numérique a montré des résultats très satisfaisants. Une méthode automatique de mesure de l'épaisseur projetée et de sa correction a été développée à l'aide d'un capteur LIDAR. En parallèle, l'adaptation de certains capteurs a permis de développer un système d'aide au lancier, offrant des renseignements sur l'angle et la distance de la lance par rapport à la surface projeté. / The technological transition in civil engineering has led to the creation of tools and processes oriented towards digitalization and automation. Shotcrete, which presents a great potential for automation, should not be an exception to the trend since the advancement and optimization of production methods are clearly pushed forward by this technological boom. The Shotcrete Laboratory of Université Laval has been working for more than 15 years on several research initiatives in order to understand and improve the shotcrete process. On this basis, a research initiative aimed at reducing rebound and automating the dry process with a robotic arm was launched with the SPARO project. The present research project is in direct continuation. It is organized around 4 main axes, with the optimization and the comprehension of the phenomenon of rebound, the study of the influence of the automation process on the properties of the hardened shotcrete, the improvement of the process's autonomy and, finally, the development of nozzleman assistance. The first part contributes to understanding the interactions between the different nozzle trajectories and rebound, especially with the use of the so-called planetary path. It shows remarkably low values of rebound, close to the one usually obtained with wet-mix shotcrete. It brings the concept of fundamental rebound of the materials and generates less rebound than the "classical" trajectory widely adopted by nozzlemen. The hypothesis supported is that the optimal trajectory is the one that, for a given thickness, covers a surface of maximum size, while ensuring that each portion of this surface is constantly impacted, or excited, so as to exceed a critical energy frequency of the substrate, faciliting the capture of incoming particles. The study of the hardened concrete's properties underlines that the placement technique has an important effect on the compressive strength. A decrease of 7% is observed between the automated method and a traditional sprayer, on the other hand, no changes were observed concerning the porosity. In the contribution to the overall system's automation, the use of computer vision showed very satisfying results. An automatic method for measuring the sprayed thickness and its subsequent corrections has been developed using a LIDAR sensor. In parallel, adapting certain sensors package has made possible the development of a nozzlemen's assistance, giving information on the nozzle’s angle and distance with regards to the sprayed surface.
|
324 |
Système de réalité virtuelle pour l'insertion d'aiguilles flexibles dans des tissus déformables : application à la curiethérapie de la prostateCarette, Alexandre 18 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2011-2012 / Le cancer de la prostate est le type de cancer le plus fréquent chez l’homme. On estime qu’un homme sur six vivant jusqu’à quatre-vingts ans en recevra le diagnostic. En 1994, le Centre hospitalier universitaire de Québec (CHUQ) est devenu le premier établissement de santé au Canada à utiliser la curiethérapie par implants permanents pour soigner le cancer de la prostate. Depuis, des milliers de personnes ont bénéficié de ce traitement peu invasif et très efficace. Au cours de la curiethérapie, qui est une intervention d’une à deux heures effectuée sous anesthésie générale, le radio-oncologue utilise des aiguilles pour placer une matière radioactive sous la forme de petits grains directement dans le tissu cancéreux. Les grains, de la grosseur d’un grain de riz, émettent des radiations qui détruisent les cellules à l’endroit visé pendant environ six mois après l’opération. Ils restent ensuite en place de façon permanente, mais sont inoffensifs. Or, ce type d’opération n’est pas une tâche facile pour le radio-oncologue. De surcroît, les spécialistes qui aspirent à pouvoir donner ce genre de traitement, bien que très formés et encadrés, ne peuvent finalement que s’entrainer sur des sujets humains pour acquérir de l’expérience, une pratique potentiellement discutable sur le plan éthique. C’est pourquoi nous proposons la mise sur pied d’un environnement de réalité virtuelle pour l’entraînement à la curiethérapie de la prostate qui aurait, pour les nouveaux médecins, un rôle similaire à celui des simulateurs de vol pour les pilotes d’avion. Dans ce mémoire, nous présentons différents algorithmes qui permettent de générer un modèle réaliste de prostate et de son environnement avoisinant, de simuler la physique de ces tissus mous biologiques et des aiguilles flexibles utilisées, ainsi que l’interaction entre ces derniers. Ces algorithmes permettent une vue tridimensionnelle de l’opération, à laquelle nous ajoutons une extension qui permet de visualiser l’opération sous la forme d’images par échographie ultrasonique. L’intégration de tous ces modules avec un module haptique pouvant simuler les retours d’efforts lors de l’insertion d’aiguilles (développé par des collègues en génie mécanique), forme l’environnement virtuel proposé. / Prostate cancer is the most common type of cancer in men. It is estimated that one in six men living up to eighty years will receive the diagnosis. In 1994, the Centre hospitalier universitaire de Québec (CHUQ) became the first healthcare facility in Canada to use permanent implants brachytherapy to treat prostate cancer. Since then, thousands of people benefited from this minimally invasive and very effective treatment. During brachytherapy, a procedure of one to two hours performed under general anesthesia, the radiation oncologist uses needles to place radioactive matter in the form of small seeds directly into the cancerous tissue. The seeds, about the size of a grain of rice, emit radiation that destroy cells in the target area for about six months after the operation. They then remain in place permanently, but are harmless for the person. However, the procedure is not an easy task for the radiation oncologist. In particular, specialists who aspire to give this kind of treatment, although very well trained and supervised, can only be trained using human subjects to gain experience, a practice that may raise ethical issues. We therefore propose the establishment of a virtual reality environment for training in prostate brachytherapy which would have, for new doctors, a role similar to flight simulators for aircraft pilots. In this thesis, we present different algorithms to generate a realistic model of the prostate and its surrounding environment, the simulation of the physics of organic soft tissue and of flexible needles, as well as the interaction between them. These algorithms allow a three-dimensional view of the operation, to which we add an extension that allows the user to view the operation as images by ultrasonography. The integration of all these modules with a module that can simulate haptic feedback when inserting needles (developed by our collegues in mecanical engineering) forms the proposed virtual environment.
|
325 |
Dimensionnement de machines à aimants permanents avec rotors Halbach pour des applications aéronautiquesPelletier, Alexandre 23 October 2023 (has links)
Titre de l'écran-titre (visionné le 25 juillet 2023) / Les travaux présentés dans le cadre du projet HEPOS en partenariat avec l'Université de Sherbrooke et la compagnie Pratt & Whitney Canada traitent du dimensionnement analytique de machines électriques et de leur simulation. Tout d'abord, une présentation générale des machines à aimants permanents est effectuée. Les types de stators, de bobinages, d'arrangement d'aimants et de matériaux magnétiques sont des exemples traités pour les machines à flux radial et axial. Un bref survol de quelques architectures d'alimentation et de commande pour ces machines sera également fait. Par la suite, le mémoire montre les travaux qui ont été effectués pour obtenir une loi de commande optimale pour les machines dimensionnées. Divers points d'opération sont demandés et le processus d'optimisation développé s'assure de fournir les courants de commande optimaux minimisant les pertes totales de la machine. Pour se faire, une formule paramétrique a été développée en s'inspirant des modèles de pertes magnétiques basés sur les équations de Steinmetz. Cette formule permet d'obtenir les pertes magnétiques totales de la machine pour divers points d'opération. La méthodologie employée pour l'obtention de la formule et l'identification de ses paramètres est également décrite. Des simulations avec le prototype de moteur du Maxwell X-57 de la NASA ont été grandement utiles pour l'élaboration et la validation de ces deux modèles de calcul. Pour continuer, une procédure de calcul analytique de dimensionnement d'une machine à aimants permanents à flux radial a été produite. Cette procédure permet de dimensionner et d'optimiser une machine selon une géométrie générale pour un cahier de charges donné. Les calculs dimensionnels, électriques et mécaniques sont expliqués ainsi que les différentes formules de pertes utilisées pour rendre le modèle le plus précis possible. Les pertes aérodynamiques et de frottement dans les roulements sont ajoutées en plus des pertes joules et magnétiques. Le calcul de l'induction pour un rotor à réseau de Halbach est également présenté puisque l'utilisation de ce type d'agencement d'aimants augmente la densité de couple de la machine. Une fois le dimensionnement analytique complété, une vérification et une correction est effectuée en utilisant un logiciel de calcul de champs par élément finis (Cedrat FLUX 2D) de manière à confirmer les différentes grandeurs électriques calculées de manière analytique. Finalement, le même processus de dimensionnement analytique est appliqué aux machines à flux axial. Pour ce type de machine, un calcul analytique additionnel est présenté de manière à venir approximer la géométrie de la machine à celle d'une machine linéaire. De cette façon, il est possible de calculer le champ magnétique en 2D plutôt qu'en 3D (les machines axiales ayant un chemin de flux asymétrique qui nécessite normalement une étude en 3 dimensions). Le modèle est ensuite confirmé à l'aide du dimensionnement des machines EM188 et EM348 de la compagnie Emrax. Le moteur Emrax 188, est la machine utilisée par l'équipe du Professeur Rancourt à l'Université de Sherbrooke pour construire un banc d'essais. Des mesures expérimentales ont été effectuées sur ce banc de test. Elles ont permis de confirmer les modèles de dimensionnement analytique et de calcul selon le modèle dq et le modèle de pertes magnétiques. / The work presented as part of the HEPOS project in partnership with the University of Sherbrooke and the company Pratt Whitney Canada deals with analytical dimensioning of electrical machines and their simulation. First, a general presentation of permanent magnet machines is made. Types of stator, windings, magnet arrangement and magnetic materials are examples covered for radial and axial flux machines. A brief overview of some power and control architectures for these machines will also be given. Next, work was carried out with the aim to obtain an optimal control law for the dimensioned machines. Various operating points operations are requested and the optimization process developed ensures to provide the optimum control currents by minimizing the total losses of the machine. To do so, a parametric formula was developed based on loss models based on Steinmetz equations. This formula allows to obtain the total magnetic losses of the machine for various operating points. The methodology used to obtain the formula and identify its parameters is also described. Simulations with NASA's Maxwell X-57 prototype machine have been greatly useful for the development and validation of these two calculation models. To continue, an analytical calculation procedure for radial machine sizing has been made. This procedure makes it possible to size and optimize a machine according to a general geometry for a given set of specifications. Dimensional, electrical and mechanical calculations are explained as well as the different loss formulas used to make the model the most precise as possible. The aerodynamic and friction losses in the bearings are added as well as the joule and magnetic losses that are common to see. The calculation of the induction for a Halbach array rotor is also presented since the use of this type of magnet arrangement increases the torque density of the machine in certain conditions. Once the analytical dimensioning completed, a verification and correction is carried out using a calculation software of finite element fields (Cedrat FLUX 2D) in order to confirm the different electrical values calculated analytically. Finally, the same analytical sizing process is applied to machines with axial flow. For this type of machine, an additional analytical calculation is presented in order to approximate the machine geometry as a linear machine. In this way, it is possible to calculate the magnetic field in a 2D environment (the magnetic flux in an axial machine flows with an asymmetric path that normally needs to be studied in three dimensions). The model is then confirmed using the EM188 and EM348 machines from the Emrax company. The Emrax188 is used in a test bench built by Professor Rancourt's team at from Sherbrooke University. Experimental measurements were carried out on this test bench. They allowed to confirm the analytical sizing and calculation models according to the dq and magnetic losses model.
|
326 |
Formation et auto-organisation de plasma induit par impulsions laser intenses dans un milieu diélectriqueDéziel, Jean-Luc 27 January 2024 (has links)
Les interactions entre un milieu diélectrique et des impulsions laser intenses sont étudiées, d’abord d’un point de vue général, puis dans le contexte de la fabrication de nanostructures de surface auto-organisées. Les bases de l’électromagnétisme, de l’optique et de la physique des plasmas sont posées, avant de présenter la première contribution majeure de cette étude. Un nouveau modèle décrivant la formation de plasma induit par laser dans un milieu diélectrique, nommé delayed rate equations (DRE), est présenté. Ce modèle d’ionisation a les avantages d’être facile à implémenter dans une simulation numérique, peu coûteux en ressources computationnelles. L’émergence de nanostructures périodiques auto-organisées à la surface initialement rugueuse et aléatoire de matériaux exposés à des impulsions laser est ensuite étudiée numériquement, en tenant compte des effets électromagnétiques (équations de Maxwell). La seconde contribution majeure est l’implémentation d’une boucle de rétroaction dans les simulations, entre le champ électromagnétique et le plasma en formation. Ces simulations révèlent un nouveau phénomène, l’auto-reconfiguration de nanostructures de plasma, se produisant durant l’interaction. Finalement, on effectue des simulations multi-impulsionnelles qui permettent d’observer l’évolution de la forme de la surface après chaque impulsion laser. On observe la croissance de nanostructures de surface ayant une période et une orientation semblables à celles obtenues dans la densité du plasma après sa reconfiguration. Ceci confirme l’hypothèse que les motifs observés dans le plasma peuvent effectivement être inscrits de façon permanente dans la forme de la surface. / The interactions between intense laser pulses and a dielectric medium are studied, first in a general perspective, then in the context of the fabrication of self-organized surface nanostructures. After going through the rudiments of electromagnetism, optics and plasma physics, the first major contribution of this study is presented. A novel model for laser-induced plasma formation in dielectrics, the delayed rate equations model (DRE) is described. This ionization model has several advantages, among which are the ease of implementation in numerical simulations and low computational cost, while preserving all the advantages of the state of the art model that can be incorporated in tridimensional simulations. The emergence of periodic self-organized nanostructures at the initially rough and random surface of materials after being exposed to intense light is then numerically studied in a time domain electromagnetic framework. The second major contribution is the implementation of a feedback loop in the simulations, between the electromagnetic field and the plasma information. Simulations reveal a new phenomenon, the self-reconfiguration of plasma nanostructures, which occurs at the laser pulse time scale. Finally, multi-pulses simulations are performed, revealing the evolution of the shape of the irradiated surface after each laser pulse. The growth of surface nanostructures with period and orientation similar to what was observed in the plasma density, after its reconfiguration, is observed. This confirms the hypothesis that the plasma patterns can effectively be permanently inscribed in an irradiated surface.
|
327 |
Using MRI physics and AI for multi-parametric MRI-guided radiotherapySafari, Mojtaba, Safari, Mojtaba 11 March 2024 (has links)
Thèse ou mémoire avec insertion d'articles / L'objectif principal de cette thèse est d'explorer les applications de l'imagerie par résonance magnétique multiparamétrique (IRMmp) en radio-oncologie. Les images IRM sont utilisées à différentes étapes de la radiothérapie, notamment la planification, le guidage et le suivi. L'étape de planification utilise généralement le contraste des tissus mous de l'IRM ou des images physiologiques pour délimiter les cibles. L'étape de guidage utilise le contraste des tissus mous de l'IRM pour guider les traitements de radiothérapie. L'IRM quantitative (qMRI) et l'IRMmp sont utilisées pour évaluer une réponse au traitement. Cette thèse vise à utiliser les cartes qMRI pour quantifier la réponse des tissus de la tête et du cou à l'oxygénation, réduire les artefacts et les distorsions de l'IRM, et enfin fusionner l'IRM et la tomodensitométrie (TDM). Un des objectif est d'optimiser les cartes qMRI incluant T₁ et R₂* pour quantifier la préservation de l'oxygène après avoir administré de l'oxygène pur (pO₂) aux volontaires sains. Cette étude était la première in vivo quantifiant la préservation de l'oxygène dans les tissus de la tête et du cou après l'administration de pO₂. Deux expériences distinctes ont été réalisées : (1) délivrer une oxygénation normobare (NBO) et comparer les cartes qMRI en série T₁ et R₂* acquises pendant et après la NBO avec la ligne de base (avant de délivrer la NBO), et (2 ) délivrant une oxygénation hyperbare (HBO) et comparant les cartes qMRI en série T₁ et R₂* acquises après HBO avec la ligne de base (avant de délivrer HBO). Nous avons réalisé que le niveau d'oxygène de la glande parotide et du muscle masséter augmentait de manière significative (*p* < 0,05) après l'administration du NBO pendant 15 minutes et revenait à la valeur de base environ sept minutes après le NBO. Dans l'expérience HBO, une tendance similaire a été observée. Nous n'avons pas trouvé de différence entre les images qMRI de base et post-HBO. Ensuite, le travail s'est concentrée sur les distorsions et les artefacts de l'IRM. Dans cette étude, nous avons proposé un modèle d'apprentissage profond pour prédire les distorsions géométriques spécifiques aux patients (PSgD) causées par les différences de susceptibilité entre deux tissus. Ensuite, le T₁w (ceT₁w) amélioré en contraste a été corrigé pour le PSgD. Nous avons formé notre modèle d'apprentissage profond (DL) à l'aide d'un ensemble de données de 380 sujets. Nous avons comparé les distributions de doses de radiochirurgie stéréotaxique Gamma Knife (GK-SRS) pour les patients atteints de schwannome vestibulaire, calculées à l'aide d'images corrigées et corrompues par le PSgD. Nous avons constaté qu'en moyenne D$_μ$, D$_\textup{95\%}$ et D$_\textup{min}$ en Gy ont augmenté de manière significative après correction PSgD de 16,85 à 17,25, 12,30 à 12,77 et de 8,98 à 9,92. La couverture moyenne des objectifs et l'indice de conformité de Paddick ont considérablement augmenté, passant de 0,97 à 0,98 et de 0,94 à 0,96. L'indice de gradient de Paddick moyen a diminué de manière significative, passant de 2,24 à 2,15 après correction du PSgD. Les troisième et quatrième études visaient à réduire les artefacts de mouvement de l'IRM à l'aide de nouveaux modèles génératifs. Les deux études ont été formées et testées auprès de 230 patients postopératoires. De plus, un ensemble de données de 148 patients présentant des artefacts de mouvement réels a été utilisé pour valider notre modèle afin de supprimer les artefacts de mouvement réels. Cette troisième étude a exploité la T₂ fluid-attenuated inversion recovery pour former un modèle génératif non supervisé permettant de supprimer les artefacts de mouvement ceT₁w. Nous avons comparé notre modèle avec deux modèles génératifs bien connus. Nous avons également réalisé une étude d'ablation pour évaluer différentes variantes de notre modèle proposé. Notre modèle a mieux performé quantitativement et qualitativement par rapport aux autres modèles. Dans la quatrième étude, nous avons utilisé un modèle probabiliste de diffusion conditionnelle stable pour supprimer les artefacts de mouvement ceT₁w. Cette étude a proposé une nouvelle méthode pour simuler le modèle de diffusion directe dans l'espace *k*, permettant la génération d'ensembles de données in silico avec différents niveaux d'artefacts de mouvement. Notre méthode a surpassé quantitativement et qualitativement deux modèles génératifs et un modèle supervisé. Le dernier volet a proposé une méthode non supervisée pour fusionner la tomodensitométrie et l'IRM, car elles fournissent des informations complémentaires pour la planification de la radiothérapie. Les images TDM sont géométriquement corrigées et fournissent des informations sur la densité électronique pour un calcul précis de la dose et l'IRM fournit des images avec un excellent contraste des tissus mous. Cette étude a proposé un modèle génératif de fusion médicale non supervisé pour fusionner la tomodensitométrie et le ceT₁w haute résolution afin de générer une image avec la structure osseuse de la tomodensitométrie et le contraste des tissus mous de l'IRM. Ainsi, la délimitation des tumeurs et des organes à risque sera améliorée et le temps de planification de la radiothérapie sera réduit. Les résultats de notre méthode ont été comparés quantitativement et qualitativement à sept méthodes traditionnelles et à huit méthodes de pointe DL, où notre méthode les a toutes surpassées. / The main goal of this thesis is to explore multi-parametric magnetic resonance imaging (mpMRI) applications in radiation oncology. MRI images are used in different stages of the treatments including planning, guiding, and following up. The planning step usually utilizes MRI soft-tissue contrast or physiological images to delineate targets. The guiding step uses MRI soft-tissue contrast to guide radiation treatments. Quantitative MRI (qMRI) and mpMRI are used to evaluate a response to the treatment. This thesis aimed to use qMRI maps to quantify head and neck tissues' response to oxygenation, reduce MRI artifacts and distortions, and finally fuse MRI and computed tomography (CT). This thesis was started to optimize qMRI maps including T₁ and R₂* to quantify oxygen preservation after delivering pure oxygen (pO₂) to the healthy volunteers. This study was the first in vivo quantifying head and neck tissue oxygen preservation after delivering pO₂ . Two separate experiments were carried out : (1) delivering normobaric oxygenation (NBO) and comparing serial qMRI T₁ and R₂* maps acquired during and after NBO with the baseline (before delivering NBO), and (2) delivering hyperbaric oxygenation (HBO) and comparing the serial qMRI T₁ and R₂* maps acquired after HBO with the baseline (before delivering HBO). We realized that the parotid gland and masseter muscle oxygen level increased significantly (*p* < 0.05) after delivering NBO for 15 minutes and returned to the baseline around seven minutes after the NBO. In the HBO experiment, a similar trend was observed. We did not find a difference between baseline and post-HBO qMRI images. Then, our thesis concentrated on the MRI distortions and artifacts. In the second study, we proposed a deep learning model to predict MRI patient-specific geometry distortions (PSgD) caused by susceptibility differences between two tissues. Then, the contrast-enhanced T₁W (ceT₁W) was corrected for the PSgD. We trained our deep learning (DL) model using a dataset of 380 subjects. We compared the Gamma Knife stereotactic radiosurgery (GK-SRS) dose distributions for the patients with vestibular schwannoma calculated using PSgD-corrected and PSgD-corrupted images. We found that on average D$_μ$, D$_\textup{95\%}$ et D$_\textup{min}$ in Gy significantly increased after PSgD correction from 16.85 to 17.25, 12.30 to 12.77, and from 8.98 to 9.92. Average target coverage and Paddick's conformity index significantly increased from 0.97 to 0.98, and 0.94 to 0.96. Average Paddick's gradient index decreased significantly from 2.24 to 2.15 after PSgD correction. The third and fourth studies aimed to reduce MRI motion artifacts using novel generative models. Both studies were trained and tested using post-surgery 230 patients. In addition, a dataset of 148 patients with real motion artifacts was used to validate our model to remove real motion artifacts. The third study leveraged T₂-fluid-attenuated inversion recovery to train an unsupervised generative model for removing ceT₁W motion artifacts. We compared our model with two well-known generative models. Also, we performed an ablation study to evaluate different variations of our proposed model. Our model outperformed quantitatively and qualitatively other models. In the fourth study, we used a stable conditional diffusion probabilistic model to remove ceT₁W motion artifacts. This study proposed a novel method for simulating the forward diffusion model in *k*-space, enabling the generation of in-silico datasets with varying levels of motion artifacts. Our method quantitatively and qualitatively outperformed two generative models and one supervised model. The fifth study proposed an unsupervised method to fuse CT and MRI because they provide complementary information for radiation therapy planning. CT images are geometrically corrected and provide electron density information for accurate dose calculation and MRI provides images with excellent soft-tissue contrast. This study proposed an end-to-end unsupervised medical fusion generative model to fuse CT and high-resolution ceT₁W to generate an image with CT bone structure and MRI soft-tissue contrast. Thus, tumor and organs at risk delineation will be improved and the radiotherapy planning time will be reduced. The results of our method were quantitatively and qualitatively compared with seven traditional and eight DL state-of-the-art methods where our method outperformed the traditional and DL approaches.
|
328 |
Évaluation longitudinale des changements morphologiques et métaboliques survenant chez un modèle raton de convulsions fébriles atypiquesClerk-Lamalice, Olivier January 2010 (has links)
Les convulsions fébriles (CF) surviennent chez 2 à 5 % des jeunes enfants. La grande majorité de ces épisodes sont complètement bénins et aucune conséquence ne découle de ces convulsions. Une récente étude a par contre démontré qu'au sein d'une population pédiatrique atteinte d'épilepsie du lobe temporal (ELT), plusieurs enfants ont développé des CF avant l'apparition de ce trouble neurologique. De plus, cette étude a démontré une prévalence élevée de double pathologie chez ces enfants (sclérose de l'hippocampe et malformation corticale), suggérant un lien de causalité entre les CF, la malformation corticale et le développement de l'ELT. En se basant sur ces observations cliniques, la présente étude a pour but d'étudier les changements morphologiques et métaboliques cérébraux survenant suite aux convulsions hyperthermiques chez un modèle raton atteint de dysplasie corticale focale. Pour ce faire, une analyse du changement d'intensité de signal IRM en pondération-T[indice inférieur 2] et de multiples images TEP obtenues à l'aide de différents radiotraceurs([[indice supérieur 18]F]-FDG, [[indice supérieur 13]N]-NH[indice inférieur 3], [[indice supérieur 11]C]-acétoacétate) a été effectuée. De plus, un suivi longitudinal du développement volumétrique de l'hippocampe et des ventricules latéraux a été effectué. Les résultats de cette étude présentent une atteinte plus prononcée de l'hippocampe suite aux convulsions hyperthermiques chez le cerveau avec dysplasie corticale. En effet, 5 h après l'induction des convulsions hyperthermiques, un hyposignal IRM T[indice inférieur 2] est présent dans l'hippocampe de ce groupe comparativement au groupe contrôle atteint de dysplasie corticale seule. Les images TEP acquises pendant des convulsions hyperthermiques prolongées révèlent une inhomogénéité importante de captation du [[indice supérieur 18]F]-FDG au sein des structures cérébrales. L'hippocampe est d'ailleurs la structure avec la plus faible captation de [[indice supérieur 18]F]-FDG. À P38, une atrophie de l'hippocampe dorsal et une dilatation des ventricules latéraux sont mesurées au sein du groupe d'intérêt. Nos observations nous amènent à poser l'hypothèse que les perturbations remarquées chez le rat adulte sont causées par une vascularisation immature et inhomogène de l'hippocampe à P10 causant une atteinte hypoxique durant l'épisode de convulsion fébrile atypique. Ces résultats suggèrent donc que l'hypoxie durant un épisode de convulsions fébrile atypique mérite d'être davantage investiguée afin de développer de nouvelles avenues thérapeutiques pouvant diminuer l'impact des convulsions fébriles atypiques sur le développement cérébral.
|
329 |
L'acquisition et la cession des actions des sociétés chinoises par des investisseurs étrangersLi, Guannan 20 November 2010 (has links) (PDF)
L'apparition de l'acquisition et de la cession des actions étrangères en Chine s'inscrit dans la progression de développement de l'économie chinoise qui a été fortement stimulée par l'application de la politique d'ouverture. Depuis l'adhésion à l'OMC en 2001,les modes d'investissement de l'acquisition et de la cession d'actions ont graduellement commencé à remplacer celle d'investissement relative simplement à l'installation d'une entreprise étrangère en Chine. Bien que la législation chinoise ait essayé de contribuer à la protection de ces nouvelles modes d'investissement étranger, les défauts de loi ainsi que le vide juridique deviennent comme même l'obstacle principal qui empêche le développement de l'acquisition et la cession des actions étrangères en Chine. Dans ce contexte, la problématique de cette thèse est d'une part d'analyser l'ensemble des dispositions actuelles portant sur l'acquisition et la cession des actions étrangères afin de les mettre en œuvre en pratique, d'autre part de rationaliser les mécanismes juridiques chinois en recherchant la possibilité de réforme proposé.
|
330 |
Réalité augmentée en chirurgie : développement d'un pointeur intelligentLewis, Nicolas January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
Page generated in 0.0642 seconds