• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 4
  • Tagged with
  • 32
  • 32
  • 32
  • 32
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Segmentation de neurones pour imagerie calcique du poisson zèbre : des méthodes classiques à l'apprentissage profond

Poirier, Jasmine 13 September 2019 (has links)
L’étude expérimentale de la résilience d’un réseau complexe repose sur la capacité à reproduire l’organisation structurelle et fonctionnelle du réseau à l’étude. Ayant choisi le réseau neuronal du poisson-zèbre larvaire comme modèle animal pour sa transparence, on peut utiliser des techniques telles que l’imagerie calcique par feuillet de lumière pour imager son cerveau complet plus de deux fois par seconde à une résolution spatiale cellulaire. De par les bonnes résolutions spatiale et temporelle, les données à segmenter représentent par le fait même un gros volume de données qui ne peuvent être traitées manuellement. On doit donc avoir recours à des techniques numériques pour segmenter les neurones et extraire leur activité.Trois techniques de segmentation ont été comparées, soit le seuil adaptatif (AT), la forêtd’arbres décisionnels (ML), ainsi qu’un réseau de neurones à convolution (CNN) déjà entrainé. Alors que la technique du seuil adaptatif permet l’identification rapide et presque sans erreurdes neurones les plus actifs, elle génère beaucoup plus de faux négatifs que les deux autres méthodes. Au contraire, la méthode de réseaux de neurones à convolution identifie plus deneurones, mais en effectuant plus de faux positifs qui pourront, dans tous les cas, être filtrés parla suite. En utilisant le score F1 comme métrique de comparaison, les performances moyennes de la technique de réseau de neurones (F1= 59,2%) surpassent celles du seuil adaptatif (F1= 25,4%) et de forêt d’arbres de décisions (F1= 48,8%). Bien que les performances semblent faibles comparativement aux performances généralement présentées pour les réseauxde neurones profonds, il s’agit ici d’une performance similaire à celle de la meilleure techniquede segmentation connue à ce jour, soit celle du 3dCNN, présentée dans le cadre du concours neurofinder (F1= 65.9%). / The experimental study of the resilience of a complex network lies on our capacity to reproduceits structural and functional organization. Having chosen the neuronal network of the larvalzebrafish as our animal model for its transparency, we can use techniques such as light-sheet microscopy combined with calcium imaging to image its whole brain more than twice every second, with a cellular spatial resolution. Having both those spatial and temporal resolutions, we have to process and segment a great quantity of data, which can’t be done manually. Wethus have to resort to numerical techniques to segment the neurons and extract their activity. Three segmentation techniques have been compared : adaptive threshold (AT), random deci-sion forests (ML), and a pretrained deep convolutional neural network. While the adaptive threshold technique allow rapid identification and with almost no error of the more active neurons, it generates many more false negatives than the two other methods. On the contrary, the deep convolutional neural network method identify more neurons, but generates more false positives which can be filtered later in the proces. Using the F1 score as our comparison metrics, the neural network (F1= 59,2%) out performs the adaptive threshold (F1= 25,4%) and random decision forests (F1= 48,8%). Even though the performances seem lower compared to results generally shown for deep neural network, we are competitive with the best technique known to this day for neurons segmentation, which is 3dCNN (F1= 65.9%), an algorithm presented in the neurofinder challenge.
22

Premiers pas d'une validation de l'extension du formalisme de Richards-Wolf et poursuite de sa généralisation

Borne, Jeck 27 May 2019 (has links)
Ce projet de maîtrise s’insère dans l’effort de modélisation entourant le phénomène de focalisation extrême amorcé dans les groupes de recherche des professeurs Thibault et Piché. Le mémoire présente d’abord une comparaison entre le formalisme de Richards-Wolf étendu (ERWT) et les solutions numériques de propagation d’onde électromagnétique obtenues à l’aide d’un algorithme FDTD. Les résultats montrent que l’utilisation du formalisme étendu permet de traiter le processus de focalisation non paraxiale pour une gamme étendue de surfaces réfléchissantes avec peu de variations entre les deux techniques. Les limitations intrinsèques à l’algorithme utilisé et la divergence de la fonction d’illumination imparfaitement traitée pourraient expliquer les déviations observées. Ensuite, cherchant à améliorer le traitement de cette illumination, le processus de focalisation inverse a été développé. En effet, il est possible de formuler une inversion du formalisme de Richards-Wolf (RWT) pour des systèmes à symétrie de révolution en définissant l’illumination à polarisation radiale en fonction d’une distribution recherchée au foyer selon un seul axe (radial ou sur l’axe optique). En utilisant un seul axe, le problème de surdéfinir le champ ne se pose pas et un critère est fourni afin de conclure de la validité physique du patron d’illumination calculé. Avec la méthode proposée, il est souvent possible d’obtenir des solutions analytiques qui sont essentielles à l’obtention d’une meilleure compréhension des différences entre les modèles paraxiaux et non paraxiaux. De plus, il est facile d’adapter cette dernière afin d’obtenir des solutions numériques pour des problèmes plus complexes. Ainsi, les figures d’illumination calculées peuvent directement être utilisées et sont particulièrement utiles lorsque la dimension optimale de la tâche focale pour une application donnée est connue. Un article a été soumis basé sur ces travaux. Enfin, une généralisation culminant avec le traitement de surfaces asphériques avec aberrations est présentée en adaptant le formalisme étendu (ERWT). Cet ajout au formalisme permet d’envisager de modéliser des surfaces complexes et possiblement hors de portée des corrections seulement en phase usuellement utilisées dans la littérature. Cependant, ces ajouts au formalisme complexifient de manière appréciable les intégrales de diffraction de Richards-Wolf. Finalement, une démonstration de la procédure a été effectuée pour un miroir parabolique comportant un léger tilt. / This project is part of the modeling effort around extreme focusing phenomenon taking place in the research groups of professor Thibault and Piché. At first, this thesis shows the comparison between the modeling by the extended Richards-Wolf formalism (ERWT) and by FDTD simulations of the field propagation. Both methods used for computing the electromagnetic distribution resulting from the reflection on a mirror in a non paraxial setup show satisfactory agreement. In fact, the extended formalism is suited to accurately model a large spectrum of reflecting surfaces such as elliptic mirrors, for which the description is not possible with the classical formalism of Richards-Wolf. Some intrinsic limitations of the used FDTD algorithm and the divergence of the illumination could explained the observed variations. Then, looking to solve the illumination problem, the inversion formalism has been developed. The integral of the Richards-Wolf formalism (RWT) of an axisymetric optical system can be inverted to define the radially polarized illumination pattern as a function of the electromagnetic distribution at the focus over a given axis (radial or the optical axis). Using only one axis at the focus, the field distribution is not over defined and a criterion is given to check the physical validity of the obtained illumination pattern. The method gives numerical or, in some cases, analytic solutions that can be used to obtain the optimized focal pattern fora given application. The analytical solutions are relevant as they can intuitively show the differences between the paraxial and non paraxial regimes. An article has been submitted on this particular subject. Finally, this thesis describes the generalization of the extended formalism to cover aspheric surfaces with aberrations. The procedure gives the possibility to accurately model complex reflecting surfaces that would otherwise be out of reach of the formalism. However, the complexity of the formalism increases compared to the initial diffraction integral. The proposed technique is demonstrated with a slightly tilted parabolic mirror.
23

A quality control tool for HDR prostate brachytherapy based on patient-specific geometry and stochastic frontier analysis

Moosavi Askari, Reza 28 October 2019 (has links)
Cette étude porte sur le développement d’un outil de contrôle qualité basé sur l’expérience, dérivé du concept de frontière stochastique en économie et s’appuyant sur des connaissances géométriques spécifiques au patient pour améliorer la qualité des traitements de curiethérapie à haut débit de dose pour le cancer de la prostate. Cent plans cliniques de curiethérapie à haut débit de dose de la prostate ont été utilisés dans cette étude, dans laquelle l’échographie transrectale était la seule modalité d’imagerie. Une fraction unique de 15 Gy a était prescrite à tous ces patients. Un algorithme de recuit simulé de planification inverse a été appliqué pour réaliser tous les plans et Oncentra Prostate a été employé comme système d’imagerie et de planification du traitement en temps réel. Les recommandations relatives aux paramètres de dose de la société américaine de curiethérapie pour la cible et les organes à risque ont été suivies. Les relations entre les paramètres géométriques et les paramètres dosimétriques d’intérêt sont examinées. Les paramètres géométriques sont liés aux dimensions anatomiques des patients et ceux associés aux cathéters. Pour déterminer les paramètres géométriques dominants dans un modèle de frontière stochastique donné, les relations monotones entre les paramètres géométriqueset les paramètres dosimétriques d’intérêt sont mesurées avec une approche non paramétrique, à savoir le coefficient de corrélation de Spearman. Ensuite, une recherche de force brute est effectuée pour un modèle donné dans lequel différents modèles, incluant toutes les combinaisons possibles des paramètres géométriques dominantes, sont optimisés. L’optimisation est accomplie en utilisant une méthode de vraisemblance maximale implémentée dans le progiciel de calcul statistique R, avec son algorithme de recuit simulée généralisée. Le test du rapport de vraisemblance et sa valeur-p correspondante sont utilisés pour comparer la signification statistique de l’ajout de nouveaux paramètres géométriques aux modèles. Un modèle de production pour la cible et un modèle de coût pour chacun des organes à risque sont développés pour le traitement par curiethérapie à haut débit de dose guidé par l’échographie transrectale. De plus, pour valider si chacun des modèles développés est universel, nous l’appliquons à une autre catégorie de traitement de la curiethérapie à haut débit de dose, dans laquelle la tomodensitométrie était utilisée comme modalité d’imagerie plutôt que de l’échographie transrectale. Ainsi, une nouvelle cohorte de cent plans cliniques curiethérapie à haut débit de dose guidés par la tomodensitométrie est prise en compte. Un modèle de frontière stochastique de production pour la cible et trois modèles de coût pour les organes à risque basés sur la tomodensitométrie sont développés. Enfin, les modèles intégrés de la tomodensitométrie et de l’échographie transrectale sont comparés. / This thesis focuses on developing an experience-based quality control (QC) tool, derived from the concept of stochastic frontier (SF) analysis in economics and based on patient-specific geometric knowledge to improve the quality of the high-dose-rate brachytherapy (HDR-BT) treatment for prostate cancer. One hundred clinical HDR prostate BT plans, using the transrectal ultrasound (TRUS) asthe only imaging modality, all treated with a single fraction of 15 Gy, and made using Inverse PlanningSimulated Annealing (IPSA) algorithm, are studied. Also, Oncentra Prostate system is employed as the real-time 3D prostate imaging and treatment planning system. American Brachytherapy Society dose parameter recommendations for target and organs at risk (OARs) were followed. Relationships between all the different geometric parameters (GPs) and the four dosimetric parameters (DPs) V100 of the prostate, V75 of the bladder and rectum, and D10 of the urethra were examined. Geometricinformation of the patients and catheters are considered as different GPs. To find the dominant GPs in a given SF model, monotonic relationships between the GPs and DPs of interest are measured using a nonparametric approach: the Spearman correlation coefficient. Then, to determine the optimal SF model for each of the target production SF, and the OARs cost SF models, brute-force searches are performed. Different SF models including all the possible combinations of the dominant GPs in the SF model under study are optimized. Optimization is done using a maximum likelihood method implemented in the statistical computing package R, along with its Generalized Simulated Annealing algorithm. The likelihood ratio test and its corresponding p-value are used to compare the statistical significance of adding new GPs to SF models. A production SF (PSF) model for the target, and a costSF (CSF) model for each of the bladder, rectum, and urethra are developed for TRUS-guided HDR-BTtreatment. The difference between the dose value of a plan obtained by IPSA and the one predicted by an SF model is explored. Additionally, to verify if each of the models developed for the TRUS-guided category of the HDR-BT treatment for prostate is universal, we apply it on another category of HDR-BT treatment, in which computed tomography (CT) was used as the imaging modality. So, a different cohort of one hundred clinical CT-guided HDR-BT plans is taken into consideration. A target production SF and three OARs cost SF models are developed for the CT-based plans. Subsequently, the built-in SF models for the TRUS-based and CT-based plans are compared.
24

Investigation numérique de l'instabilité Raman dans les lasers à fibre optique dopée à l'ytterbium en régime continu de haute puissance

Huneault, Mathieu 07 May 2019 (has links)
Les lasers à fibre optique dopée à l’ytterbium en régime continu de haute puissance ontune part de marché grandissante pour des applications d’usinage de métaux. Malgré qu’il s’agisse d’une technologie relativement répandue, un important problème subsiste dans laplupart de ces lasers. À haute puissance, la diffusion Raman stimulée transfère une partie de la puissance de la longueur d’onde principale d’émission des lasers autour de 1070 nm à la première bande de Stokes Raman autour de 1120 nm, ce qu’on appelle l’instabilité Raman. Cette puissance transférée est inutilisable et peut même être dangereuse pour le système laser et ses utilisateurs. Malgré les travaux théoriques et expérimentaux effectués sur ces lasers, très peu d’explications ont été fournies sur les liens entre les paramètres de la fibre optique et des réseaux de Bragg formant la cavité laser et l’instabilité Raman. Le but du projet de maîtrise présenté dans ce mémoire est donc de développer un modèle de simulation numérique de ces lasers, afin de comprendre et d’identifier les mécanismes dominants qui favorisent l’instabilité Raman et de trouver des configurations de montage la minimisant. Ce mémoire présente les deux modèles de simulation développés dans le cadre de ce projet. Le premier traite la propagation du signal laser comme étant unidirectionnelle, alors que le second la traite comme étant bidirectionnelle, ce qui se rapproche plus de la situation expérimentale. Le montage typique simulé est constitué d’une fibre optique à double gaine dopée à l’ytterbium ayant une grande aire modale effective, d’un réseau de Bragg à haute réflectivité et d’un réseau de Bragg à faible réflectivité servant de coupleur de sortie. Les simulations ont permis d’identifier cinq paramètres de la cavité laser ayant un impact important sur l’instabilité Raman. Une faible puissance moyenne du signal, une courte fibre optique de gain, une configuration de pompage en contrapropagation, c’est-à-dire par le côté du coupleur de sortie, ainsi qu’une plus faible réflectivité et une large bande réfléchissante du réseau de Bragg à faible réflectivité permettent de limiter la génération de l’instabilité Raman. L’optimisation de ces paramètres permet d’obtenir une cavité laser ayant extrêmement peu d’instabilité Ra-man. Ce faible niveau d’instabilité Raman semble être causé par une plus faible puissance intracavité, une courte distance de propagation et des modulations rapides de la puissance du signal. Des montages simulés incluant un filtre dans la cavité à la longueur d’onde de Stokes Raman, un réflecteur non linéaire ou une cavité de basse puissance amplifiée ont également montré une réduction significative de l’intensité de l’onde de Stokes Raman. / Continuous high-power ytterbium-doped fiber lasers have an increasing market share formetal processing applications. Despite their widespread use, these lasers still suffer a ma-jor problem. At high power, stimulated Raman scattering shifts the power from the main emission wavelength around 1070 nm to the first Raman Stokes sideband around 1120 nm. This process is called Raman instability. The shifted power becomes useless and can even be dangerous for both the laser system and its users. Previous experimental and theoretical analyses have failed to provide clear explanations on the link between the Raman instability and the parameters of the ytterbium-doped optical fiber and the fiber Bragg gratings forming the laser cavity. The goal of this master’s degree project was to develop a simulation model for continuous high-power ytterbium-doped fiber lasers in order to identify and understand how the parameters of the laser cavity affect the Raman instability and to find cavity configurations that reduce it. This master’s thesis presents the two simulation models developed during this project. The first model considers unidirectionnal propagation of the laser signal while the second one considers bidirectionnal propagation. The latter is thus a more realistic model of such lasers.The typical simulated setup is made of a double-clad ytterbium-doped fiber with a large mode area, a high reflectivity Bragg grating and a low reflectivity Bragg grating that isused as output coupler. The simulations allowed to identify five cavity parameters having an impact on the Raman instability. A low average power, a short gain fiber, a counter-propagation pumping setup as well as a low reflectivity and a large reflective bandwidth for the fiber Bragg grating used as the output coupler help minimizing the Raman instability.The optimisation of these parameters creates a laser cavity with an extremely low power shift to the Raman Stokes sideband. The low Raman instability seems to be caused by a lower intra-cavity power, a shorter propagation distance and fast power modulations in thesignal. Incorporating a filter in the cavity, using a nonlinear reflector as output coupler or using a setup that includes a low-power master oscillator in combination with a high-power amplifier have also been simulated and show a reduction of the Raman instability.
25

Compression d'impulsions d'électrons à l'aide d'impulsions laser térahertz ultrabrèves et fortement focalisées

Robitaille, Simon 06 May 2019 (has links)
Il est possible d'accélérer des électrons par champ direct avec une impulsion laser intense de quelques cycles optiques et de polarisation radiale. Cette méthode peut générer des impulsions d'électrons convenables pour de la diffraction électronique ultrarapide. Les impulsions électroniques ainsi générées vont toutefois s'étirer en se propageant vers une cible dû à la différence d'énergie entre les électrons d'une même impulsion et à la répulsion coulombienne. Afin de comprimer ces impulsions d'électrons, nous proposons d'utiliser des impulsions laser térahertz intenses. En effet, le puissant champ électromagnétique des impulsions laser térahertz peut accélérer les électrons à l'arrière du paquet ou ralentir ceux à l'avant. Le présent mémoire de maîtrise explore la possibilité de comprimer des impulsions d'électrons en utilisant des ondes térahertz linéairement polarisées (dans le mode LP01). Des simulations numériques ont _été réalisées afin d'étudier ce schéma de compression. Les résultats montrent entre autres qu'il est possible de comprimer une impulsion électronique de 400 fs _a 150 fs avec un gain net en énergie. Cependant, les amplitudes de champ électrique nécessaires sont de l'ordre du GV/m (109 V/m), ce qui est un défi pour la technologie actuelle. Des champs électriques moins importants peuvent toutefois être utilisés pour comprimer des paquets d'électrons monoénergétiques. Les impulsions électroniques peuvent ainsi subir une compression de 350 fs _a 20 fs. Ce schéma pourrait être une alternative aux cavités radiofréquences souvent utilisées pour comprimer des impulsions électroniques. / Electrons can be directly accelerated by the longitudinal electric field component of an intense, few-cycle, radially-polarized laser pulse. It has been predicted that the method can be used to produce electron pulses suitable for ultrafast electron diffraction. However, after acceleration, electron pulses broaden as they travel up to a target due to energy dispersion and space charge effects. In ordre to achieve the compression of electron pulses, one can use intense terahertz laser pulses. In fact, the intense electromagnetic fields of terahertz laser pulses may accelerate the electrons trailing at the end of electron pulses or decelerate the electrons at the front. The present master's thesis investigate the possibility of compressing electron pulses using linearly polarized terahertz waves (LP01 mode). Numerical simulations have been made to explore this compression scheme. Some results show that a 400 fs electron pulse can be compressed to 150 fs with a net energy gain. However the required electric field amplitude must be in the GV/m scale (109 V/m), which is a challenge for actual technology. Lower electric field amplitude can be used to compress monoenergetic electron pulses. Thereby, electron pulses can be compressed from 350 fs to 20 fs. This approach may be an alternative to the radiofrequency cavity scheme often used for electron pulse compression.
26

Multi-criteria optimization algorithms for high dose rate brachytherapy

Cui, Songye 08 November 2019 (has links)
L’objectif général de cette thèse est d’utiliser les connaissances en physique de la radiation, en programmation informatique et en équipement informatique à la haute pointe de la technologie pour améliorer les traitements du cancer. En particulier, l’élaboration d’un plan de traitement en radiothérapie peut être complexe et dépendant de l’utilisateur. Cette thèse a pour objectif de simplifier la planification de traitement actuelle en curiethérapie de la prostate à haut débit de dose (HDR). Ce projet a débuté à partir d’un algorithme de planification inverse largement utilisé, la planification de traitement inverse par recuit simulé (IPSA). Pour aboutir à un algorithme de planification inverse ultra-rapide et automatisé, trois algorithmes d’optimisation multicritères (MCO) ont été mis en oeuvre. Suite à la génération d’une banque de plans de traitement ayant divers compromis avec les algorithmes MCO, un plan de qualité a été automatiquement sélectionné. Dans la première étude, un algorithme MCO a été introduit pour explorer les frontières de Pareto en curiethérapie HDR. L’algorithme s’inspire de la fonctionnalité MCO intégrée au système Raystation (RaySearch Laboratories, Stockholm, Suède). Pour chaque cas, 300 plans de traitement ont été générés en série pour obtenir une approximation uniforme de la frontière de Pareto. Chaque plan optimal de Pareto a été calculé avec IPSA et chaque nouveau plan a été ajouté à la portion de la frontière de Pareto où la distance entre sa limite supérieure et sa limite inférieure était la plus grande. Dans une étude complémentaire, ou dans la seconde étude, un algorithme MCO basé sur la connaissance (kMCO) a été mis en oeuvre pour réduire le temps de calcul de l’algorithme MCO. Pour ce faire, deux stratégies ont été mises en oeuvre : une prédiction de l’espace des solutions cliniquement acceptables à partir de modèles de régression et d’un calcul parallèle des plans de traitement avec deux processeurs à six coeurs. En conséquence, une banque de plans de traitement de petite taille (14) a été générée et un plan a été sélectionné en tant que plan kMCO. L’efficacité de la planification et de la performance dosimétrique ont été comparées entre les plans approuvés par le médecin et les plans kMCO pour 236 cas. La troisième et dernière étude de cette thèse a été réalisée en coopération avec Cédric Bélanger. Un algorithme MCO (gMCO) basé sur l’utilisation d’un environnement de développement compatible avec les cartes graphiques a été mis en oeuvre pour accélérer davantage le calcul. De plus, un algorithme d’optimisation quasi-Newton a été implémenté pour remplacer le recuit simulé dans la première et la deuxième étude. De cette manière, un millier de plans de traitement avec divers compromis et équivalents à ceux générés par IPSA ont été calculés en parallèle. Parmi la banque de plans de traitement généré par l’agorithme gMCO, un plan a été sélectionné (plan gMCO). Le temps de planification et les résultats dosimétriques ont été comparés entre les plans approuvés par le médecin et les plans gMCO pour 457 cas. Une comparaison à grande échelle avec les plans approuvés par les radio-oncologues montre que notre dernier algorithme MCO (gMCO) peut améliorer l’efficacité de la planification du traitement (de quelques minutes à 9:4 s) ainsi que la qualité dosimétrique des plans de traitements (des plans passant de 92:6% à 99:8% selon les critères dosimétriques du groupe de traitement oncologique par radiation (RTOG)). Avec trois algorithmes MCO mis en oeuvre, cette thèse représente un effort soutenu pour développer un algorithme de planification inverse ultra-rapide, automatique et robuste en curiethérapie HDR. / The overall purpose of this thesis is to use the knowledge of radiation physics, computer programming and computing hardware to improve cancer treatments. In particular, designing a treatment plan in radiation therapy can be complex and user-dependent, and this thesis aims to simplify current treatment planning in high dose rate (HDR) prostate brachytherapy. This project was started from a widely used inverse planning algorithm, Inverse Planning Simulated Annealing (IPSA). In order to eventually lead to an ultra-fast and automatic inverse planning algorithm, three multi-criteria optimization (MCO) algorithms were implemented. With MCO algorithms, a desirable plan was selected after computing a set of treatment plans with various trade-offs. In the first study, an MCO algorithm was introduced to explore the Pareto surfaces in HDR brachytherapy. The algorithm was inspired by the MCO feature integrated in the Raystation system (RaySearch Laboratories, Stockholm, Sweden). For each case, 300 treatment plans were serially generated to obtain a uniform approximation of the Pareto surface. Each Pareto optimal plan was computed with IPSA, and each new plan was added to the Pareto surface portion where the distance between its upper boundary and its lower boundary was the largest. In a companion study, or the second study, a knowledge-based MCO (kMCO) algorithm was implemented to shorten the computation time of the MCO algorithm. To achieve this, two strategies were implemented: a prediction of clinical relevant solution space with previous knowledge, and a parallel computation of treatment plans with two six-core CPUs. As a result, a small size (14) plan dataset was created, and one plan was selected as the kMCO plan. The planning efficiency and the dosimetric performance were compared between the physician-approved plans and the kMCO plans for 236 cases. The third and final study of this thesis was conducted in cooperation with Cédric Bélanger. A graphics processing units (GPU) based MCO (gMCO) algorithm was implemented to further speed up the computation. Furthermore, a quasi-Newton optimization engine was implemented to replace simulated annealing in the first and the second study. In this way, one thousand IPSA equivalent treatment plans with various trade-offs were computed in parallel. One plan was selected as the gMCO plan from the calculated plan dataset. The planning time and the dosimetric results were compared between the physician-approved plans and the gMCO plans for 457 cases. A large-scale comparison against the physician-approved plans shows that our latest MCO algorithm (gMCO) can result in an improved treatment planning efficiency (from minutes to 9:4 s) as well as an improved treatment plan dosimetric quality (Radiation Therapy Oncology Group (RTOG) acceptance rate from 92.6% to 99.8%). With three implemented MCO algorithms, this thesis represents a sustained effort to develop an ultra-fast, automatic and robust inverse planning algorithm in HDR brachytherapy.
27

Études des structures induites à la surface de verres chalcogénures par laser femtoseconde

Turgeon, Samuel 25 June 2019 (has links)
L’étude des interactions laser-verre est d’un grand intérêt en raison des différentes applications qui en découlent. Dans le cadre de ce champ d’études, ce projet de recherche s’intéresse plus particulièrement aux interactions laser femtoseconde-verres chalcogénures, et cible lesinteractions impliquant des verres à base d’arsenic et de soufre. Des verres riches en sulfures ont été préparés dans le domaine binaire AsxS100–x avec x variant entre 10 et 40. Les verres ont été préparés dans des ampoules scellées sous atmosphère contrôlée et leurs caractéristiques thermiques, optiques et structurales ont été explorées. Les interactions laser-verre ont été étudiées en utilisant un laser femtoseconde opérant à 800 nm. Les études ont été réalisées de manière systématique en variant la puissance et le temps d’exposition du laser. Des études similaires ont également été réalisées à deux autres longueurs d’onde, soit 400 nm et 266 nm. L’interaction laser-verre chalcogénures a induit la formation de nanostructures avec des caractéristiques variant en fonction du temps d’exposition et aussi en fonction de la longueur d’onde d’irradiation. Les analyses de surface parmicroscopie électronique à balayage (SEM) et par microscopie de force atomique (AFM) ont montré une ablation de surface et une forte expansion sous irradiation à 800 nm. Différentes structures ont été formées à la surface du verre et leurs caractéristiques structurales ont été étudiées par spectroscopie Raman. Finalement, dans le but de comprendre l’effet d’ajout de soufre sur la formation des nano-structures, une corrélation a été faite entre les différentes structures observées en se basant sur les différents modèles déjà reportés dans la littérature. / The study of laser-glass interaction is of great interest because of the various related application. Within this field of study, this research studies specifically femtosecond laser-chalcogenide glass interaction and more specifically glasses made of arsenic and sulfur. Sulfiderich glass were prepared in the binary domain AsxS100–xwith x varying from 10 to 40. Glasseswere prepared under controlled atmosphere in sealed ampoules and their thermal, optical and structural properties were explored. Laser-glass interactions were studied using a 800 nm femtosecond laser. The studies were performed systematically by varying laser power and exposition time. Similar studies were done at two other wavelength, 400 nm and 266 nm. The chalcogenide glass-femtosecond laser interaction induced nanostructures with characteristics varying depending on laser parameters. Surface analysis done with a scanning electron microscope (SEM) and an atomic force microscope (AFM) show surface ablation and large expansion after 800 nm laser irradiation. A variety of surface structures were created by laser irradiation and Raman spectroscopy studies explored their structural properties. Finally, to understand the effect of increased sulfur content on the induced nanostructures, corellations supported by various existing models were done on the observed structures.
28

Application of femtosecond filamentation in gaseous media

Hosseini, Sima 29 May 2019 (has links)
Cette thèse décrit plusieurs résultats expérimentaux impliquant le phénomène de la filamentation laser qui se produit lorsque des impulsions laser ultrabrèves se progagent dans l'air avec une intensité de l'ordre de ~ 10¹³ W/cm2. Un laser titane-saphir est utilisé pour gé- nérer des impulsions femtosecondes dans l'infrarouge (800 nm). En raison de ses propriétés particulières, cette forme de propagation est étudiée pour de nombreuses applications. Nous nous concentrons dans cette thèse sur la télédétection et l'identification de polluants atmosph ériques. Notre objectif est d'améliorer les résultats et de résoudre certains problèmes dans la détection de polluants, en particulier de ceux qui ont le même spectre de fluorescence induit par filamentation. Tous les résultats présentés ici ont été obtenus en laboratoire. La télédétection de polluants dans l'atmosphère implique la propagation de filaments à haute altitude où la pression atmosphérique est basse. Il est donc important de bien comprendre le phénomène de la filamentation dans ces conditions. Nous avons expérimentalement et numériquement étudié l'effet d'une basse pression sur un filament unique dans l'air. Les expériences furent réalisées en variant la pression à l'intérieur d'une cellule entre 0,3 et 1 fois la pression atmosphérique normale (1 atm ~ 1:01 X 10⁵ Pa). Une approche pour détecter à distance la présence de polluants atmosphériques est de capter la fluorescence émise par les fragments moléculaires créés lors du passage de l'impulsion laser. Ce signal est toutefois lourdement atténué avant d'atteindre le détecteur en raison de la grande distance de propagation dans ces applications et il est important de trouver des moyens pour augmenter le signal de fluorescence. Nous avons donc étudié la possibilité d'utiliser le filament lui-même comme milieu de gain dans la direction de propagation pour amplifier les émissions des impuretés de l'air. Il avait déjà été démontré qu'un filament peut amplifier le signal rétrodiffusé dans l'air pur alors nous avons débuté nos expériences dans l'air pour ensuite étudier des mélanges air-hydrocarbones ( 2% de CH₄, C₂H₂ et C₂H₄ dans l'air). Nous avons détecté la fluorescence émise par l'azote neutre à ~ 337 nm dans l'air pur et par les fragments CH à ~ 431 nm dans des mélanges air-hydrocarbones. Dans les deux cas, le signal de fluorescence émis dans la direction opposée à celle du laser a augmenté de manière nonlin éaire en fonction de la longueur du filament, tandis que celui émis sur les côtés montrait une tendance linéaire. Le dernier chapitre de cette thèse traite d'une nouvelle approche pour identifier les molé- cules basée sur leur alignement. Nous montrons en effet que des polluants dans l'air peuvent être détectés et identifiés en mesurant les constantes de rotation de diférentes molécules. Il est important de noter que cette technique permet de distinguer des polluants dont les fragments émettent le même spectre de fluorescence (les mêmes raies atomiques et bandes moléculaires). Les résultats présentés dans cette thèse ont été obtenus par des études de type pompe-sonde utilisant le signal diffusé de l'impulsion de sonde, contrairement à d'autres expériences qui détectent la lumière transmise. Le fait d'observer le signal diffusé plutôt que celui transmis rend cette technique pertinente pour des applications de télédétection. Même si les molécules dans un gaz sont orientées de façon aléatoire, une impulsion ultrabrève et intense peut forcer les molécules à s'aligner non seulement pendant le passage de l'impulsion mais aussi après. Plus spécifiquement, un paquet d'onde rotationnel peut être créé par une impulsion femtoseconde, ce qui génère un alignement moléculaire en l'absence de champ après le passage de l'impulsion qui peut se reformer à intervalles réguliers. En plus de permettre la détermination des constantes de rotation et l'identication des molécules, cette technique donne également accès à des informations sur la dissipation dans le milieu en étudiant l'évolution du paquet d'onde sur une longue période (plusieurs retours périodiques de l'alignement moléculaire) après le passage de l'impulsion. / This thesis presents experimental results obtained during filamentation of ultrashort and intense laser pulses, with an intensity of ~ 10¹³ W/cm2 in air. A femtosecond Ti:Sapphire laser was used to generate pulses in the infrared at 800 nm. Because of some unique features of the filaments, this particular form of propagation has been considered for many applications. In this work, we focus our attention on remote sensing and the detection and identification of atmospheric pollutants. The goal is to improve the results and resolve some problems in the detection of air pollutants, especially those with the same filament-induced fluorescence spectrum. The presented experiments were performed inside a laboratory. The remote sensing of pollutants in the atmosphere mainly relies on the propagation of filaments at high altitude where the pressure is low. For this application, it is therefore important to have a good understanding of filamentation in these real conditions. We experimentally and numerically studied the effect of lowering the pressure on a single filament in air. The experiment was done by varying air pressure inside a cell between 0.3 and 1 standard atmospheric pressure (1 atm ~ 1:01 X 10⁵ Pa). One way to remotely detect atmospheric pollutants is to record the returning fluorescence signal from the molecular fragments that are created during filamentation. Because the propagation distance is large in these spectroscopic experiments, the signal is heavily attenuated before reaching the detector and it is important to look for a solution to enhance the fluorescence signal. We therefore investigated the possibility of using the filament itself as a gain medium along the propagation direction to amplify the emission of some impurities in air. It is known that the femtosecond laser filament can amplify backward-directed signal in pure air, so we started our experiments in air, and then extended them to air-hydrocarbons mixtures (2% de CH₄, C₂H₂ et C₂H₄ dans l'air). The fluorescence emission from neutral nitrogen at ~ 337 nm in pure air and from CH fragments at ~ 431 nm in air-hydrocarbons mixtures was detected. In both cases, the fluorescence signal emitted in the direction opposed to the laser propagation increased nonlinearly with the filament length, unlike the emission directed on the sides which showed a linear trend. The last chapter of the thesis introduces a new way to identify molecules that relies on their alignment. Indeed by measuring the rotational constants of different molecules using iv eld-free molecular alignment, we show that pollutants can be detected and identied in air. It is important to mention that this approach can distinguish pollutants for which the excited fragments have the same fluorescence spectra (same atomic lines and molecular bands). The results reported in this thesis were obtained by a pump-probe experiment where the scattered signal of the probe pulse was detected, as opposed to other experiments which collected the transmitted light. Observing the scattered signal instead of the transmitted one makes this technique appropriate for remote sensing applications. Even though molecules are randomly oriented in the gas phase, it is shown that ultrafast intense laser pulses can force molecules to align both in the presence of the laser feld as well as after the passage of the pulse. More specifically, a rotational wavepacket can be created by an ultrashort laser pulse, leading to a feld-free alignment of the molecules after the laser pulse has passed which can revive at regular intervals. Therefore, in addition to finding rotational constants and identifying molecules, it is possible to extract information about the dissipative medium by studying the changes in the wavepacket a long time (several periodic revivals of molecular alignment) after the passage of the pulse. / Filamentation laser
29

Système optique d'imagerie haut contraste embarqué sur un ballon stratosphérique

Ouellet, Mireille 29 October 2019 (has links)
Plusieurs projets de télescopes spatiaux ont pour objectif d’étudier des exoplanètes en ayant recours à des techniques d’imagerie directe à haut contraste. Afin d’atteindre une différence de contraste requise entre la lumière de l’étoile et celle réfléchie par l’exoplanète, ses systèmes doivent utiliser un coronographe pour occulter la lumière de l’étoile et corriger en temps réel les erreurs de front d’onde avec des techniques d’optique adaptative. Les aberrations sont détectées par un analyseur de front d’onde, puis une boucle de contrôle envoie une commande qui modifie la surface d’un miroir déformable pour compenser les erreurs de front d’onde. Les performances des systèmes d’optiques adaptatives sont cependant souvent limitées par la présente d’erreurs quasi statiques qui sont causées par la différence de trajet optique entre la caméra de science et le senseur de front d’onde. Un système d’imagerie haut contraste a donc été développé pour démontrer le potentiel d’une technique de contrôle qui permet d’éliminer cette source d’erreur. Cette boucle de contrôle a la particularité d’utiliser un coronographe qui permet d’analyser les erreurs de front d’onde directement à partir de l’image de la caméra de science. Le système optique développé dans le cadre de ce mémoire a été testé en laboratoire et a également été optimisé pour réaliser une démonstration fonctionnelle dans des conditions similaires à l’espace lors d’un vol de ballon dans la stratosphère. Les résultats de vol ont permis de valider la maturité technologique de certaines composantes qui ont le potentiel d’être utilisées pour les prochaines générations de télescopes spatiaux. / Several space telescope projects aim to study exoplanets using high-contrast direct imaging techniques. In order to achieve the required difference in contrast between the light from the star and that reflected by the exoplanet, those systems must use a coronagraph to mask the light of the star and correct in real time wavefront errors with adaptive optics techniques.The aberrations are detected by a wavefront sensor, then a control loop sends a command that modifies the surface of a deformable mirror to compensate for the wavefront errors. However, the performance of adaptive optics systems is often limited by the present quasi-static errors that are caused by the optical path difference between the science camera and the wavefront sensor. A high contrast imaging system has been developed to demonstrate the potential of a control technique which enables the reduction of this kind of error. This control loop has the particularity of using a coronagraph which allows the analyze of the wavefront errors directly from the science camera’s image. The optical system developed within the frameworkof this master’s project has been tested in a laboratory and was also optimized to perform afunctional demonstration in space-like conditions during a balloon flight in the stratosphere.The flight results validated the readiness level of some components that could potentially beused for the next generation of space telescopes.
30

"Sensor-in-fibre" optical probes for molecular sensing in the gastrointestinal tract of murine models / "Sensor-in-fibre" optical probes for molecular sensing in the gastrointestinal tract of murine models

Azzi, Victor, Azzi, Victor January 2019 (has links)
L’obésité et les maladies cardiométaboliques sont des problèmes de santé publique dans les populations nordiques du Canada ainsi qu’à travers le monde. Il est actuellement proposé que l’augmentation de ces désordres est en partie causée par divers facteurs environnementaux qui génèrent des changements importants du microbiote intestinal. Cette communauté microbienne qui peuple notre tractus gastrointestinal joue un rôle clé dans le métabolisme de nutriments, mais peut aussi avoir des effets néfastes lorsque son équilibre avec l’hôte est perturbé. Cette compréhension a mis en évidence le manque d’outils prédictifs permettant un diagnostic rapide et efficace dans le domaine biomédical. L’analyse actuelle du microbiote est réalisée à posteriori au niveau des selles, ce qui requiert du personnel hautement qualifié de même que des procédures longues et dispendieuses. L’objectif de ce projet est de concevoir un capteur optique qui, une fois implanté dans l’intestin, permettra de détecter en temps réel des biomarqueurs clés produit par le microbiome intestinal. Dans le cadre d’une preuve de concept, une architecture fibrée simple permettant de mesurer quantitativement des variations de pH est démontrée. Contrairement aux capteurs fibrés traditionnels, la sonde optique de ce projet exploite l’onde évanescente générée sur la périphérie de l’interface pour exciter des nanomatériaux greffés dont les propriétés de fluorescence varient selon leur environnement chimique. Les mesures sont possibles grâce à un système optique mobile contrôlé par un logiciel convivial qui permet à un utilisateur nonexpert d’utiliser l’appareil. Les résultats confirment qu’avec un étalonnage préalable il est possible avec cette sonde modèle de prendre des mesures quantitatives du pH en temps réel in vitro. Les expériences préliminaires suggèrent que la sonde permet aussi de mesurer le pH en temps réel dans l’intestin in vivo. / L’obésité et les maladies cardiométaboliques sont des problèmes de santé publique dans les populations nordiques du Canada ainsi qu’à travers le monde. Il est actuellement proposé que l’augmentation de ces désordres est en partie causée par divers facteurs environnementaux qui génèrent des changements importants du microbiote intestinal. Cette communauté microbienne qui peuple notre tractus gastrointestinal joue un rôle clé dans le métabolisme de nutriments, mais peut aussi avoir des effets néfastes lorsque son équilibre avec l’hôte est perturbé. Cette compréhension a mis en évidence le manque d’outils prédictifs permettant un diagnostic rapide et efficace dans le domaine biomédical. L’analyse actuelle du microbiote est réalisée à posteriori au niveau des selles, ce qui requiert du personnel hautement qualifié de même que des procédures longues et dispendieuses. L’objectif de ce projet est de concevoir un capteur optique qui, une fois implanté dans l’intestin, permettra de détecter en temps réel des biomarqueurs clés produit par le microbiome intestinal. Dans le cadre d’une preuve de concept, une architecture fibrée simple permettant de mesurer quantitativement des variations de pH est démontrée. Contrairement aux capteurs fibrés traditionnels, la sonde optique de ce projet exploite l’onde évanescente générée sur la périphérie de l’interface pour exciter des nanomatériaux greffés dont les propriétés de fluorescence varient selon leur environnement chimique. Les mesures sont possibles grâce à un système optique mobile contrôlé par un logiciel convivial qui permet à un utilisateur nonexpert d’utiliser l’appareil. Les résultats confirment qu’avec un étalonnage préalable il est possible avec cette sonde modèle de prendre des mesures quantitatives du pH en temps réel in vitro. Les expériences préliminaires suggèrent que la sonde permet aussi de mesurer le pH en temps réel dans l’intestin in vivo. / Obesity and cardiometabolic diseases (CMD) are major public health issues among Canada’s northern population and throughout the world. It is believed that the exponential rise in CMD incidence is due to numerous environmental factors, which are driving important changes in the gut microbiome. This microbial community which populates our intestinal tract plays a key role in nutrient and energy metabolism, but can also drive pathogenic mechanisms when its interaction with the host is disrupted. This understanding has highlighted the lack of predictive tools and biomarkers for rapid and efficient diagnostic of various diseases within the medical field. Current analysis of the gut microbiota is mostly based on sequencing technologies to determine microbial composition and gene expression, while functional analyses are limited to surrogate markers of microbial activities through stool metabolites. The goal of this study is to develop a “Sensor-in-Fibre” probe with the capacity to detect key microbiome-derived molecules relevant to CMD pathogenesis in real time in vivo. The optical probe takes advantage of evanescent fields generated on its peripheral interface to excite species-selective surface-grafted sensing nanomaterials that have varying fluorescent properties based on the target molecules present in the surrounding environment. As a model system, FITC functionalized with (3-aminopropyl)triethoxysilane was grafted on the periphery of an optical fiber, leading to qualitative pH measurements revealed through fluorescence emission qualities. These measurements are possible due to the use of a mobile signal collection apparatus in conjunction with custom software made to enable a non-expert technician to use it. The experimental results demonstrate that, with the appropriate preparation, it is possible to quantitatively measure pH with this probe structure in vitro and preliminary studies suggest that the probe is also capable of measuring pH in vivo in real time. / Obesity and cardiometabolic diseases (CMD) are major public health issues among Canada’s northern population and throughout the world. It is believed that the exponential rise in CMD incidence is due to numerous environmental factors, which are driving important changes in the gut microbiome. This microbial community which populates our intestinal tract plays a key role in nutrient and energy metabolism, but can also drive pathogenic mechanisms when its interaction with the host is disrupted. This understanding has highlighted the lack of predictive tools and biomarkers for rapid and efficient diagnostic of various diseases within the medical field. Current analysis of the gut microbiota is mostly based on sequencing technologies to determine microbial composition and gene expression, while functional analyses are limited to surrogate markers of microbial activities through stool metabolites. The goal of this study is to develop a “Sensor-in-Fibre” probe with the capacity to detect key microbiome-derived molecules relevant to CMD pathogenesis in real time in vivo. The optical probe takes advantage of evanescent fields generated on its peripheral interface to excite species-selective surface-grafted sensing nanomaterials that have varying fluorescent properties based on the target molecules present in the surrounding environment. As a model system, FITC functionalized with (3-aminopropyl)triethoxysilane was grafted on the periphery of an optical fiber, leading to qualitative pH measurements revealed through fluorescence emission qualities. These measurements are possible due to the use of a mobile signal collection apparatus in conjunction with custom software made to enable a non-expert technician to use it. The experimental results demonstrate that, with the appropriate preparation, it is possible to quantitatively measure pH with this probe structure in vitro and preliminary studies suggest that the probe is also capable of measuring pH in vivo in real time. / Résumé en espagnol / Résumé en espagnol

Page generated in 0.0242 seconds