• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 1
  • Tagged with
  • 13
  • 13
  • 13
  • 13
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Inférence et réseaux complexes

Young, Jean-Gabriel 19 October 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2018-2019 / Les objets d’études de la science moderne sont souvent complexes : sociétés, pandémies, grilles électriques, niches écologiques, etc. La science des réseaux cherche à mieux com- prendre ces systèmes en examinant leur structure. Elle fait abstraction du détail, en rédui- sant tout système à une simple collection de noeuds (les éléments constitutifs du système) connectés par des liens (interactions). Fort d’une vingtaine d’années de recherche, on peut constater que cette approche a mené à de grands succès scientifiques. Cette thèse est consacrée à l’intersection entre la science des réseaux et l’inférence statistique. On y traite de deux problèmes d’inférence classiques : estimation et test d’hypothèses. La partie principale de la thèse est dédiée à l’estimation. Dans un premier temps, on étu- die un modèle génératif bien connu (le modèle stochastique par blocs), développé dans le but d’identifier les régularités de la structure des réseaux complexes. Les contributions origi- nales de cette partie sont (a) l’unification de la grande majorité des méthodes de détection de régularités sous l’égide du modèle par blocs, et (b) une analyse en taille finie de la cohérence de ce modèle. La combinaison de ces analyses place l’ensemble des méthodes de détection de régularités sur des bases statistiques solides. Dans un deuxième temps, on se penche sur le problème de la reconstruction du passé d’un réseau, à partir d’une seule observation. À nouveau, on l’aborde à l’aide de modèles génératifs, le transformant ainsi en un problème d’estimation. Les résultats principaux de cette partie sont des méthodes algorithmiques per- mettant de solutionner la reconstruction efficacement, et l’identification d’une transition de phase dans la qualité de la reconstruction, lorsque le niveau d’inégalité des réseaux étudiés est varié. On se penche finalement sur un traitement par test d’hypothèses des systèmes complexes. Cette partie, plus succincte, est présentée dans un langage mathématique plus général que celui des réseaux, soit celui des complexes simpliciaux. On obtient un modèle aléatoire pour complexe simplicial, ainsi qu’un algorithme d’échantillonnage efficace pour ce modèle. On termine en montrant qu’on peut utiliser ces outils pour tester des hypothèses sur la structure des systèmes complexes réels, via une propriété inaccessible dans la représentation réseau (les groupes d’homologie des complexes). / Modern science is often concerned with complex objects of inquiry: intricate webs of social interactions, pandemics, power grids, ecological niches under climatological pressure, etc. When the goal is to gain insights into the function and mechanism of these complex systems, a possible approach is to map their structure using a collection of nodes (the parts of the systems) connected by edges (their interactions). The resulting complex networks capture the structural essence of these systems. Years of successes show that the network abstraction often suffices to understand a plethora of complex phenomena. It can be argued that a principled and rigorous approach to data analysis is chief among the challenges faced by network science today. With this in mind, the goal of this thesis is to tackle a number of important problems at the intersection of network science and statistical inference, of two types: The problems of estimations and the testing of hypotheses. Most of the thesis is devoted to estimation problems. We begin with a thorough analysis of a well-known generative model (the stochastic block model), introduced 40 years ago to identify patterns and regularities in the structure of real networks. The main original con- tributions of this part are (a) the unification of the majority of known regularity detection methods under the stochastic block model, and (b) a thorough characterization of its con- sistency in the finite-size regime. Together, these two contributions put regularity detection methods on firmer statistical foundations. We then turn to a completely different estimation problem: The reconstruction of the past of complex networks, from a single snapshot. The unifying theme is our statistical treatment of this problem, again based on generative model- ing. Our major results are: the inference framework itself; an efficient history reconstruction method; and the discovery of a phase transition in the recoverability of history, driven by inequalities (the more unequal, the harder the reconstruction problem). We conclude with a short section, where we investigate hypothesis testing in complex sys- tems. This epilogue is framed in the broader mathematical context of simplicial complexes, a natural generalization of complex networks. We obtain a random model for these objects, and the associated efficient sampling algorithm. We finish by showing how these tools can be used to test hypotheses about the structure of real systems, using their homology groups.
2

Étude du mécanisme de croissance du filament bactérien

Paradis, Guillaume 07 May 2018 (has links)
Plusieurs types de bactéries peuvent se déplacer dans leur milieu à l’aide de flagelles rotatifs. Ces flagelles sont composés d’un moteur rotatif ainsi que d’un filament long qui peut atteindre plusieurs fois la longueur du corps (10-15 μm) à l’extérieur de la cellule. Ceux-ci sont composés d’un assemblage de plusieurs milliers de protéines identiques appelées flagelline (FliC). Chaque filament croît par auto-assemblage des unités de FliC à son extrémité extérieure. Chaque FliC doit donc être transportée, partiellement dépliées dans un mince canal à l’intérieur du filament. Au bout du filament se trouve une structure, nommée le cap, composée de 5 protéines FliD essentielles à la polymérisation de la flagelline. Le travail réalisé au cours de cette thèse porte sur deux aspects particuliers de l’assemblage d’un filament. Premièrement, un filament peutil continuer à s’assembler s’il est cassé ? Deuxièmement, quel est le taux de croissance d’un filament et est-ce que ce taux varie avec la longueur du filament ? En utilisant des impulsions laser ultrabrèves, nous avons coupé des filaments marqués d’un fluorophore pour observer s’ils continuaient à s’assembler. Suivant une période de croissance de 2 heures, les filaments étaient marqués de fluorophores différents et observées sous un microscope en épifluorescence. Une souche de Salmonella enterica génétiquement modifiée pour n’exprimer en moyenne qu’un seul filament par cellule a été utilisée. Cette modification assure que chaque filament revisité a bien été coupé auparavant. La même expérience fut aussi réalisée à l’aide d’une souche surexprimant la protéine FliD. En tout, 82 filaments bactériens furent ainsi coupés, puis observés après une période de croissance et aucune reprise de croissance ne fut observée. Ces résultats peuvent sembler surprenants à la lumière de récentes études qui ont rapporté que les filaments continuent de s’assembler lorsqu’ils sont cassés mécaniquement par des forces de cisaillement (”shearing”). En utilisant des marquages de couleurs différentes, nous avons aussi mesurer le taux de croissance du filament en fonction de sa longueur. Nos résultats démontrent que le taux de croissance diminue graduellement avec la longueur, allant de ∼ 4μm/h à 1μm jusqu’à ∼ 1μm/h à 10 μm. Ces résultats contrastent avec le taux constant de 2.3m/3h rapporté récemment dans la littérature. Les expériences décritent dans cette thèse ont donc permis d’élaborer un modèle novateur décrivant le mécanisme de croissance du filament bactérien combinant la simple diffusion avec un mécanisme actif qui introduit les flagellines à la base du filament. / Many types of bacteria swim using a rotary motor. These remarkable biological motors are composed of a stator, a rotor and a bacterial flagellar filament which extends many body lengths (10-15μm) outside of the cell. The filaments are constructed of as many as 20000- 30000 protein subunits (called flagellin). Each filament grows at its distal end by self-assembly of flagellin subunits that have to be exported in an unfolded conformation through the narrow channel inside the filament. At the very end of the filament, a “cap” structure made of the FliD protein is essential for flagellin self-assembly and polymerization. The work performed in this doctoral thesis focuses on two specific aspects of the filament assembly. First, we ask whether the filament can continue to grow after being cut? Secondly, the rate of growth is measured as a function of the filament’s length. Using femtosecond laser ablation, we cut individual bacterial filaments and observed whether they could regrow. Bacterial filaments were first labeled with an orange fluorophore, cut with the laser, and then re-labeled with a green fluorophore after a 2h regrowth period. The experiments were performed with a genetically modified Salmonella enterica strain that grows only one filament per cell. This modification allows us to make sure that we revisit (after the regrowth period) the exact individual filaments that were cut by the laser. The same experiment was also performed with a strain where the cap protein FliD could be overexpressed. Overall, 82 filaments were cut and we did not observe any regrowth. Interestingly, this conclusion differs from results reported recently using mechanically broken (sheared) Escherichia coli filaments. Using a similar approach (sequential labeling of filaments with different colors) we also investigated the rate at which bacterial filaments grow as a function of their initial length. Our results lead us to the conclusion that the growth rate decreases with length (from ∼ 4μm/h at 1μm down to ∼ 1μm/h at 10μm). These observations again contrast with the constant growth rate (2.3 μm/3h) reported in a recent study. Those two separate results helped in the developement of a new model for the mechanism behind the bacterial flagellar growth combining simple diffusion with an active mecanism feeding the flagellin proteins at the base of the filament.
3

Analyse de frontière stochastique pour l'optimisation des plans en curiethérapie haut débit de dose

Edimo, Paul 15 August 2018 (has links)
La curiethérapie est une modalité particulière de traitement en radiothérapie qui se différencie de la radiothérapie externe par l’implantation des sources radioactives scellées à l’intérieur ou au voisinage immédiat du volume tumoral, de façon permanente ou temporaire. Cette modalité de traitement a bénéficié des avancées technologiques telles que l’utilisation des projecteurs de sources et le développement de nouveaux algorithmes d’optimisation de dose qui ont contribué à l’amélioration de la qualité des plans de traitement. Cependant, le processus de planification de traitement en curiethérapie, indépendamment de l’algorithme d’optimisation implanté dans le système de planification de traitement (TPS), requiert toujours une forte interaction entre le planificateur et le TPS. Cette forte interaction, non seulement, augmente la durée de la planification, mais conduit aussi souvent à des plans finaux dont la qualité est tributaire du jugement et de l’expérience du planificateur. Le présent projet a consisté à développer des modèles pour l’optimisation de la qualité des plans en curiethérapie de la prostate haut débit de dose, optimisation basée sur les paramètres géométriques spécifiques à chaque patient, grâce au formalisme de l’analyse de frontière stochastique, une méthode empruntée de l’économie. Les paramètres géométriques qui ont permis de caractériser chaque plan sont : le volume des différentes structures [volume cible anatomoclinique, organes à risque (OAR)], leurs proximités mutuelles par le biais de la distance de Hausdorff, et la divergence des cathéters dans la prostate. Les modèles ainsi développés constituent un outil d’aide à la planification en prédisant à l’avance (au début du processus de planification) le meilleur compromis qu’il est possible d’atteindre entre la couverture du volume tumorale et la limitation de la dose aux OARs alentour. Les modèles ont été développés pour les indices dosimétriques d’intérêt analysés en clinique pour la validation des plans pour chacune des structures telles que : la prostate, la vessie, le rectum et l’urètre. Les résultats obtenus sur la base d’un échantillon de 495 patients montrent que ces modèles peuvent aider le planificateur à personnaliser le processus d’optimisation sur la base du profil de paramètres géométriques de ce dernier, minimisant ainsi l’impact du jugement et l’expérience du planificateur sur la qualité du plan final. Leur utilisation peut être étendue comme un outil robuste pour la sélection de meilleurs plans pour les études de type “knowledge-based study”. Le projet doit cependant se poursuivre par l’exploration d’autres paramètres géométriques et par la validation clinique des différents modèles avant leur implémentation en routine clinique. / Brachytherapy is a special modality of radiotherapy for cancerous tissues treatment. Unlike external radiotherapy, this form of radiation therapy modality uses sealed radiation sources positioned permanently or temporarily within (or close to) the treatment volume. Brachytherapy treatment modality has benefited from technological advances such as the use of remote afterloading units and the development of new dose optimization algorithms that led to the improvement of treatment plans quality. However, the treatment planning process, regardless of the optimization algorithm used for dose calculation in the treatment planning system (TPS), still requires a strong interaction between the planner and the TPS. This strong interaction not only increases the planning time, but also often leads to final plans whose quality depends on the planner’s judgment, as well as planner’s experience. The goal of the current project was to develop models for the optimization of the quality of high dose rate prostate brachytherapy plans, based on patient’s specific geometric parameters, using stochastic frontier analysis, a method of economic modeling. Geometric parameters involved in the modeling process are the volume of structures of interest such as the clinical target volume (CTV) and organs at risk (OARs); the Hausdorff distance between CTV and OARs, and a third parameter measuring the degree of non-parallelism of catheters within the prostate. The built models are expected to be helpful in the treatment planning process by predicting dosimetric parameters values attainable at the starting point of the treatment planning. They will provide valuable indications in advance, on the level of dose reduction to OARs, as well as, the target volume coverage achievable. Models were built for dosimetric parameters of interest analyzed in the clinic for clinical validation of plans for each structure (prostate, bladder, rectum and urethra). The modelling results based on a dataset of 495 plans show that the developed models can be helpful to assist planner in the optimization process based on the geometric parameters profile of each plan, thus minimizing the impact of the judgment and the planner’s experience on the final quality plan. Furthermore, their use can be extended as an accurate means for selecting optimized plans for a knowledge-based study. However, further research is required in order to investigate others geometric parameters, as well as, for the clinical benchmarking the performance of the developed models before their implementation in a clinical setting.
4

Miniaturisation de lentilles grand angle

Dallaire, Xavier January 2018 (has links)
La miniaturisation des systèmes optiques, notamment des systèmes grand angle, est un sujet d’actualité qui revêt une grande importance. La réduction en taille des composantes optiques permet l’intégration de caméras dans une plus vaste gamme d’applications. Une amélioration constante des techniques de production ont permis jusqu’à présent de grandes avancées dans le domaine de la miniaturisation, mais aujourd’hui d’autres techniques doivent être développées dans le but de miniaturiser d’avantage. Le but de ce projet de doctorat est d’adapter et de développer des techniques de miniaturisation applicables à des systèmes optiques grand angle. À travers l’étude des diverses techniques de miniaturisation, la lentille repliée joint à l’imagerie à fovéa et la correction d’aberration via l’imagerie plénoptique ont été retenus comme candidats permettant la miniaturisation de caméra grand angle. Le Chapitre 3 dresse un portrait global des différentes avenues empruntées dans la littérature permettant la miniaturisation de système optique. Une courte description des techniques est présentée ainsi que les raisons pour lesquelles certaines furent écartées. Un design original d’endoscope miniature grand angle est présenté au Chapitre 4, de même que l’ensemble du processus de conception et de tolérancement. L’utilisation d’un repli dans le système permet de réduire la taille effective du système. L’utilisation de l’imagerie à fovéa est utilisée afin de contrôler le grandissement dans les régions d’intérêts. Deux versions de l’endoscope présentant des variations différentes de leur lfl sont analysées. Il est montré qu’un contrôle actif de la distorsion au moment du design peut permettre de maintenir les performances d’un système optique dans certaines régions clés du champ de vue tout en réduisant le nombre d’éléments qui le compose. Un algorithme de reprojection économe permettant de reconstruire une image plénoptique aberrée est présenté au Chapitre 5. Il est montré, à travers des simulations, qu’il est possible de corriger des aberrations présentes dans un système optique. Les cas monochromatiques, polychromatiques et grand angle furent abordés et corrigés avec succès. Il a aussi été démontré que l’algorithme de correction n’amplifiait pas le bruit présent dans les images d’origines. Finalement, un prototype simple de caméra plénoptique a été conçu et testé en laboratoire. / The miniaturization of optical systems, particularly wide-angle systems, is a subject of great importance. The reduction in size of optical components allows the integration of cameras in a wider range of applications. Even though continuous improvements in production techniques have led to great advances in the field of miniaturization, new techniques have to be developed in order to further miniaturize. The aim of this PhD project is to adapt and develop miniaturization techniques applicable to wide-angle optical systems. Through the study of various miniaturization techniques, the folded lens joined to foveated imaging and the correction of aberration via plenoptic imaging were retained as candidates allowing the miniaturization of wide-angle camera. Chapitre 3 gives an overall picture of the various avenues used in the literature for the miniaturization of optical systems. A short description of the techniques is presented as well as the reasons why some were discarded. An original miniature wide-angle endoscope design is presented in Chapitre 4, as well as the entire design and tolerancing process. The use of a fold in the system reduces the effective size of the system. Foveated imaging is used to control magnification in areas of interest. Two versions of the endoscope with different variations of their lfl are analyzed. It is shown that active control of distortion at during design can maintain the performance of an optical system in certain key regions of the field of view while reducing the number of elements that compose it. A reprojection algorithm for reconstructing an aberrated plenoptic image is presented in Chapitre 5. It is shown, through simulations, that it is possible to correct aberrations present in an optical system. Monochromatic, polychromatic and wide angle cases were successfully addressed and corrected. It was also demonstrated that the correction algorithm do not amplify the noise present in the original image. Finally, a simple prototype of a plenoptic camera was designed and tested in the laboratory.
5

Focalisation extrême par des éléments optiques non-paraxiaux

Panneton, Denis 20 November 2018 (has links)
Résumé Ce projet s’inscrit comme un effort de modélisation et de développement d’outils analytiques décrivant la focalisation non-paraxiale de champs électromagnétiques. Des solutions vecto- rielles sont développées, suivant une généralisation du formalisme intégral de Richards-Wolf. La thèse se scinde en deux principales avenues. La première consiste à décrire, en langage mathématique moderne, le formalisme de Richards-Wolf qui permet de décrire les champs électromagnétiques vectoriels au foyer de systèmes focalisants. Le formalisme est exploré et plusieurs solutions analytiques aux équations intégrales de Richards-Wolf sont introduites. La deuxième avenue consiste en la généralisation du formalisme de Richards-Wolf pour des systèmes à foyer étendu (par exemple, distribué sur une ligne). Utilisant une méthode com- binée, basée sur le tracé de rayon et le traitement intégral de la diffraction, le modèle permet une amélioration en trois volets des descriptions classiques des champs au foyer. En premier lieu, l’analyse vectorielle de la diffraction permet de s’affranchir de toute hypothèse paraxiale. En second lieu, l’analyse exacte et l’analogie rayon/onde plane uniforme permet d’éviter la description de systèmes à foyer étendu par des termes de phases aberrés, qui réduisent la robustesse du modèle et la justesse des solutions trouvées. Finalement, l’élégance analytique de la méthode permet une compréhension physique plus instinctive des phénomènes d’inter- férence au foyer de systèmes complexes et encourage le développement de méthodes inverses, permettant de retracer les conditions nécessaires à l’obtention d’un profil d’intensité et de phase données, sans a priori sur le système focalisant. Sur le plan concret, les outils mathématiques décrits et développés dans cette thèse permettent une avancée pour l’étude de phénomènes et le développement de technologies, notamment en microscopie à haute-résolution, mais également en stockage de données, en piégeage optique ou même en accélération de particules à l’échelle microscopique. Il s’agit de la première méthode systématique proposée pour calculer le profil de faisceaux focalisés par des sections coniques (sphères, ellipses, etc.) par des moyens analytiques. / This project is part of a global effort toward modelization and development of mathemat- ical tools describing non-paraxial focusing of electromagnetic fields. Vectorial solutions are proposed, according to a generalization of the Richards-Wolf formalism. The objective of this thesis is two-fold. The first part covers the Richards-Wolf formalism with a modern mathematical formulation, which permits the formal description of focused vectorial electromagnetic fields. An in-depth exploration of the theory is exposed and multiple analytical solutions of the integrals are given. The second part covers the generalization of the Richards-Wolf formalism to systems without a single-point focus, by combining geometrical optics and diffraction principles. The vectorial analysis agrees with the assumption of non-paraxial focusing while the development is free of constraints upon the existence of an optical focus. Finally, the analytical treatment helps forge a physical intuition of the electromagnetic solutions and the development of inverse methods, which would help find the necessary illumination upon a system to produce a given electromagnetic pattern near the focus. The mathematical tools presented in this thesis may lead to advances in high-resolution microscopy, data encryption, optical tweezers and particle acceleration.
6

De la structure croissante des réseaux complexes : approche de la géométrie des réseaux

Murphy, Charles 18 July 2018 (has links)
L’internet, le cerveau humain et bien d’autres sont des systèmes complexes ayant un grand nombre d’éléments qui interagissent fortement entre eux selon leur structure. La science des réseaux complexes, qui associe ces éléments et interactions respectivement à des noeuds et liens d’un graphe, permet aujourd’hui de mieux les comprendre grâce aux types d’analyses quantitatives qu’elle rend possible. D’une part, elle permet de définir une variété de propriétés structurelles menant vers une classification de ces systèmes. D’autre part, la compréhension de l’émergence de ces propriétés grâce à certains modèles stochastiques de réseaux devient réalité. Dans les dernières années, un effort important a été déployé pour identifier des mécanismes d’évolution universels pouvant expliquer la structure des réseaux complexes réels. Ce mémoire est consacré à l’élaboration d’un de ces mécanismes de croissance universels basé sur la théorie de la géométrie des réseaux complexes qui stipule que les réseaux sont des objets abstraits plongés dans des espaces métriques de similarité où la distance entre les noeuds affecte l’existence des liens. Au moyen de méthodes d’analyse avancées, la caractérisation complète de ce mécanisme a été établie et permet le contrôle de plusieurs propriétés structurelles des réseaux ainsi générés. Ce mécanisme général pourrait expliquer, du moins de manière effective, la structure d’un nombre important de systèmes complexes dont la formation est, encore aujourd’hui, mal comprise. / The internet and the human brain among others are complex systems composed of a large number of elements strongly interacting according to their specific structure. Nowadays, network science, which construes these elements and interactions respectively as nodes and links of a graph, allows a better understanding of these systems thanks to the quantitative analysis it oers. On the one hand, network science provides the definition of a variety of structural properties permitting their classification. On the other hand, it renders possible the investigation of the emergence of these properties via stochastic network models. In recent years, considerable efforts have been deployed to identify universal evolution mechanisms responsible for the structure of real complex networks. This memoir is dedicated to one of these universal growth mechanisms based on the network geometry theory which prescribes that real networks are abstract objects embedded in similarity metric spaces where the distance between nodes aect the existence of the links. Thanks to advanced analysis methods, the complete characterization of the mechanism has been achieved and allows the control of structural properties over a wide range. This general mechanism could explain, at least effectively, the structure of a number of complex systems for which the evolution is still poorly understood.
7

Caractérisation et amélioration d'un polarimètre à modulation photo-élastique pour l'Observatoire du Mont-Mégantic

Duchesne, Mike Tommy 03 July 2018 (has links)
Les travaux effectués dans le cadre de cette maîtrise en astrophysique ont eu pour objectif d'améliorer et de caractériser le prochain polarimètre mis en fonction à l'Observatoire du Mont-Mégantic. Le polarimètre, POMM (Polarimètre de l'Observatoire du Mont-Mégantic), est le fruit d'une collaboration entre l'Institut National d'Optique (INO) et l'Université de Montréal, dont la construction a été basée sur une amélioration de celle de PlanetPOL présentée dans Hough et al. 2007. Dans cet objectif, l'intégralité du câblage de l'instrument a été revu, en deux étapes. Une caractérisation des données observationnelles a été effectuée suite à chaque modification majeure. Le système d'acquisition de la moitié des signaux critiques a été remplacé par une solution plus adéquate permettant une meilleure précision. Un code de réduction de données a aussi été écrit, rendant possible la transition entre les mesures brutes et des données de polarisation utilisables. Finalement, des missions d'ingénierie et d'observation scientifique ont été réalisées à l'Observatoire du Mont-Mégantic pour effectuer l'intégration de l'instrument, en tester les capacités en situation réelle et obtenir des données scientifiques sur divers types d'objets astronomiques. Suite à ces travaux, il est possible d'affirmer que le fonctionnement de POMM s'en trouve optimisé et que ce dernier peut être utilisé plus efficacement et facilement par les chercheurs de l'Observatoire du Mont-Mégantic. / The work accomplished in the scope of this master's thesis in astrophysics was done with a goal in mind: to upgrade and characterize the next astro-polarimeter of the Observatoire du Mont-Mégantic. POMM (Polarimètre de l'Observatoire du Mont-Mégantic), the result of a collaboration between the Institut Nationnal d'Optique (INO) and the Université de Montréal, has been built as an upgraded version of PlanetPOL as presented in the Hough et al. 2007 paper. With this objective set, the whole cabling work has been re-thought and done in two stages. A characterization of the observational data has been made after each major update to the instrument. Half of the data acquisition system for the critical signals was replaced by a more precise component. A data reduction code was written, enabling the transition from the bulk signals to usable polarization measurements. Moreover, commissioning and observational time was obtained at the Observatoire du Mont-Mégantic. The time was used to integrate POMM to the OMM's available intruments, to test its response in real situations and to obtain scientic data on diverse astronomical objects. Following the upgrades, POMM's working is more optimised and the instrument can be installed and used more easily by the OMM's researchers.
8

Génération d'impulsions à 3.55 microns par commutation du gain dans une fibre de fluorozirconate dopée à l'erbium

Jobin, Frédéric 23 November 2018 (has links)
Les lasers à fibre émettant dans la région de 3.5 μm présentent un intérêt particulier pour les applications d’usinage des polymères et de spectroscopie des hydrocarbures en raison de la présence de bandes d’absorption de la liaison C-H. Bien que des sources émettant en régime continu sur cette plage spectrale aient été démontrées et optimisées au cours des dernières années, les sources impulsionnelles à 3.5 μm sont pratiquement inexistantes. Ce mémoire décrit le développement du premier laser fibré à commutation du gain émettant aux environs de 3.5 μm. Ce laser est basé sur le double pompage d’une fibre de fluorozirconate dopée à l’erbium pompée en continu à 976 nm et en régime pulsé à 1976 nm par un système fibré basé sur une fibre de silice dopée au thulium développé pour cet objectif. Un modèle théorique a été développé à l’aide de la méthode d’Euler qui permet de résoudre les populations et puissances le long de la cavité laser. Un laser à 3.55 μm a été réalisé produisant des impulsions nanosecondes à une cadence entre 12 et 20 kHz avec des puissances crêtes jusqu’à 272 W (9.31 μJ), ce qui est le record à ce jour pour un laser fibré à une telle longueur d’onde. Un quenching de l’émission laser a été observé pour un fort pompage à 1976 nm, limitant les performances et explicable par une absorption à l’état excité à cette longueur d’onde. Un système d’amplification d’impulsions a été réalisé et a démontré un gain maximal de 2.7 pour la transition laser. Le développement du système de pompage à 1976 nm est d’abord décrit et ses performances présentées. Le modèle numérique développé est ensuite présenté avec les principaux résultats obtenus. Finalement, l’oscillateur fibré à 3.552 μm est présenté et ses performances et limitations décrites. / Fiber lasers emitting in the 3.5 μm region are of interest for polymer processing and hydrocarbon spectroscopy applications due to the presence of C-H absorption bands. Although continuous wave sources emitting in this spectral range have been demonstrated throughout recent years, pulsed 3.5 μm are almost inexistent. This document presents the development of the first gain-switched fiber laser emitting around 3.5 μm. This laser is based on the dual-wavelength pumping of an erbium-doped fluorozirconate fiber by a continuous 976 nm laser diode and a 1976 nm pulsed system based on a thulium doped silica fiber that was developped for this purpose. A theoretical model was developped based on Euler’s method allowing to solve level populations and powers along the laser cavity. A 3.5 μm laser was then designed producing nanosecond pulses for repetition rates ranging from 12 to 20 kHz and peak powers up to 272 W (9.31 μJ), a record for a fiber laser at such a wavelength. Quenching of laser emission was observed for a high 1976 nm pumping rate, limiting performances and justified by an excited state absorption at this wavelength. A pulse amplification system was also built and characterized, yielding a maximum gain factor of 2.7. The development of the 1976 nm pulsed system is first described, and its performances analysed. The numerical model is then presented along the main simulation results. Finally, the 3.552 μm fiber oscillator is presented with its performances and limitations.
9

Développement de verres et de fibres magnéto-optiques pour des composants non réciproques

Baklouti, Rim 01 October 2018 (has links)
Comme le trafic de données continue à augmenter rapidement, une grande capacité de transmission sera inévitablement requise pour les systèmes de communications par fibre optique. De nouvelles technologies ont été développées pour assurer une bonne qualité de transfert de l'information. Dans ce contexte, les composants optiques tout fibres occupent un rôle important pour diminuer les pertes de propagation, d'insertion et de réflexion dans une chaîne de transmission optique. Le rotateur de Faraday est conçu pour être utilisé comme isolateur et éviter les retours des faisceaux dans les lasers de haute puissance. Il est développé à base de fibre monomode pour des longueurs d'ondes inférieures à 1μm. La motivation de ce travail est d'explorer de nouvelles matrices vitreuses avec une grande réponse magnéto-optique dans la troisième fenêtre de télécommunications (1.55 μm) et d'étudier la possibilité d'avoir des fibres optiques "few mode". Dans ce sens, les verres hautement dopés en terbium sont considérés les meilleurs candidats. Toutefois leur usage est limité dans les fibres existantes vu que la concentration en ions e terre rares en terbium ne dépasse pas 27% mol dans la matrice vitreuse. Dans ce travail, on présentera plusieurs compositions vitreuses explorées dans différentes matrices de silice, de phosphate et de fluorure. Des verres contenant jusqu'à 30% mol d'oxyde de terbium dans un verre de silice et jusqu'à 40% mol de terbium fluoré dans des verres fluorés ont été obtenus dans le but de réaliser une fibre optique à deux modes de propagation à 1.55 μm. Les caractéristiques thermiques, optiques et des mesures de la constante de Verdet ont été faites sur l'ensemble des verres synthétisés en fonction de la concentration afin de comparer l'efficacité de la transmission magnéto-optique différents type de matrices. / As data traffic continues to rapidly increase, high transmission capacity will be required for fiber optic communications systems. New technologies have been developed to ensure good quality of information transfer. In this context, all-fiber optical components play an important role in reducing the propagation, insertion and reflection losses in an optical transmission link. The Faraday rotator is designed for useas an insulator in order to minimize parasitic back reflections in high power lasers. It is developed based on singlemode fiber for wavelengths less than 1μm. The motivation of this work is to explore new vitreous matrices with a large magneto-optical response in the third telecommunications window (1.55 μm) and to study the possibility of having "few mode" optical fibers. In this sens, highly doped terbium glasses are considered the best candidates. However, the solubility of terbium ions in silica glass fibers is limited to 27%, then the exploration for other glass compositions is necessary. In this work, several glass compositions have been explored in different matrices of silica, phosphate and fluoride. Glasses containing up to 30% mol of terbium oxyde in a silica glass and up to 40% by mol of terbium fluoride in fluoride glasses have been obtained in order to produce a fiber with two progagation modes at 1.55 μm. Thermal, optical and Verdet constant measurements were made on all the glasses synthesized according to their concentration in order to compare the magneto-optical transmission efficiency of different types of matrices.
10

Développement d'un outil de simulation par Monte Carlo du rayonnement diffusé en tomodensitométrie

Saucier, Marie Annie 25 September 2018 (has links)
L’objectif de ce projet est de créer un programme logiciel permettant de corriger le rayonnement diffusé dans une acquisition tomodensitométrique à géométrie conique. Pour ce faire, une simulation Monte Carlo est utilisée pour estimer le rayonnement diffusé, ce qui consiste à reproduire numériquement un examen en tomodensitométrie. Ce projet a été divisé en deux sections : la validation de la physique pour ce programme spécifique et le développement logiciel du programme. La validation consistait à reproduire les résultats obtenus avec Geant4 avec GPUMCD. Geant4, la plateforme de référence, et GPUMCD, la plateforme à l’étude, sont deux librairies logicielles pour la simulation numérique du transport de particules à travers la matière utilisant les calculs Monte Carlo. Les éléments étudiés sont les sections efficaces, les matériaux, l’algorithme de diffusion Rayleigh et l’algorithme de diffusion Compton. Bien que quelques erreurs persistent dans la physique de GPUMCD, une nette amélioration des résultats entre GPUMCD et Geant4 a été obtenue. La différence entre les deux simulations qui était supérieure à 100% pour une géométrie complexe est passée sous la barre du 10%. De plus, il a été possible d’identifier quelques autres causes telles qu’une différence dans la définition des modèles physiques, et ce, plus précisément dans l’algorithme de diffusion Compton. En ce qui concerne la seconde partie du projet, bien que la correction n’a pu être effectuée pour une reconstruction, tous les éléments ont été implémentés pour estimer le rayonnement diffusé pour une géométrie de patient provenant de données cliniques d’une reconstruction tomodensitométrique. Les paramètres et les stratégies étudiés dans le but d’optimiser le temps de calculs tout en conservant la justesse des résultats sont : le traçage de rayons, le lissage gaussien du rayonnement diffusé, la réduction du nombre de pixels sur le détecteur, l’interpolation des projections, la symétrie et la réduction de nombre de voxels dans le patient. De plus, en considérant une correction de haute qualité, soit 2% d’erreur et moins par stratégie implémentée, on obtient un temps de simulation de moins de 2 minutes sur une GPU Nvidia Titan X. Pour une simulation dite de basse qualité, soit 5% d’erreur et moins par stratégie implémentée, on obtient un temps d’exécution de moins de 15 s par simulation. Cela correspond à des temps cliniquement acceptables si le patient doit attendre sur la table. / The goal of this project is to develop an application to correct the scattered radiation in a cone beam computed tomography scan (CBCT). A Monte Carlo simulation is used to estimate the scattered radiation which is a numerical replication of a CBCT acquisition. This project has been divided into two sections : the validation of the physics for this specific application and the development of the application. The validation consisted in reproducing the results obtained with Geant4 in GPUMCD. Geant4 is the reference platform and GPUMCD is the platform studied. Both are Monte Carlo simulators of the passage of particles through matter.The elements studied are the cross sections, the materials, the Rayleigh scattering algorithm and the Compton scattering algorithm. Although some errors are still present, a great improvement of the results between GPUMCD and Geant4 was obtained. The difference between the two simulations was greater than 100 % for complex geometries and dropped below 10% after corrections of the physics. In addition, it was possible to identify some other problems such as a theoretical difference in the Compton scattering algorithms. Regarding the second part of the project, although the correction could not be implemented in a reconstruction, all elements are present to estimate the scattered radiation for an actual CBCT reconstruction. The parameters and strategies studied in order to optimize the computation time while maintaining the accuracy of the results are : ray tracing, Gaussian smoothing of scattered radiation, reduction of the number of pixels on the detector, interpolation of between the simulated projections, symmetry and reduction of number of voxels in the patient. In addition, considering a correction of high quality is 2 % error and less per implemented strategy, a simulation time of less than 2 minutes is obtained. For a low quality simulation (5% error and less per parameter), a simulation time of less than 15 seconds per simulation was obtained. Those are clinically acceptable simulation times.

Page generated in 0.2829 seconds