• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 606
  • 112
  • 97
  • 84
  • 18
  • 6
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 937
  • 674
  • 149
  • 141
  • 111
  • 110
  • 103
  • 95
  • 94
  • 93
  • 86
  • 83
  • 82
  • 70
  • 69
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Covid-19 in Peru: From supervised walks for children to the first case of Kawasaki-like syndrome

Yáñez, Jaime A., Alvarez-Risco, Aldo, Delgado-Zegarra, Jaime 22 June 2020 (has links)
Cartas al editor / Revisión por pares
32

Skolverket mot antiken : En argumentationsanalys av diskussionen som följde Skolverkets förslag att ta bort antiken i undervisningen. / The National Agency for Education against antiquity : an argumentation analysis of the discussion that followed the National Agency for Education’s proposal to remove classical antiquity in teaching.

Söderberg, Hampus January 2021 (has links)
Skolverket the managing authority of the Swedish schools published the 25 of September 2019 suggested syllabus changes from the 2011 syllabus. One of the changes concerning the subject of history was that the aim “ancient civilizations, from prehistoric times to about 1700”1 no longer remained in the syllabus for primary school. This started a brief and intense critic storm in the media. People from the history field, teachers, and the general public reacted mostly negatively towards the proposal. This essay aims to interpret and analyze the arguments for and against the proposal in the newspapers Svenska Dagbladet, Dagens Nyheter, Aftonbladet, Expressen, and Läraren. The interpretation and analysis are done with an argumentation analysis method, with the three history didactics perspectives, history consciousness, use of history, and view of history. The different newspapers generally had a familiar picture concerning the proposal. Arguments followed the theoretical angles chosen for the essay and many argued that the time given the subject of history was not sufficient.
33

Conception d'une lentille axicon à gradient d'indice de réfraction GLA (GRIN Lens Axicon)

Guénette, Jason 01 March 2019 (has links)
Les axicons sont principalement connus pour leur propriété à produire des faisceaux Bessel. Cependant, certains ont également la propriété de produire une focalisation en anneau soit directement ou avec l’ajout d’une lentille. Nous avons analysé la possibilité de faire un axicon avec un profil d’indice de réfraction qui produirait un anneau. Plus précisément, nous avons analysé la possibilité de faire une composante qui incorpore la fonction linéaire d’une lentille conique et la fonction parabolique d'une lentille. Le profil d’indice de réfraction analysé a une variation radiale et permet de produire une focalisation annulaire périodique. Un profil similaire a déjà été étudié sommairement par E. Marchand puis par Rosa M. Gonzalez. Cependant, les solutions proposées par eux sont des solutions approximatives et leur analyse est limitée. Il existe déjà des fibres optiques avec des indices de réfraction semblable à ce que l’on cherche, donc ces axicons ont le potentiel d’être utilisés directement pour une fibre optique. Nous avons déterminé la solution exacte du profil d’indice de réfraction qui permet la focalisation en anneau et nous avons démontré théoriquement que l’anneau produit est de bonne qualité. Nous avons étudié la possibilité de produire un faisceau Bessel à partir de cette composante optique que nous nommons GLA (Grin Lens Axicon) et les simulations montrent que le Faisceau Bessel peut être de très bonne qualité. Des tests expérimentaux ont été faits pour montrer qu’il est possible de produire un faisceau Bessel avec le GLA. / Axicons are mostly known for their capacity to produce Bessel beam. However, some axicon has the propriety to produce annular focusing whether directly or by adding a lens. In this text we have study the possibility to produce an axicon with gradient index of refraction that produce an annular focusing. More precisely we study the possibility to produce a component which incorporates the linear function of a conical lens and the parabolic function of a lens. The study refraction index profile has a radial variation and allow to a periodic annular focalisation. A similar refractive index profile has already been study by E. Marchand then by Rosa M. However, the solutions proposed by them are approximate solutions and their studies are limited. Some optical fiber already has index profile like the one we are interest so this axicon have the potential to be use for optical fiber application. We have demonstrated theoretically the exact refractive index profile that produce annular focusing and we have demonstrated theoretically that the ring produce is of good quality. We have also studied the possibility to produce a Bessel beam with this device that we name GLA (Grin Lens Axicon) and the simulation show that the beam could be of excellent quality. Some experimental tests have been done to show that it is possible to produce a Bessel beam with a GLA.
34

Sparse, hierarchical and shared-factors priors for representation learning

Trottier, Ludovic 05 August 2019 (has links)
La représentation en caractéristiques est une préoccupation centrale des systèmes d’apprentissage automatique d’aujourd’hui. Une représentation adéquate peut faciliter une tâche d’apprentissage complexe. C’est le cas lorsque par exemple cette représentation est de faible dimensionnalité et est constituée de caractéristiques de haut niveau. Mais comment déterminer si une représentation est adéquate pour une tâche d’apprentissage ? Les récents travaux suggèrent qu’il est préférable de voir le choix de la représentation comme un problème d’apprentissage en soi. C’est ce que l’on nomme l’apprentissage de représentation. Cette thèse présente une série de contributions visant à améliorer la qualité des représentations apprises. La première contribution élabore une étude comparative des approches par dictionnaire parcimonieux sur le problème de la localisation de points de prises (pour la saisie robotisée) et fournit une analyse empirique de leurs avantages et leurs inconvénients. La deuxième contribution propose une architecture réseau de neurones à convolution (CNN) pour la détection de points de prise et la compare aux approches d’apprentissage par dictionnaire. Ensuite, la troisième contribution élabore une nouvelle fonction d’activation paramétrique et la valide expérimentalement. Finalement, la quatrième contribution détaille un nouveau mécanisme de partage souple de paramètres dans un cadre d’apprentissage multitâche. / Feature representation is a central concern of today’s machine learning systems. A proper representation can facilitate a complex learning task. This is the case when for instance the representation has low dimensionality and consists of high-level characteristics. But how can we determine if a representation is adequate for a learning task? Recent work suggests that it is better to see the choice of representation as a learning problem in itself. This is called Representation Learning. This thesis presents a series of contributions aimed at improving the quality of the learned representations. The first contribution elaborates a comparative study of Sparse Dictionary Learning (SDL) approaches on the problem of grasp detection (for robotic grasping) and provides an empirical analysis of their advantages and disadvantages. The second contribution proposes a Convolutional Neural Network (CNN) architecture for grasp detection and compares it to SDL. Then, the third contribution elaborates a new parametric activation function and validates it experimentally. Finally, the fourth contribution details a new soft parameter sharing mechanism for multitasking learning.
35

Modeling, design and optimization of computer-generated holograms with binary phases

Wang, Jing 25 June 2019 (has links)
L’hologramme généré par ordinateur (HGO) a été démontré à jouer un rôle important depuis son invention par Lohmann dans les années 1960 dans de nombreuses applications telles que l’ingénierie du front d'onde, l’éclairage structuré et l’affichage optique, etc. Dans le travail de thèse ci-présent, la modélisation, la conception et l’optimisation d’HGO avec des phases binaires sont étudiées. Nous avons examiné un système pratique de projection d’image avec certaines spécifications de travail, par exemple, une distance de travail de 40 cm, une profondeur de champ de 10 cm et un angle de diffraction de 53 degré pour une longueur d’onde de travail de 632 nm, et ensuite conçu et optimisé un hologramme de phase binaire en passant par une recherche directe binaire pour ce système d’image. L’hologramme a été fabriqué par la lithographie à faisceau d’électrons. Pour atteindre l’angle de diffraction requis, nous avons discuté de l’architecture optique dans le système de projection d’image holographique. L’HGO conçu et le système de projection d’image holographique ont été validés expérimentalement par reconstruction optique. Étant donné que les pixels finiront par se regrouper pour former des ouvertures polygonales en hologramme, qui peut être vu clairement dans le processus de recherche directe binaire, nous avons proposé une nouvelle approche pour la conception directe des ouvertures polygonales basée sur la disposition triangulaire en HGO de grande taille en pixels. La diffraction de l’ouverture a été calculée par la transformation analytique d’Abbe. L’image reconstruite peut être exprimée comme une addition cohérente de motifs de diffraction à partir de tous les bords droits d’orientations et de longueurs différentes. Une optimisation en deux étapes comprenant l’algorithme génétique avec la recherche locale de codage des phases binaires des ouvertures, suivie par la recherche directe de co-sommets flottants des ouvertures triangulaires élémentaires a été développée. Nous avons en outre proposé une disposition d’ouverture quadrilatérale, qui fournit plus de degrés de liberté et peut former des ouvertures polygonales plus diverses en hologrammes. L’algorithme génétique parallèle avec la recherche locale a été adopté dans une première étape pour assigner des phases binaires, et la recherche directe a ensuite été utilisée pour optimiser des emplacements de co-sommets d'ouvertures quadrilatérales lors de la deuxième étape. Trois schémas différents pour l'algorithme en deux étapes ont été discutés pour fournir des moyens flexibles afin d’équilibrer la performance de l’optimisation et la durée nécessaire. / The computer-generated hologram (CGH) has been demonstrated to play an important role, since its invention by Lohmann in 1960s, in many applications such as wavefront engineering, structured illumination and optical display, etc. In this thesis, the modeling, design and optimization of CGH with binary phases are studied. We considered a practical projection image system with certain working specification, e.g. working distance of 40 cm, depth of field of 10 cm and a diffraction angle of 53 degree for 632 nm working wavelength, and then designed and optimized a binary-phase hologram by direct binary search for this image system. The hologram was fabricated by E-beam lithography. To achieve the required diffraction angle, we discussed the optical architecture in holographic projection image system. The designed CGH and holographic projection image system were validated experimentally by optical reconstruction. Since the pixels will eventually cluster to form polygonal apertures in hologram, which can be seen clearly during the process of direct binary search, we proposed a new approach to directly design polygonal apertures based on triangular layout in CGH of a large number of pixels. The diffraction of aperture was calculated by analytical Abbe transform. The reconstructed image can be expressed as a coherent addition of diffraction patterns from all the straight edges of different orientations and lengths. A two-step optimization including genetic algorithm with local search for encoding binary phases of apertures, followed by direct search for floating covertices of the elementary triangular apertures was developed. We further proposed a quadrilateral aperture layout, which provides more degrees of freedom and can form more diverse polygonal apertures in holograms. The parallel genetic algorithm with local search was adopted to assign binary phases in the first step, and direct search was then used to optimize of locations of covertices of quadrilateral apertures in the second step. Three different schemes for the two-step algorithm were discussed to provide flexible ways to balance the optimization performance and time cost. / Résumé en espagnol
36

Mortier projeté à basse vitesse et béton projeté : quelles sont les différences?

Poulin, Christine 22 October 2019 (has links)
Il existe un manque d’information technique dans l’industrie quant à l’emploi du mortier projeté à basse vitesse, particulièrement pour les réparations structurales. En effet, les faibles vitesses de projection des particules génèreraient une énergie de consolidation limitée du matériau et une adhérence potentiellement compromise avec la surface réceptrice. De plus, les barres d’armature sembleraient difficiles à enrober, un élément essentiel au succès de travaux de réfection. Par opposition, le béton projeté traditionnel utilise la vitesse pour répondre aux exigences de consolidation, d’adhérence et d’enrobage des barres d’armatures. Conséquemment, l’objectif de ce projet de recherche est de cerner les différences techniques entre le mortier projeté à basse vitesse et le béton projeté, notamment par l’emploi de différents équipements. L’examen du mortier projeté à basse vitesse a permis d’établir les différences en termes de technique de mise en place, de propriétés mécaniques et de durabilité du matériau, de qualité de la réparation et de vitesse de projection des particules. La composition des mélanges permet l’obtention de très bonnes propriétés mécaniques et d’une grande durabilité du matériau, et ce peu importe le type de lance utilisé et la quantité d’air ajoutée pour accélérer le matériau à la sortie de la lance. De plus, ces mortiers offrent d’excellentes valeurs d’adhérence sur le substrat de béton à réparer. Les distinctions se trouvent davantage liées à la mise en place et à la vitesse de projection des particules. En effet, le mortier projeté à basse vitesse ne produit pratiquement aucun rebond et les vitesses de projection produites sont très faibles et dépendent des équipements utilisés (2,6 à 4,5 m/s contre 33 m/s en béton projeté par voie humide). Les résultats démontrent qu’une manipulation de la lance adaptée au type de procédé pneumatique utilisé est l’élément essentiel à la réalisation des travaux de qualité. Ainsi, suivant la sélection de la lance la plus adaptée, une nouvelle technique de mise en place est développée pour réaliser de bons enrobages de barres d’armature de faible diamètre avec le mortier projeté à basse vitesse. / There is a lack of technical information in the industry about the use of Low Velocity Sprayed Mortar (LVSM), specifically for structural repairs. Indeed, the low velocities of the particles would generate a limited consolidation energy of material and a potentially compromised adhesion with the receiving surface. Furthermore, reinforcing bars would seem difficult to encapsulate, an essential element for the success of durable works. In contrast, traditional shotcrete uses velocity to meet the requirements of consolidation, adhesion and reinforcing bars encapsulation. Consequently, the objective of this research project is to determine the technical differences between LVSM and shotcrete, especially by the use of different equipment. The LVSM investigation has allowed to establish the differences in terms of placement technique, mechanical and durability properties, repair quality and particles velocities. The composition of good mortar mixture allows to reach very good mechanical properties and good material durability, regardless of the nozzle type and air flow used to accelerate the material at the nozzle. Furthermore, theses mortars gave excellent adhesions on the repaired concrete substrate. The distinctions are more about the placement method and particles velocity. Indeed, LVSM does not produce rebound and the particles velocities measured are very low and depend of the equipment (2,6 to 4,5 m/s against 33 m/s in wetmix shotcrete). The results demonstrate that an adapted placement technique is an essential element to achieve a successful application. Thus, following the selection of the most appropriate nozzle, a new placement technique is developed to adequately encapsulate reinforcing bars of small diameter with LVSM.
37

Bottom-up photochemical synthesis of structurally defined graphene nanoribbons and conjugated Polymers

Miao, Dandan 30 October 2019 (has links)
Le graphène peut être considéré comme l'un des matériaux les plus prometteurs pour les composants électroniques pratiques en raison de ses excellentes propriétés de transport de charge, de sa surface spécifique très élevée, de sa conductivité thermique excellente et de sa grande résistance mécanique. Cependant, ce graphène bidimensionnel est un semiconducteur à bande interdite nulle, ce qui limite son application pratique dans les dispositifs électroniques. L'une des méthodes les plus prometteuses pour ouvrir une bande interdite est le confinement structurel du graphène en bandes étroites, définies comme des nanorubans de graphène (GNR). La bande interdite des GNR peut être contrôlée avec précision par la largeur et la configuration des bords, ce qui donne aux GNR des propriétés optiques et électroniques réglables. La synthèse ascendante en solution est l’une des stratégies les plus prometteuses pour préparer des GNR structurellement bien définis avec des propriétés optiques et électroniques ajustables. Contrairement aux méthodes descendantes, la stratégie ascendante permet un contrôle précis de la largeur et de la configuration des bords des GNR. Une stratégie couramment utilisée, la réaction de cyclodéshydrogénation catalysée par l'acide de Lewis, appelée réaction de Scholl, a été largement utilisée pour synthétiser une grande variété de GNR bien définis sur des précurseurs de polyphénylène. Cependant, la réaction de Scholl présente de sérieux inconvénients qui limitent la portée et la polyvalence de cette réaction. Le premier est sa faible régiosélectivité qui entraîne des défauts de structure et affecte les propriétés des GNR. Ensuite, les réarrangements indésirables et l'utilisation d'un catalyseur métallique peuvent conduire à la formation de sous-produits. De plus, l'introduction de groupes fonctionnels sensibles aux oxydants et d'hétérocycles riches en électrons est difficile à réaliser en raison des conditions de réaction difficiles, qui limitent la diversité des propriétés structurelles et électroniques des GNR. Notre groupe a récemment développé une synthèse de nanographènes et de GNR à l'aide de la réaction de cyclodéhydrochloration photochimique (CDHC) sur des précurseurs de polyphénylène polychlorés. La réaction CDHC possède une haute régiosélectivité et se déroule sans réarrangement ni formation de sous-produits. De plus, la réaction CDHC est conduite sans catalyseur métallique ni oxydant dans des conditions très douces, permettant ainsi l’introduction de différents groupes fonctionnels et hétérocycles sur le GNR afin de moduler leurs propriétés optoélectroniques. En comparant avec la réaction de Scholl, la réaction CDHC permet de mieux contrôler les configuration de bord des GNR. Cette thèse présente en détail l'utilisation de la réaction CDHC pour la préparation de GNR et étudie avec soin les propriétés structurelles et optoélectroniques des GNR produits. Tout d'abord, les GNR asymétriques et latéralement symétriques ont été préparés pour démontrer la régiosélectivité, le contrôle des configuration de bord et l'efficacité de la réaction photochimique CDHC. Ensuite, les GNR à bord thiophène ont été synthétisés pour montrer la polyvalence de la réaction CDHC et étudier l'influence de l'introduction de groupes fonctionnels riches en électrons sur les structures et les propriétés optoélectroniques des GNR. Ensuite, les polymères échelle conjugués (CLP) contenant des unités pyrrole riches en électrons ont été synthétisés pour montrer la compatibilité de la réaction du CDHC avec des groupes fonctionnels très riches en électrons et le rendement élevé de la réaction du CDHC. Enfin, divers dérivés d'ullazine fusionnés avec des hétérocycles riches en électrons ou pauvres en électrons ont été préparés et une série de polymères donneurs-accepteurs conjugués (D-A CP) ont été synthétisés et ces polymères ont été utilisés avec succès dans les cellules solaires à polymères et ont présenté des performances très prometteuse, indiquant l’efficacité, la polyvalence et le caractère pratique de la réaction photochimique CDHC / Graphene is considered as one of the most promising materials for practical electronic components because of its outstanding charge transport properties, very high specific surface area, excellent thermal conductivity, and high mechanical strength. However, this two dimensional graphene is a zero band gap semiconductor, which limits its practical application in electronic devices. One of the most promising methods to open a band gap is the structural confinement of graphene into narrow strips, which is defined as graphene nanoribbons (GNRs). The band gap of GNRs can be precisely controlled by the width and edge configuration, providing GNRs with tunable optical and electronic properties. Bottom-up, solution-phase synthesis is one of the most promising strategies to prepare structurally well-defined GNRs with tunable optical and electronic properties. Unlike the top-down methods, the bottom-up strategy allows a precise control over the width and edge configuration of GNRs. One of the most commonly used strategy, the Lewis acid catalyzed cyclodehydrogenation reaction, known as the Scholl reaction, has been widely used to synthesize a large variety of well-defined GNRs on polyphenylene precursors. However, the Scholl reaction possesses some serious drawbacks that limit the scope and versatility of this reaction. First is its poor regioselectivity that results in structural defects to affect the properties of GNRs. Then the undesired rearrangements and the use of a metal catalyst can lead to the formation of by-products. Moreover, the introduction of oxidant-sensitive functional groups and electron-rich heterocycles is difficult to achieve due to the harsh reaction conditions, which limits the diversity of structural and electronic properties of GNRs. Recently, our group reported the synthesis of nanographenes and GNRs using the photochemical cyclodehydrochlorination (CDHC) reaction on polychlorinated polyphenylene precursors. The CDHC reaction possesses high regioselectivity and it proceeds without rearrangements or the formation of side-products. Furthermore, the CDHC reaction is conducted without metal catalyst and oxidant under very mild conditions, thus enabling the introduction of different functional groups and heterocycles onto the GNRS to modulate their optoelectronic properties. And comparing with the Scholl reaction, the CDHC reaction provides better cont rol over the edge configuration of the GNRs. This paper investigates in detail the usefulness of the CDHC reaction for the preparation of GNRs and carefully studies the structur al and optoelectronic properties of the GNRs produced. First the laterally symmetrical and unsymmetrical GNRs were prepared to demonstrate the regioselectivity edge configuration control, and efficiency of the photochemical CDHC reaction. Then the thiophene edged GNRs were synthesized to show the versatility of the CDHC reaction and study the i nfluence of the introduction of electron rich functional groups on the structures and optoelectronic properties of GNRs. Then, the conjugated ladder polymers (CLPs) containing electron rich pyrrole units were synthesized to show the compatibility of the CDHC reaction with very electron rich functional groups and the high efficiency of the CDHC reaction. Finally various  extended ullazine derivatives fused with electron rich or electron poor heterocycles were prepared and a series of conjugated donor acceptor polymers (D A CPs) were synthesized and these polymers were successfully employed in the polymer solar cells and exhibited very promising performances, indicating the efficiency, versatility and practicality of the photochemical CDHC reactio n
38

Étude des caractéristiques physiques de nuages moléculaires jeunes

Blais, Félix 11 July 2019 (has links)
La région LOOP4, dans laquelle se trouvent les quatre nuages moléculaires d’intérêts, fait partie de la boucle céleste du nord et a été observée dans le centimétrique à l’aide des radiotélescopes DRAO et GBT afin entre autre d’y détecter la présence d’hydrogène moléculaire. Des observations supplémentaires ont été faites depuis le radiotélescope du Onsala Space Observatory dans le but d’examiner le ¹²CO(J = 1 - 0) et le ¹³CO(J = 1 - 0) dans le milimétrique. Cette molécule est considérée comme un traceur d’hydrogène moléculaire et elle est observable en émission sous les conditions physiques des quatre nuages. On considère que nos quatre régions (LOOP4P, LOOP4N1, LOOP4N2 et LOOP4N4) sont à l’équilibre thermodynamique local, permettant de décrire la distribution de population des niveaux d’énergie avec une seule température d’excitation. On observe le ¹³CO là où l’émission du ¹²CO est élevée, avec un rapport signal sur bruit 6 - 7. Deux à trois composantes en émission ont été observées, parfois sur la même ligne de visée, dans les quatre régions autant en ¹²CO qu’en ¹³CO, indiquant déjà que nous faisons face à des régions dont l’âge évolutif est assez jeune. Plusieurs composantes en ¹²CO sur une même ligne de visée indiquerait que celui-ci pourrait être partiellement optiquement épais. J’ai calculé les largeurs de raie du ¹³CO et constaté qu’elles sont systématiquement plus étroites que celles du ¹²CO, indiquant la faible opacité ainsi que la faible abondance de cet isotope ( << 1) en comparaison avec le ¹²CO. Les largeurs de raie du ¹²CO se situent entre 0:5kms⁻¹ et 1kms⁻¹ pour les quatre nuages, valeurs qui s’apparentent à celles des nuages moléculaires diffus. Par contre, les valeurs du ratio des intensités intégrées du ¹²CO et du ¹³CO, W(¹²CO)=W(¹³CO) se situent entre 3 et 13 et sont davantage associées aux nuages translucides, avec LOOP4N2 qui semble être le plus dense et le plus avancé en évolution. Les masses des nuages ont été calculées avec un facteur permettant de convertir l’intensité intégrée du ¹²CO en masse de H₂ le facteur XCO = 0:5 x 10²⁰cm⁻²(Kkms⁻¹)⁻¹, puis les températures d’excitation ont pu être obtenues à partir du ¹²CO. Les nuages moléculaires observés semblent être dans une étape de transition entre les nuages moléculaires diffus et les nuages translucides, dont LOOP4P et LOOP4N4 semblent être les plus diffus tandis que LOOP4N1 et LOOP4N2 semblent être les plus denses. / The LOOP4 region, in which we found our four molecular clouds of interest, is part of the northern celestial loop. millimetric observations from the DRAO and GBT radiotelescope have been made in this region, looking for IR excess over that expected from an atomic medium resulting in the presence of molecular hydrogen. Additional milimeter observations were made afterward from the Onsala Space Observatory radio telescope to examine the ¹²CO(J = 1 -0) transitions. This molecule is considered a tracer of molecular hydrogen and has observable emission lines under the conditions of our four clouds. We considere that our four regions (LOOP4P, LOOP4N1, LOOP4N2 and LOOP4N4) are in local thermodynamic equilibrium, which means that only one excitation temperature is needed to describe the distributon of energy levels. We only observe ¹³CO lines where ¹²CO lines are strong, with a signal over noise ratio of 6 -7. Two to three emission lines were observed, sometimes on the same line of sight, in our four regions in both ¹²CO and ¹³CO, giving us a glimpse of their early stage of evolution. Multiple ¹²CO components in one line of sight would indicate that it is partially optically thick. ¹³CO linewidths are sistematically narrower than that of ¹²CO, which is in agreement with the lower ¹³CO abundance, hence opacity. ¹²CO linewidths range between 0:5kms⁻¹ and 1 kms⁻¹ for all clouds, values that resemble diffuse molecular clouds. On the other hand, the ¹²CO and ¹³CO integrated intensity ratio, W(¹²CO)=W(¹³CO) ranges between 3 and 13 and they are more associated with translucent clouds, with LOOP4N2 who seems to be the denser and more mature cloud. Cloud masses were computed with the factor XCO = 0:5 x 10²⁰cm⁻²(Kkms⁻¹)⁻¹ and the excitation temperatures were obtained from the ¹²CO lines. The molecular clouds observed appear to be in a transition stage between diffuse molecular clouds and translucent clouds, of which LOOP4P and LOOP4N4 seems to be the most diffuse ones while LOOP4N1 and LOOP4N2 look to be the denser ones.
39

Mise en place d'une méthode de radiothérapie adaptative à l'aide de l'imageur portal

Piron, Ophélie 17 April 2019 (has links)
Cette thèse a pour sujet l’amélioration du traitement contre le cancer par radiothérapie externe à l’aide d’images prises par l’imageur portal. Actuellement, la dose totale d’un traitement curatif en radiothérapie externe est fractionnée sur plusieurs semaines. Au cours de celles-ci, le patient peut présenter des modifications anatomiques dues à de multiples facteurs (comme la perte de poids ou la modification du volume tumoral), ce qui peut compromettre la qualité du traitement planifié. La finalité de ce projet est d’améliorer les traitements de radiothérapie externe en utilisant une technique capable de déterminer si l’anatomie du patient traité est toujours conforme à sa planification. Ce principe est appelé radiothérapie adaptative. L’imageur portal est un détecteur, fixé sur le portique du côté opposé à la source de rayonnement et derrière la table de traitement, ce qui lui permet de mesurer le signal sortant de l’accélérateur, avec ou sans le patient sur la table de traitement. Le but de ce travail a été de développer une méthode, adaptée en fonction de la localisation du site anatomique traité, permettant de vérifier que le patient est anatomiquement conforme à son imagerie de référence, et dans le cas contraire, de chercher l’impact dosimétrique des changements observés pour, au besoin, mettre en place des mesures correctives. Pour chacun des sites anatomiques, des images de dose de sortie sont acquises à chaque fraction de traitement, ainsi que l’acquisition d’imagerie volumétrique par faisceau conique au début et à la fin du traitement. Une analyse gamma est réalisée pour chaque image en prenant comme référence celle de la première fraction et de nombreux paramètres sont extraits de ces analyses: le γ moyen, l’écart-type, le TOP 1% (la valeur moyenne des 1% des plus hautes valeurs de γ), pourcentage de points avec γ supérieur à 1 et, la plus grande surface de pixels connectés avec une valeur gamma> 1. Les analyses ont été effectuées avec une tolérance en dose et en distance classique de 3% / 3 mm et avec un seuil de 10 % du maximum. Des logiciels d’extraction d’image et d’analyse ont été développés premièrement pour faciliter le suivi et à terme, pour inclure le procédé dans une routine clinique automatisé. Chaque site ayant sa propre problématique, ils ont tous été abordés indépendamment des uns des autres. Les contraintes de chaque localisation ainsi que toutes les possibilités d’amélioration des traitements ont été étudiées afin de proposer une solution envisageable dans les conditions cliniques actuelles d’un centre de radiothérapie. Ainsi, chacune des solutions proposées pour améliorer le traitement des patients, que ce soit dans les chapitres 3 et 4ou encore dans l’annexe 1 sur le poumon, est basée sur les besoins réels, cliniquement parlant. Cette méthode, rapide à mettre en place et très simple d’utilisation, a su prouver qu’elle était susceptible d’améliorer les traitements des trois sites anatomiques étudiés. / This thesis project aims to improve cancer treatments by external radiotherapy using images from the electronic portal imaging device (EPID). The portal imager is a detector, attached to the gantry on the opposite side of the radiation source and behind the treatment table when a patient is treated. This enables the collection of the signal from the accelerator, with or without the patient on the treatment table. Currently, the total dose of a curative treatment by external radiotherapy is delivered over several weeks. During these weeks, the patients may have anatomical changes due to multiple factors (such as weight loss or changes in tumor volume), which may compromise the accuracy of the delivered dose as compared to the planned treatment. The aim of this research project is to develop a new adaptive radiotherapy methodology allowing to determine at each stage of the treatment whether the patient’s anatomy is still consistent with the initial planning and to estimate the dosimetric impact when changes were observed. EPID dose images were acquired at each treatment fraction for the three different anatomical site under study (head and neck, prostate and lung), together with cone beam volumetric imaging acquisition taken at least twice during treatment, at the second and last fractions. An image extraction and analysis software was first developed to facilitate monitoring and eventually to include the process in an automated clinical routine. A gamma analysis was thus performed for each image, with the one from the first fraction set as reference and several parameters were extracted from these analyzes: average γ-value, standard deviation, Top 1% from maximum γ, the percentage of points with a γ value larger than 1 and the largest connected pixel area with a gamma value > 1. Analyses were made with 3%/3mm as passing criteria and with a threshold of 10% for the low value cut-off. Since each targeted anatomical site has its own characteristics, they were all assessed independently. Taking into account the constraints of each anatomic site, the specificity and the sensitivity values that we have determined, confirmed the performance of the method to detect anatomical changes. Moreover, the γ-analysis threshold correlated well with morphological changes having a relevant dosimetric impact. In conclusion, such analyses of daily EPID images allow to identify patients at risk of deviation from the planned treatment and can support an early replanning decision. Our method is very quick to implement and very easy to use, and should be a powerful tool to improve the treatment of cancers, particularly those of the three anatomical sites studied
40

On surface electropolishing for the development of metallic stents

Mousselli, Jad 23 September 2019 (has links)
Les maladies cardiovasculaires sont responsables d'environ le tiers de tous les cas de décès au Canada. L'une des solutions utilisées pour résoudre ce problème consiste à utiliser un dispositif métallique constitué d'un maillage ayant une forme d’un filet et appelé stent. Les stents sont de petits dispositifs implantés dans des vaisseaux sanguins rétrécis pour rétablir la circulation sanguine et éviter une crise cardiaque ou un accident vasculaire cérébral et pour traiter les anévrismes du cerveau. Un contrôle précis de la surface de ces stents est nécessaire pour assurer la compatibilité de l'alliage choisi avec le milieu biologique dont il va être en contact avec. Les stents métalliques doivent satisfaire à des conditions précises définies en fonction de leur application finale. Ils doivent respecter des exigences strictes en termes de propriétés mécaniques, d'interaction électrochimique (corrosion) et de cytocompatibilité. Les alliages suivants sont traditionnellement utilisés dans les applications biomédicales et plus précisément pour les applications cardiovasculaires: l'alliage AISI316L est considéré comme une référence dans ce domaine, mais l'alliage L605, un alliage à base de Cobalt, prend de plus en plus d'importance grâce à ses propriétés mécaniques élevées (haute ductilité et haute résistance à la traction) et résistance élevée à la corrosion. L'utilisation d'alliages de titane est la nouvelle frontière pour les biomatériaux dans les applications cardiovasculaires, il est considéré comme un nouveau candidat potentiel pour les stents cardiovasculaires. Les alliages de titane présentent une combinaison unique de haute résistance et de grande ductilité (résistance à la traction et déformation uniforme supérieures à 1000 MPa et 30% respectivement). L’électropolissage est une étape de prétraitement appliquée à ces alliages métalliques pour obtenir des surfaces chimiquement homogènes, recouvertes d'une couche d'oxyde uniforme et amorphe, généralement de rugosité très lisse. Ce processus permet non seulement de contrôler les propriétés physiques de la surface, mais également celles chimiques. Le processus d'électropolissage comporte certaines variables, telles que le courant, la tension, la solution électrolytique et la température de l'électrolyte. En les contrôlant, il est possible de comprendre et d'améliorer les propriétés de la surface. Le but de ce projet est d’étudier les effets des différents variables d’électropolissage (courant, tension, solution électrolytique) sur les caractéristiques / propriétés de surface (morphologie, composition chimique et mouillabilité) des alliages utilisés pour la fabrication de stents. / Cardiovascular diseases (CVD) are responsible for about one-third of all death cases in Canada. One of the solutions used to solve this problem is using a metallic device made of a mesh and called a stent. Stents are small devices that are implanted in narrowed blood vessels to restore blood flow and to avoid a heart attack or stroke and to treat brain aneurysms. An accurate surface control is needed to assure the cytocompatibility of the chosen alloy with its biologic environment. Metallic stents must satisfy precise conditions defined according to their final application. They need to respect strict requirements, in terms of mechanical properties, electrochemical interaction (corrosion) and cytocompatibility. The following alloys are traditionally used in biomedical applications and more precisely for cardiovascular applications: the alloy AISI316L is considered a reference in this field, but the alloy L605, a Co-based material, is gaining more and more importance, due to its high mechanical properties (high ductility and high ultimate tensile strength) and high corrosion resistance. The use of Titanium alloys is the new frontier for biomaterials in cardiovascular applications, it is considered as a new potential candidate for cardiovascular stents. Titanium alloys, shows a unique combination of high strength and high ductility (ultimate tensile strength and uniform deformation higher than 1000 MPa and 30%, respectively). Electropolishing is a pre-treatment step applied to these alloys to obtain chemically homogeneous surfaces, covered with a uniform and amorphous oxide layer, generally with a very smooth roughness. This process not only makes it possible to control the physical properties of the surface, but also the chemical ones. The electropolishing process has some changeable variables, such as current, voltage, electrolytic solution and temperature of electrolyte. By controlling them, it is possible to understand and improve the surface properties. This work is aimed at studying the effects of electropolishing changeable variables (current, voltage, electrolytic solution) on surface characteristics/properties (morphology, chemical composition and wettability) of those alloys used for the manufacture of stents.

Page generated in 0.032 seconds