• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 39
  • 14
  • 2
  • Tagged with
  • 59
  • 20
  • 15
  • 15
  • 14
  • 12
  • 12
  • 11
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Pump-probe spectroscopy of vibronic dynamics using high-order harmonic generation : general theory and applications to SO2 / Spectroscopie pompe-sonde de la dynamique vibronique en utilisant la génération d’harmoniques d’ordre élevé : théorie générale et applications à SO2

Lévêque, Camille 31 October 2014 (has links)
La molécule SO2 est connue depuis longtemps dans la pour son spectre d'absorption compliqué résultant de forts couplages entre les états électroniques impliqués. Cette longue histoire a récemment été complétée par de nouvelles études spectroscopiques résolues en temps; la spectroscopie de photoémission (TRPES) et la génération d'harmoniques d'ordre élevé. De nouvelles questions ont ainsi émergées, concernant le rôle des différents états électroniques excités, les différents couplages et leur temps caractéristiques. Pour répondre à ces questions, nous avons considéré, dans un premier temps, l'état électronique fondamental et les deux premiers états singulets excités. Ceux-ci interagissent par l'intermédiaire de couplage non-adiabatic, conduisant à la complexité du spectre d'absorption. Nos résultats se sont avérés particulièrement précis, en particulier pour la description des bandes de Cléments, donnant lieu à leur première description et interprétation théorique. Le couplage spin-orbite et les états triplets ont été introduits dans la description du système et l'analyse de la dynamique a permis de comprendre les différents mécanismes de conversion intersystème. Trois résultats majeurs sont obtenus, (i) le rôle prédominant d'un état 3B2, (ii) la présence d'interférences quantiques lors du processus et (iii) une nouvelle interprétation de la bande dite " interdite ", émanant des état triplets. Les spectroscopies TRPES et HHG ont été utilisées pour sonder la dynamique moléculaire dans ces états. Grâce à des simulations ab-initio nous montrons que la méthode TRPES permet l'étude la dynamique pour tous les états alors que la HHG n'est sensible qu'à la conversion intersystème. / The SO2 molecule is long known in the literature for its complex UV absorption spectrum, which is caused by a variety of strong couplings between the electronic states involved. This long and rich history was augmented recently by new time-dependent spectroscopic methods, namely, Time-Resolved Photoelectron Spectroscopy (TRPES) and High-order Harmonic Generation (HHG). Additional open questions emerged immediately, e.g., what was the role of the different known electronic states, which were the relevant couplings and also the timescales of the different relevant processes.To resolve these issues theoretically, we start by considering the electronic ground state and the two lowest singlet excited states. The latter interact through non-adiabatic couplings leading to a complex photoabsorption spectrum. Our results were accurate, especially concerning the Clements bands, and provide a comprehensive description of the photoabsorption spectrum. When including the spin-orbit coupling, relevant for the weak long-wavelength absorption system, the three-states model turns into a 12 coupled-states system. Analysis of the different couplings gives insight into the different mechanisms of the intersystem crossing. Three main points are shown: (i) the preponderant role of a 3B2 state, (ii) the possibility of quantum interferences during the process and (iii) a new interpretation of the forbidden band.The TRPES and the HHG spectroscopies have been used to probe the time-dependent dynamics in all these states. With the aid of first-principles simulations we show that the TRPES method is sensitive to the dynamics in the manifold, while HHG is sensitive only to the intersystem crossing.
22

Shape optimization for contact and plasticity problems thanks to the level set method / Optimisation de forme pour des problèmes de contact et de plasticité à l'aide de la méthode des lignes de niveaux

Maury, Aymeric 02 December 2016 (has links)
Cette thèse porte sur l'optimisation de forme via la méthode des "level sets" pour deux comportements mécaniques induisant des déplacements non différentiables par rapport à la forme: le contact et la plasticité. Pour y remédier, nous utilisons des problèmes approchés issus de méthode de pénalisation et de régularisation.Dans la première partie, nous présentons quelques notions fondamentales d'optimisation de forme (chapitre 1). Puis nous exposons les résultats qui seront utiles à l'analyse des deux problèmes mécaniques considérés et nous illustrons ces résultats.La deuxième partie introduit les modèles statiques de contact (chapitre 3) et le modèle statique de plasticité (chapitre 4) que nous utilisons dans le manuscrit. Pour chacun, nous donnons les bases de la modélisation mécanique, une analyse mathématique des inéquations variationnelles associées et nous expliquons quels solveurs nous avons implémentés.La dernière partie se focalise sur l'optimisation de forme. Dans chacun des chapitres nous donnons les versions pénalisées et régularisées des modèles, prouvons, pour certains, leur convergence vers les modèles exactes, calculons leurs gradients de forme et proposons des exemples 2D et, en contact, 3D. Ainsi, dans le chapitre 5, traitons-nous du contact et considérons deux sortes de problèmes: le premier dans lequel la zone de contact est fixe, le second dans lequel la zone de contact est optimisable. Pour ce dernier, nous introduisons deux méthodes pour résoudre du contact sans discrétiser la zone de contact. Dans le chapitre 6, nous abordons le modèle de Hencky que nous approximons grâce à une pénalisation de Perzyna ainsi que grâce à un modèle de notre crue. / The main purpose of this thesis is to perform shape optimisation, in the framework of the level set method, for two mechanical behaviours inducing displacement which are not shape differentiable: contact and plasticity. To overcome this obstacle, we use approximate problems found by penalisation and regularisation.In the first part, we present some classical notions in optimal design (chapter 1). Then we give the mathematical results needed for the analysis of the two mechanical problems in consideration and illustrate these results.The second part is meant to introduce the five static contact models (chapter 3) and the static plasticity model (chapter 4) we use in the manuscript. For each chapter we provide the basis of the mechanical modeling, a mathematical analysis of the related variational inequations and, finally, explain how we implement the associated solvers.Eventually the last part, consisting of two chapters is devoted to shape optimisation. In each of them, we state the regularised versions of the models, prove, for some of them, the convergence to the exact ones, compute shape gradients and perform some numerical experiments in 2D and, for contact, in 3D. Thus, in chapter 5, we focus on contact and consider two types of optimal design problems: one with a fixed contact zone and another one with a mobile contact zone. For this last type, we introduce two ways to solve frictionless contact without meshing the contact zone. One of them is new and the other one has never been employed in this framework. In chapter 6, we deal with the Hencky model which we approximate thanks to a Perzyna penalised problem as well as a home-made one.
23

Un modèle géométrique multi-vues des taches spéculaires basé sur les quadriques avec application en réalité augmentée / A multi-view geometric model of specular spots based on quadrics with augmented reality application

Morgand, Alexandre 08 November 2018 (has links)
La réalité augmentée (RA) consiste en l’insertion d’éléments virtuels dans une scène réelle, observée à travers un écran ou en utilisant un système de projection sur la scène ou l’objet d’intérêt. Les systèmes de réalité augmentée peuvent prendre des différentes formes pour obtenir l’équilibre désiré entre trois critères : précision, latence et robustesse. Il est possible d’identifier trois composants principaux à ces systèmes : localisation, reconstruction et affichage. Les contributions de cette thèse se concentrent essentiellement sur l’affichage et plus particulièrement le rendu des applications de réalité augmentée. À l’opposé des récentes avancées dans le domaine de la localisation et de la reconstruction, l’insertion d’éléments virtuels de façon plausible et esthétique reste une problématique compliquée, mal-posée et peu adaptée à un contexte temps réel. En effet, cette insertion requiert une reconstruction de l’illumination de la scène afin d’appliquer les conditions lumineuses adéquates à l’objet inséré. L’illumination de la scène peut être divisée en plusieurs catégories. Nous pouvons modéliser l’environnement de façon à décrire l’interaction de la lumière incidente et réfléchie pour chaque point 3D d’une surface. Il est également possible d’expliciter l’environnement en calculant la position des sources de lumière, leur type (lampe de bureau, néon, ampoule, ….), leur intensité et leur couleur. Pour insérer un objet de façon cohérente et réaliste, il est primordial d’avoir également une connaissance de la surface recevant l’illumination. Cette interaction lumière/matériaux est dépendante de la géométrie de la surface, de sa composition chimique (matériau) et de sa couleur. Pour tous ces aspects, le problème de reconstruction de l’illumination est difficile, car il est très complexe d’isoler l’illumination sans connaissance a priori de la géométrie, des matériaux de la scène et de la pose de la caméra observant la scène. De manière générale, sur une surface, une source de lumière laisse plusieurs traces telles que les ombres, qui sont créées par l’occultation de rayons lumineux par un objet, et les réflexions spéculaires ou spécularités qui se manifestent par la réflexion partielle ou totale de la lumière. Bien que ces spécularités soient souvent considérées comme des éléments parasites dans les applications de localisation de caméra, de reconstruction ou encore de segmentation, ces éléments donnent des informations cruciales sur la position et la couleur de la source lumineuse, mais également sur la géométrie de la surface et la réflectance du matériau où elle se manifeste. Face à la difficulté du problème de modélisation de la lumière et plus particulièrement du calcul de l’ensemble des paramètres de la lumière, nous nous sommes focalisés, dans cette thèse, sur l’étude des spécularités et sur toutes les informations qu’elles peuvent fournir pour la compréhension de la scène. Plus particulièrement, nous savons qu’une spécularité est définie comme la réflexion d’une source de lumière sur une surface réfléchissante. Partant de cette remarque, nous avons exploré la possibilité de considérer la spécularité comme étant une image issue de la projection d’un objet 3D dans l’espace. Nous sommes partis d’un constat simple, mais peu traité par la littérature qui est que les spécularités présentent une forme elliptique lorsqu’elles apparaissent sur une surface plane. À partir de cette hypothèse, pouvons-nous considérer un objet 3D fixe dans l’espace tel que sa projection perspective dans l’image corresponde à la forme de la spécularité ? Plus particulièrement, nous savons qu’un ellipsoïde projeté perspectivement donne une ellipse. Considérer le phénomène de spécularité comme un phénomène géométrique a de nombreux avantages. (...) / Augmented Reality (AR) consists in inserting virtual elements in a real scene, observed through a screen or a projection system on the scene or the object of interest. The augmented reality systems can take different forms to obtain a balance between three criteria: precision, latency and robustness. It is possible to identify three main components to these systems: localization, reconstruction and display. The contributions of this thesis focus essentially on the display and more particularly the rendering of augmented reality applications. Contrary to the recent advances in the field of localization and reconstruction, the insertion of virtual elements in a plausible and aesthetic way remains a complicated problematic, ill-posed and not adapted to a real-time context. Indeed, this insertion requires a good understanding of the lighting conditions of the scene. The lighting conditions of the scene can be divided in several categories. First, we can model the environment to describe the interaction between the incident and reflected light pour each 3D point of a surface. Secondly, it is also possible to explicitly the environment by computing the position of the light sources, their type (desktop lamps, fluorescent lamp, light bulb, . . . ), their intensities and their colors. Finally, to insert a virtual object in a coherent and realistic way, it is essential to have the knowledge of the surface’s geometry, its chemical composition (material) and its color. For all of these aspects, the reconstruction of the illumination is difficult because it is really complex to isolate the illumination without prior knowledge of the geometry, material of the scene and the camera pose observing the scene. In general, on a surface, a light source leaves several traces such as shadows, created from the occultation of light rays by an object, and the specularities (or specular reflections) which are created by the partial or total reflection of the light. These specularities are often described as very high intensity elements in the image. Although these specularities are often considered as outliers for applications such as camera localization, reconstruction or segmentation, these elements give crucial information on the position and color of the light source but also on the surface’s geometry and the material’s reflectance where these specularities appear. To address the light modeling problem, we focused, in this thesis, on the study of specularities and on every information that they can provide for the understanding of the scene. More specifically, we know that a specularity is defined as the reflection of the light source on a shiny surface. From this statement, we have explored the possibility to consider the specularity as the image created from the projection of a 3D object in space.We started from the simple but little studied in the literature observation that specularities present an elliptic shape when they appear on a planar surface. From this hypothesis, can we consider the existence of a 3D object fixed in space such as its perspective projection in the image fit the shape of the specularity ? We know that an ellipsoid projected perspectivally gives an ellipse. Considering the specularity as a geometric phenomenon presents various advantages. First, the reconstruction of a 3D object and more specifically of an ellipsoid, has been the subject to many publications in the state of the art. Secondly, this modeling allows a great flexibility on the tracking of the state of the specularity and more specifically the light source. Indeed, if the light is turning off, it is easy to visualize in the image if the specularity disappears if we know the contour (and reciprocally of the light is turning on again). (...)
24

Méthodes numériques pour le calcul à la rupture des structures de génie civil / Numerical methods for the yield design of civil engineering structures

Bleyer, Jérémy 17 July 2015 (has links)
Ce travail tente de développer des outils numériques efficaces pour une approche plus rationnelle et moins empirique du dimensionnement à la ruine des ouvrages de génie civil. Contrairement aux approches traditionnelles reposant sur une combinaison de calculs élastiques, l'adoption de coefficients de sécurité et une vérification locale des sections critiques, la théorie du calcul à la rupture nous semble être un outil prometteur pour une évaluation plus rigoureuse de la sécurité des ouvrages. Dans cette thèse, nous proposons de mettre en œuvre numériquement les approches statique par l'intérieur et cinématique par l'extérieur du calcul à la rupture à l'aide d'éléments finis dédiés pour des structures de plaque en flexion et de coque en interaction membrane-flexion. Le problème d'optimisation correspondant est ensuite résolu à l'aide du développement, relativement récents, de solveurs de programmation conique particulièrement efficaces. Les outils développés sont également étendus au contexte de l'homogénéisation périodique en calcul à la rupture, qui constitue un moyen performant de traiter le cas des structures présentant une forte hétérogénéité de matériaux. Des procédures numériques sont spécifiquement développées afin de déterminer puis d'utiliser dans un calcul de structure des critères de résistance homogènes équivalents. Enfin, les potentialités de l'approche par le calcul à la rupture sont illustrées sur deux exemples complexes d'ingénierie : l'étude de la stabilité au feu de panneaux en béton armé de grande hauteur ainsi que le calcul de la marquise de la gare d'Austerlitz / This work aims at developping efficient numerical tools for a more rational and less empirical assessment of civil engineering structures yield design. As opposed to traditionnal methodologies relying on combinations of elastic computations, safety coefficients and local checking of critical members, the yield design theory seems to be a very promising tool for a more rigourous evaluation of structural safety. Lower bound static and upper bound kinematic approaches of the yield design theory are performed numerically using dedicated finite elements for plates in bending and shells in membrane-bending interaction. Corresponding optimization problems are then solved using very efficient conic programming solvers. The proposed tools are also extended to the framework of periodic homogenization in yield design, which enables to tackle the case of strong material heterogeneities. Numerical procedures are specifically tailored to compute equivalent homogeneous strength criteria and to use them, in a second step, in a computation at the structural level. Finally, the potentialities of the yield design approach are illustrated on two complex engineering problems : the stability assessment of high-rise reinforced concrete panels in fire conditions and the computation of the Paris-Austerlitz railway station canopy
25

Plans d'expériences optimaux et application à l'estimation des matrices de trafic dans les grands réseaux : programmation conique du second ordre et sous-modularité

Sagnol, Guillaume 13 December 2010 (has links) (PDF)
Nous abordons le problème de l'optimisation des mesures dans les grands réseaux Internet par la théorie des plans d'expériences optimaux. Cette approche donne lieu d'étudier des problèmes de grande taille en conception optimale d'expériences, pour lesquels nous développons une méthode de résolution fondée sur l' Optimisation Conique du Second Ordre. Le cœur de notre méthode est un théorème de réduction du rang en optimisation semi-définie. Certains aspects combinatoires sont également étudiés. L'application à l'inférence des matrices de trafic dans les réseaux IP fait l'objet de la seconde partie de ce manuscrit. Nous développons une méthode où l'on optimise l'estimation de plusieurs combinaisons linéaires (tirées de façon aléatoire) des demandes de trafic. Nous comparons notre approche aux précédentes au travers de simulations sur des données réelles. En particulier, nous traitons des instances pour lesquelles les approches précédentes étaient incapables de fournir une solution.
26

Contribution à l'optimisation de la conception des engrenages coniques à denture droite: analyse et synthèse de la géométrie et des tolérances

Bruyère, Jérôme 11 1900 (has links) (PDF)
La maîtrise accrue des matériaux et des procédés de forgeage permet aujourd'hui d'obtenir des engrenages coniques d'une qualité suffisante pour pouvoir les utiliser sans autre procédé de finition. Ce sont les pièces dites «net shape». Grâce à cette évolution technologique, il est nécessaire de d'optimiser la définition géométrique de ces engrenages en tenant compte des possibilités des procédés de forgeage, en particulier. Tout d'abord, la définition de la géométrie nominale des engrenages coniques à denture droite basée sur les propriétés géométriques et cinématiques du profil en développante de cercle sphérique est réétudiée et a abouti à une modélisation paramétrique des surfaces actives en intégrant un bombé longitudinal. Afin de garantir un certain niveau de qualité de l'engrènement, il est nécessaire de limiter les variations inhérentes au procédé de forgeage et aux ressources de fabrication, il s'agit de l'analyse et de la synthèse des tolérances. Cette analyse a nécessité une modélisation géométrique des engrenages incluant les écarts intrinsèques et les écarts de situation. L'analyse de l'impact de ces écarts sur l'erreur cinématique (Tooth Contact Analysis) repose sur la résolution d'un système d'équations non linéaires pour chaque position du pignon et d'un traitement de ces résultats; la difficulté de cette analyse est la grande sensibilité des résultats aux écarts. Cet outil «TCA» est le module principal de l'analyse des tolérances qui est réalisée de façon statistique par simulation de Monte Carlo. L'analyse des tolérances permet de valider une solution d'allocation de celles-ci mais ne permet pas son allocation automatique. Ainsi une approche de synthèse des tolérances a été validée, il s'agit de l'optimisation par algorithme génétique où la fonction objectif est de minimiser le ratio coût des tolérances sur la probabilité de respect des exigences. Cette analyse et cette synthèse ont été menées dans un premier temps sans charge, en considérant l'engrenage comme indéformable. Puis, la prise en compte des déformations est réalisée par la méthode des coefficients d'influences. Le problème de contact et de déformation globale de la denture sont découplés. Les coefficients d'influences de contact sont estimés par la méthode de Boussinesq et Cerruti. Les coefficients d'influence de flexion sont estimés par interpolation et méthode des éléments finis. Ce modèle permet l'analyse de l'engrènement sous charge mais les temps de calculs restent un handicap pour l'analyse des tolérances. Ces modèles de comportement pourront être affinés dans de futurs travaux et être le support de nouveaux modèles de spécification des engrenages, de suivi du processus de fabrication, d'une meilleure connaissance des interactions géométrie-mécanique-matériau, etc.
27

Méthodes numériques pour le calcul à la rupture des structures de génie civil / Numerical methods for the yield design of civil engineering structures

Bleyer, Jérémy 17 July 2015 (has links)
Ce travail tente de développer des outils numériques efficaces pour une approche plus rationnelle et moins empirique du dimensionnement à la ruine des ouvrages de génie civil. Contrairement aux approches traditionnelles reposant sur une combinaison de calculs élastiques, l'adoption de coefficients de sécurité et une vérification locale des sections critiques, la théorie du calcul à la rupture nous semble être un outil prometteur pour une évaluation plus rigoureuse de la sécurité des ouvrages. Dans cette thèse, nous proposons de mettre en œuvre numériquement les approches statique par l'intérieur et cinématique par l'extérieur du calcul à la rupture à l'aide d'éléments finis dédiés pour des structures de plaque en flexion et de coque en interaction membrane-flexion. Le problème d'optimisation correspondant est ensuite résolu à l'aide du développement, relativement récents, de solveurs de programmation conique particulièrement efficaces. Les outils développés sont également étendus au contexte de l'homogénéisation périodique en calcul à la rupture, qui constitue un moyen performant de traiter le cas des structures présentant une forte hétérogénéité de matériaux. Des procédures numériques sont spécifiquement développées afin de déterminer puis d'utiliser dans un calcul de structure des critères de résistance homogènes équivalents. Enfin, les potentialités de l'approche par le calcul à la rupture sont illustrées sur deux exemples complexes d'ingénierie : l'étude de la stabilité au feu de panneaux en béton armé de grande hauteur ainsi que le calcul de la marquise de la gare d'Austerlitz / This work aims at developping efficient numerical tools for a more rational and less empirical assessment of civil engineering structures yield design. As opposed to traditionnal methodologies relying on combinations of elastic computations, safety coefficients and local checking of critical members, the yield design theory seems to be a very promising tool for a more rigourous evaluation of structural safety. Lower bound static and upper bound kinematic approaches of the yield design theory are performed numerically using dedicated finite elements for plates in bending and shells in membrane-bending interaction. Corresponding optimization problems are then solved using very efficient conic programming solvers. The proposed tools are also extended to the framework of periodic homogenization in yield design, which enables to tackle the case of strong material heterogeneities. Numerical procedures are specifically tailored to compute equivalent homogeneous strength criteria and to use them, in a second step, in a computation at the structural level. Finally, the potentialities of the yield design approach are illustrated on two complex engineering problems : the stability assessment of high-rise reinforced concrete panels in fire conditions and the computation of the Paris-Austerlitz railway station canopy
28

Contribution à l’analyse du comportement dynamique d’engrenages spiro-coniques / Contribution to the analysis of the dynamic behavior of spiral bevel gears

Wang, Jing 10 June 2014 (has links)
Les engrenages spiro-coniques sont utilisés dans les transmissions de puissance nécessitant un renvoi d’angle, par exemple dans le domaine aéronautique ou automobile. Ces engrenages admettent des puissances et des vitesses importantes. La fabrication des engrenages spiro-conique est complexe. De nombreuses études ont été réalisées sur son optimisation pour définir les profils des dents en contacts. Des travaux existent également pour le dimensionnement statique des dentures. L’aspect dynamique est l’objectif du travail de cette thèse. Des approches théoriques et numériques, pour simuler les vibrations d’engrènement dans des couples spiro-coniques, sont présentées et discutées. Plusieurs modèles ont été développés : torsionnel et tridimensionnel, incluant la prise en compte de défauts de position et d’alignement. Un modèle original (tridimensionnel local), est proposé. Il repose sur des analyses quasi-statiques préalables. Il permet de suivre les évolutions des conditions de contact instantanées sur les flancs de denture. Une approche alternative est également présentée, qui conduit à construire des termes d’excitation globaux en termes d’erreurs de transmission et de raideurs d’engrènement, permettant ainsi de s’affranchir d’algorithmes de contact au cours de la résolution dynamique. Des comparaisons ont été menées avec des résultats quasi-statiques et dynamiques issus de la littérature. / Spiral bevel gears are employed in power transmissions which require motion transfer between crossed axes in aerospace and automotive applications for instance. Such gears can transmit large powers and high speeds. The manufacturing of spiral bevel gears is complex. A number of studies have been conducted in order to optimise the mating tooth flank geometry and the static load distribution on the teeth. The main objective of this work is to tackle the dynamic behaviour of spiral bevel gears. Several theoretical and numerical approaches aimed at simulating mesh vibrations are presented and commented upon. Several models have been developed which comprise torsional and three-dimensional models including the influence of position errors and misalignments. An original three-dimensional local model is set up which is based on prior quasi-static analyses and makes it possible to follow the instant contact conditions on the tooth flanks. An alternative formulation is also introduced which relies on global forcing terms derived from transmission errors together with mesh stiffness and does not necessitate the use of a contact algorithm when integrating the equations of motion. A number of comparisons with quasi-static and dynamic results from the literature are presented which illustrate the interest of the proposed methodology.
29

Antenne hélice compacte directive à polarisation circulaire pour dispositif RFID / High directivity and circularly polarized low profile helix antenna for RFID devices

Raimbault, Narcisse 19 March 2015 (has links)
La technologie RFID (Radio Frequency Identification) prend une place de plus en plus importante dans la société d'aujourd'hui notamment dans des domaines aussi variés que la santé, la sécurité, la logistique... Le développement de cette technologie met en évidence de nouvelles contraintes comme la réduction des zones de lecture et la géo-localisation pour le stockage et le suivi de marchandises. Dans ce contexte, la thèse s'est focalisée sur le développement d'antennes pour lecteur RFID dans le cadre du projet SPINNAKER piloté par TAGSYS RFID et soutenu par OSEO. L'objectif de cette étude est de concevoir des antennes compactes et directives à polarisation circulaire en bande UHF et SHF. L'antenne hélice présente toutes ces caractéristiques à l'exception de la hauteur, très importante dès que l'on souhaite obtenir des performances élevées surtout en gain. Dans ce manuscrit, trois solutions sont proposées pour réduire la hauteur de l'antenne hélice tout en répondant aux cahiers des charges. La première solution consiste à utiliser un réflecteur de forme cylindrique ou conique qui permet de réduire la hauteur d'une antenne hélice classique d'un facteur quatre pour atteindre 0,9λ. La réduction de la hauteur se traduit par une augmentation de la surface autour de l'antenne avec une dimension latérale de 2,3λ. La seconde solution consiste à utiliser l'antenne hélice avec une cavité Fabry-pérot. La hauteur du système antennaire obtenue est de 0,5λ avec un diamètre de 2λ. La dernière solution développée dans la thèse introduit une surface CMA à la solution précédente qui permet de réduire la hauteur à 0,25λ. Toutes les solutions proposées ont été validées expérimentalement. / Over the past 20 years, the RFID (Radio Frequency Identification) technology is having a huge expansion. Nowadays, it is frequently used in different areas as the health, the security and the logistic. A lot of researches are ongoing on this topic, especially in order to reduce the reading zone of the readers and to locate the tags. This thesis focuses on the development of new antennas for Readers RFID devices and is part of the SPINNAKER project supported by OSEO. The antennas requirements are circular polarization, high directivity and gain with low profile. The helix antennas meet all these requirements except the axial length. In this manuscript, we propose three solutions to reduce the helix antenna axial length. The first one uses a cylindrical or conical optimal reflector to reduce the length by four. This reduction affects directly the surface witch increases up to 2.3λ. The second solution uses the helix antenna as a circular polarization feed for a Fabry-Perot (FP) cavity. The final antenna presents a cavity height of 0.5λ and a 2λ diameter. The last solution conserves the FP cavity in which we include an Artificial Magnetic Conductor (AMC) to reduce the cavity height to 0.25λ. All these solutions are validated by measurements.
30

Évaluation dosimétrique des images de synthèse CT obtenues par la tomodensitométrie à faisceau conique

Guo, Alan 11 1900 (has links)
La tomodensitométrie à faisceau conique (CBCT) est répandue à travers les centres de cancérologie pour le positionnement du patient avant chaque traitement de radiothérapie. Ces images pourraient potentiellement être utilisées pour des tâches plus complexes. En radio-oncologie, les techniques de planification adaptative sont en développement et nécessitent l'utilisation des images de tomodensitométrie synthétiques (sCT). Alors, plusieurs groupes de recherche ont proposé différentes techniques pour générer des images sCT à partir des données CBCT. L'objectif principale de ce projet est d'évaluer une nouvelle méthode d'apprentissage profond pour générer des images sCT de pelvis à partir des images CBCT. Onze patients ont été rétrospectivement étudiés. Chaque patient a été imagé en séquence par deux techniques d'imagerie volumétrique dans la même position, soit un scan au CBCT et un autre au CT sur rails (CTr). Afin de pouvoir utiliser les images synthétiques dans un contexte clinique, la qualité de l'image et l'impact dosimétrique entre les sCT et les CTr doivent être évalués. Les nombres CT des images sCT sont comparés à ceux des images CTr. Finalement, pour évaluer l'impact dosimétrique, les plans de traitement optimaux sont recalculés sur les images sCT et CTr. Les différences de dose sont évaluées à l'aide d'une analyse gamma et des histogrammes dose-volume. L'évaluation quantitative montre qu'il y a des différences statistiquement significatives dans les os et les cavités d'air. Tandis que, les différences des tissus adipeux et mous ne sont pas statistiquement significatives. Les doses estimées dans les organes à risque et les PTV à partir des données des sCT sont surestimées comparativement à celles calculées à partir des données des CTr. Cependant, les erreurs de doses sont inférieures à 2% pour la plupart des cas étudiés. Ces erreurs de doses sont probablement causées par le manque de tissus dans la périphérie du patient et les erreurs des nombres CT. Bien que les différences de doses soient cliniquement acceptable, la méthode proposée devrait temporairement être limitée aux validations quotidiennes de plans de traitement pour des cas pelviens. / The cone-beam computed tomography (CBCT) is widely spread in cancer centers for positioning the patient before their radiotherapy treatment. These images could potentially be used for more complex tasks. In radio-oncology, adaptive planning technics are in development and require the use of synthetic CT (sCT) images. So, multiple research groups proposed different methods to generate sCT images from CBCT data. The main purpose of this project is to assess a new deep-learning method to generate sCT images from CBCT images. Eleven patients were retrospectively studied. Each patient was subsequently imaged by two volumetric imaging methods in the same position, one CBCT scan and the other from CT on rails (CTr). In order to clinically use the synthetic images, image quality and dosimetric impact between sCT and CTr must be evaluated. sCT images' CT values are compared to those in CTr images. Finally, to evaluate the dosimetric impact, optimal treatment plans are recalculated with sCT and CTr images. Dose differences are assessed by gamma analysis and dose-volume histograms. The quantitative evaluation shows that differences are statistically different in bones and air cavities. As for adipose and soft tissues, differences were not statistically different. The estimated doses in organs-at-risk and PTVs from sCT data are overestimated compared to those from CTr data. However, dose errors are inferior to 2% in the majority of studied cases. These dose errors are most likely due to missing tissues on the outskirt of the patient and the errors of CT numbers. Although dose differences are clinically acceptable, the proposed method should temporarily be limited to daily validations of pelvic treatment plans.

Page generated in 0.123 seconds