• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 223
  • 50
  • 19
  • 1
  • Tagged with
  • 291
  • 128
  • 73
  • 70
  • 57
  • 56
  • 42
  • 37
  • 32
  • 31
  • 28
  • 26
  • 25
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Horloge atomique à piégeage cohérent de population du césium en cellule : limitations à la stabilité de fréquence / Atomic clock using coherent population trapping in a cesium cell : limitations to the frequency stability

Danet, Jean-Marie 22 March 2014 (has links)
Ce mémoire porte sur l’étude de la stabilité de fréquence d’une horloge atomique à piégeage cohérent de population. Le cadre de cette étude est d’une part d’approfondir la connaissance du piégeage cohérent de population en cellule de vapeur et d’autre part de construire un prototype d’horloge démontrant une stabilité de fréquence à l’état de l’art des meilleures horloges compactes de laboratoire. Grâce à une interrogation impulsionnelle et un schéma d’excitation en polarisations linéaires et orthogonales, cette horloge présenterait une stabilité de fréquence relative nettement inférieure à 10^-13 à 1 s si elle était limitée par un bruit fondamental tel que le bruit de photon. Après une présentation du montage expérimental, la première partie de ce mémoire est consacrée à l’étude des différentes sources de bruit limitant la stabilité de fréquence court-terme. Le soin particulier donné à la modélisation, à la caractérisation expérimentale et à la réduction des transferts de bruit de fréquence de l’oscillateur local (effet Dick) et du bruit d’intensité du laser en bruit de fréquence de l’horloge, a permis de mesurer une stabilité de fréquence au niveau de 3.2x10^-13 à 1 s. Dans un deuxième temps une étude théorique et expérimentale du déplacement de fréquence micro-onde en fonction de la puissance laser est présentée. Au-delà de la mise en évidence du caractère clé de la déformation de la raie dans l’explication de ce déplacement, elle a posé les bases de la dernière partie de ce mémoire qui propose une méthode d’insensibilisation du déplacement de fréquence aux fluctuations de puissance. / This report refers to the frequency stability study of a compact clock using coherent population trapping. The frame of such a study is firstly to deal in depth with the understanding of the systematic effects affecting the frequency of a coherent population trapping resonance. A second goal is to build a state-of-the-art compact atomic clock. Because of a pulsed interrogation and laser beams linearly and orthogonally polarized, our prototype would present a fractional frequency stability distinctly below 10^-13 at 1 s integration if it was shot-noise limited. Further to a setup description, the first part of this report is devoted to study the noise sources which limit the short-term stability of the clock. A special attention has been paid to model, experiment and reduce the transfer of local oscillator frequency noise and of laser intensity noise to microwave frequency noise. It led to measure an interesting stability measurement at the level of 3.2x10^-13 at 1 s. An experimental and theoretical study of the frequency shift due to laser intensity fluctuation is then presented. Beyond the influence on this shift of dark resonance overlapping that has been enlighted, this study gives the basics to understand the insensibilization method of the frequency to power fluctuations presented in the last chapter.
142

Limites quantiques dans les mesures de distance à l'aide de peignes de fréquences / Quantum limits in range-finding measurements with optical frequency combs

Jian, Pu 03 March 2014 (has links)
Dans de nombreux domaines de la physique, la mesure de la position d'un objet dans l'espace-temps est faite par échange d'impulsions lumineuses. Dans cette thèse, nous étudions les limites quantiques dans l'estimation d'un paramètre à l'aide de la lumière, et nous nous intéressons à ces limites dans une mesure de distance à l'aide de peignes de fréquences optiques. Dans un premier temps, nous étudions les limites générales d'une estimation de paramètre données par la limite de Cramér-Rao quantique. En particulier, nous présentons la limite de sensibilité dans une estimation faite à l'aide d'états Gaussiens multimodes et démontrons qu'il est possible d'atteindre la limite théorique à l'aide d'un montage expérimental simple. Dans un deuxième temps, nous appliquons cette limite au problème de positionnement dans l'espace-temps à l'aide de peignes de fréquence. Dans un environnement contrôlé tel que le vide, nous montrons que la sensibilité optimale dépasse celle d'un montage interférométrique ou de temps de vol et peut être obtenue à l'aide de techniques de mise en forme d'impulsion. Nous démontrons expérimentalement la limite quantique standard dans une mesure de distance. Dans un dernier temps, nous étudions comment ce protocole optimal est affecté lorsque la dispersion de l'environnement, par exemple dans l'air, entre en jeu. Nous montrons que la perte d'exactitude due aux fluctuations de l'environnement peut être compensée au prix d'une diminution de la précision. Nous présentons un protocole expérimental pour une mesure en temps réel d'une distance insensible aux perturbations atmosphériques. / In many fields of physics, the determination of the space-time position of an object is performed at high levels of accuracy and precision by the exchange of light pulses. In this thesis, we investigate the quantum limits in a parameter estimation scheme using light in a practical point of view, and we study how these limits apply in a range-finding scheme using optical frequency combs. In a first part, we study the quantum limits in a general parameter estimation problem by the means of the quantum Cramér-Rao bound. We focus on schemes involving multimode Gaussian states and derive the limits of sensitivity in the estimation of any parameter encoded in such states. We show that a simple experimental setup allows to optimally measure the parameter carried by the light. In a second part, we study how these limits apply in a range-finding protocol using optical frequency combs. In a well-controlled environment such as vacuum, we show that there exists an optimal scheme, requiring pulse shaping techniques, which sensitivity is better than the usual phase interferometry and time-of-flight measurements. We present experimental results that exhibits the standard quantum limit in space-time positioning. In the last part, we study the limitations introduced to this optimal scheme when the environment is weakly dispersive, like in air. We demonstrate that the loss of accuracy caused by such environmental fluctuations can be compensated at the expense of a reduced sensitivity. We propose an experimental scheme that allows to perform a real-time ranging measurement immune from atmospheric perturbations, without any knowledge of the values of the environmental parameters.
143

Métrologie et évaluation fonctionnelle motrice dans les maladies neuromusculaires de l’enfance : Illustrations à partir de la Mesure de Fonction Motrice (MFM) et d’une classification en grades de sévérité d’atteinte fonctionnelle motrice (NM-Score) / Metrology and motor function assessment in childhood neuromuscular diseases : Illustration with the Motor Function Measure (MFM) and a classification in levels of motor function decline severity (NM-Score)

Vuillerot, Carole 29 June 2012 (has links)
Les progrès de la recherche et de la prise en charge des maladies neuromusculaires de l’enfance ont prolongé la survie des patients. L’évaluation s’impose donc pour le suivi des patients et aussi en recherche clinique car les premiers essais cliniques tant attendus commencent à paraître. Une métrologie rigoureuse et adaptée est alors indispensable parce qu'il n'est possible ni de se contenter d’une quantification approximative ni d'utiliser des outils non adaptés à des pathologies évolutives. Nous résumons l’état des connaissances sur la métrologie appliquée à l’évaluation fonctionnelle motrice des patients atteints de maladies neuromusculaires et proposons une revue de la littérature sur les outils disponibles avec des analyses précises de leurs propriétés métrologiques. La Mesure de Fonction Motrice, développée à partir de 1998, présente des qualités intéressantes en termes de validité et de fiabilité. Nous avons analysé sa sensibilité au changement dans différentes populations de patients adultes et enfants. Nous proposons ensuite, une classification en grades de sévérité d’atteinte fonctionnelle motrice, le NM-score. Les études de validation ont confirmé son intérêt, sa facilité d'utilisation, sa validité et sareproductibilité. Le NM-Score permet de décrire précisément et de façon discriminante les patients en termes de fonction motrice pour la position debout et les transferts, la motricité axiale ou proximale et la motricité distale. S’intéresser à l’évaluation et à la mesure en médecine, c’est faire preuve d’une rigueur indispensable aux décisions de soins touchant des personnes vulnérables aux besoins spécifiques. / Advances in the research and treatment of childhood neuromuscular diseases have led to longer patient survivals. Evaluation is thus required not only in clinical practice for patient follow-up but also in medical research because the results of long-awaited clinical trials are beginning to emerge. A rigorous and appropriate metrology is then necessary because rough estimates or the use of improper assessment tools are no more satisfactory. We summarize here the current knowledge on the metrology applied to motor function assessment of patients with neuromuscular diseases. We propose a review of the literature on the tools available to monitor motor function with detailed analyses of their metrological properties. Developped since 1998, the Motor Function Measure presents interesting properties in terms of validity and reliability. We analyzed its sensitivity to change in different patient populations of adults and children. We then propose, the NM-Score, a classification in levels of severity of motor function decline.Validation studies have confirmed the interest of this score as well as its ease of use, validity,and reproducibility. The NM-Score is able to describe the patients precisely and discriminantly in terms of motor function for standing position and transfers, axial / proximal motor function and distal motor function. Being interested in evaluation and measurement in medicine is a sign of rigor necessary for decision-making regarding vulnerable persons with special need.
144

Probing chalcogenide films by advanced X-ray metrology for the semiconductor industry / Développement des protocoles de métrologie des nouveaux matériaux chalcogénures pour l'industrie des semi-conducteurs

Batista Pessoa, Walter 27 September 2018 (has links)
Les nouveaux matériaux de type chalcogénures (à base de S, Se, Te) font l’objet d’un intérêt croissant, non seulement pour les applications mémoires avancées, photonique et photovoltaïque, mais également autour des matériaux dichalcogénures innovants à base de métaux de transition (MoS₂, WS₂, ..). Les propriétés de ces matériaux, réalisés sous forme d’alliages binaires ou ternaires, avec ou sans dopage, dépendent fortement de leur composition, du profil de composition dans ces couches très fines, ainsi que des conditions de surface et d’interface (préparation, passivation). La maîtrise des propriétés de ces couches fines, déposées par voie chimique (CVD) ou par co-pulvérisation cathodique magnétron, doit s’appuyer sur des nouveaux protocoles de caractérisation aux incertitudes optimisées et compatibles avec un contrôle de fabrication en ligne. Dans cette thèse, nous présentons les performances de protocoles de métrologie spécifiquement développés pour l’analyse de couches minces de chalcogénures. Ces protocoles, qui s’appuient essentiellement sur les techniques non destructives de spectroscopie de photoélectrons (XPS) et de fluorescence X (XRF), ont été optimisés pour la caractérisation surfacique des couches ultrafines, l’analyse quantitative de la composition des matériaux complexes à base de tellure ou de soufre, et la mesure du profil de composition dans des couches et empilements < 50 nm. Dans un premier temps, nous présentons l’étude par XPS quasi in situ des propriétés de surface des matériaux Ge, Sb, Te ainsi que de leurs composés binaires et ternaires. Nous mettons en évidence l’évolution de la surface après remise à l’air puis vieillissement, et nous comparons l’efficacité de stratégies d’encapsulation in situ de couches minces à base de Te et Se. Nous démontrons ensuite les performances de protocoles d’analyses par XRF à dispersion de longueur d’onde (WDXRF) et XPS pour la quantification précise de la composition chimique de composés Ge-Sb-Te (de 1 à 200 nm) et de couches ultrafines de dichalcogénures à base de métaux de transition (MoS₂, WS₂). L’analyse combinée WDXRF/XPS permet de mesurer l’évolution avec la composition des facteurs de sensibilité relative des composantes Ge3d, Te4d et Sb4d, et par conséquent d’améliorer la précision de mesure par XPS de la composition des matériaux à changement de phase de type GexSbyTez. Nous soulignons également l’influence des effets de matrice sur la capacité de la WDXRF à l’analyse quantitative de l’azote dans des matériaux Ge-Sb-Te. Nous évaluons la possibilité d’un étalonnage de la WDXRF fondé sur des analyses par faisceaux d’ions spécifiques, ce qui permet in fine un suivi en ligne de couches GeSbTeN dans une fenêtre procédé donnée. Enfin, nous présentons deux stratégies de caractérisation non destructive du profil de composition dans des couches minces de chalcogénures. D’une part, nous démontrons que la combinaison des techniques de XRF en géométrie d'incidence rasante (GIXRF) et de réflectométrie X (XRR) permet une mise en évidence non ambiguë de faibles variations dans les procédés de dépôts, voire de phénomènes de diffusion dans des empilements de 10 nm d'épaisseur. L'utilisation de substrats multicouches en lieu et place du silicium permet d’optimiser la distribution en profondeur du champ d'ondes stationnaires, ce qui conduit à une amélioration nette de la sensibilité des stratégies XRR / GIXRF. D’autre part, nous montrons l’adéquation de protocoles fondés sur l’analyse XPS résolue en angle pour la caractérisation du profil de composition dans des couches nanométriques de GeTe et Ge₂Sb₂Te₅, ce qui permet une étude fine des premières étapes de dépôt de ces matériaux. / Chalcogenide materials are compounds based on S, Se, and Te elements from group VI of the periodic table. They are receiving an extensive interest not only for applications in resistive memories (PCRAM and CBRAM), photonics and photovoltaics but also in the development of new 2-D materials (e.g. spintronics applications). Chalcogenide materials are already present in the semiconductor roadmaps and it is already replacing flash memories (e.g. phase change material and ovonic threshold switch in new random access memory). For the next technology nodes, chalcogenide properties can be scaled by tuning the chemical composition or by reducing the film thickness. Nonetheless, it also means that their properties become more tightly influenced by the chemical composition, the surface/interface effects and the depth-profile composition. Hence, dedicated metrology protocols must be developed, first to assist the optimization of chalcogenide materials processes in cleanroom environment, then to allow non-destructive process monitoring with industry-driven uncertainties. In this PhD thesis, we developed metrology protocols based on X-ray techniques, dedicated to thin chalcogenides materials and fully compatible with inline monitoring. First, we used quasi in-situ X-ray Photoelectron Spectroscopy (XPS) to characterize the surface of Ge, Sb, Te thin materials and compounds, and to study the composition-dependent evolution of the surface after air break and ageing. The efficiency of in situ capping strategies to protect Te-based and Se-based thin layered materials from ageing was also investigated. Secondly, we demonstrated the ability of improved metrology strategies based on in-line Wavelength Dispersive X-ray Fluorescence (WDXRF) and XPS to accurately quantify the chemical composition of Ge-Sb-Te compounds (from 1 to 200 nm) and ultrathin 2D transition metal dichalcogenides (MoS₂, WS₂). Combined WDXRF/XPS analysis was used to determine refined values of composition-dependent relative sensitivity factors for Te4d, Sb4d and Ge3d that allow for XPS-based metrology of PCRAM materials with mastered accuracy. We pointed the need for in-depth study of the significant matrix effects that alter the ability of WDXRF to quantify Nitrogen in Ge-Sb-Te materials: ion beam analysis was carefully investigated as possible input for WDXRF calibration, and a WDXRF protocol was established for inline monitoring of N-doped Ge-Sb-Te films in a specific process window. Finally, we investigated two ways to non-destructively characterize the in-depth chemical distribution in thin chalcogenide films: we demonstrated that the combination of XRF in grazing incidence geometry (GIXRF) and X-ray reflectometry (XRR) was able to unambiguously reveal small process differences along with process-induced diffusion in 10 nm-thick stackings. We showed that the use of multilayered substrate instead of silicon allowed fine-tuning of the depth-dependent X-ray standing wave field, resulting in improved sensitivity of XRR/GIXRF strategies. We also developed an angle-resolved XPS protocol for the evaluation of the first deposition steps of GeTe and Ge₂Sb₂Te₅ films, revealing the process-dependent elemental distribution as a function of the film growth. Therefore, in this work we not only elaborated advanced metrology protocols for the development of new chalcogenide films but also metrological solutions for the next technology nodes (28 nm and below), since current in-line metrology tools reach their detection limits.
145

Algorithmes de références 'robustes' pour la métrologie dimensionnelle des surfaces asphériques et des surfaces complexes en optique / Robust Reference Algorithms for form metrology : Application to aspherical and freeform optics

Arezki, Yassir 05 December 2019 (has links)
Les formes asphériques et les surfaces complexes sont une classe très avancée d'éléments optiques. Leur application a considérablement augmenté au cours des dernières années dans les systèmes d'imagerie, l'astronomie, la lithographie, etc. La métrologie de ces pièces est très difficile, en raison de la grande gamme dynamique d'information acquise et la traçabilité à l'unité SI mètre. Elle devrait faire usage de la norme infinie; (Méthode de zone minimum ou la méthode Min-Max) pour calculer l'enveloppe entourant les points dans le jeu de données en réduisant au minimum la différence entre l'écart maximum et l'écart minimal entre la surface et l'ensemble de données. Cette méthode a une grande complexité en fonction du nombre de points, enplus, les algorithmes impliqués sont non-déterministes. Bien que cette méthode fonctionne pour des géométries simples (lignes, plans, cercles, cylindres, cônes et sphères), elle est encore un défi majeur lorsqu' utilisée pour des géométries complexes (asphérique et surfaces complexes). Par conséquent, l'objectif de la thèse est le développement des algorithmes d'ajustement Min-Max pour les deux surfaces asphériques et complexes, afin de fournir des algorithmes de référence robustes pour la grande communauté impliquée dans ce domaine. Les algorithmes de référence à développer devraient être évalués et validés sur plusieurs données de référence (Softgauges) qui seront générées par la suite. / Aspheres and freeform surfaces are a very challenging class of optical elements. Their application has grown considerably in the last few years in imaging systems, astronomy, lithography, etc. The metrology for aspheres is very challenging, because of the high dynamic range of the acquired information and the traceability to the SI unit meter. Metrology should make use of the infinite norm; (Minimum Zone Method or Min-Max method) to calculate the envelope enclosing the points in the dataset by minimizing the difference between the maximum deviation and the minimum deviation between the surface and the dataset. This method grows in complexity as the number of points in the dataset increases, and the involved algorithms are non-deterministic. Despite the fact that this method works for simple geometries (lines, planes, circles, cylinders, cones and spheres) it is still a major challenge when used on complex geometries (asphere and freeform surfaces). Therefore, the main objective is to address this key challenge about the development of Min-Max fitting algorithms for both aspherical and freeform surfaces as well as least squares fitting algorithms, in order to provide robust reference algorithms for the large community involved in this domain. The reference algorithms to be developed should be evaluated and validated on several reference data (softgauges) that will be generated using reference data generators.
146

Génération et manipulation d'états photoniques intriqués pour la communication et la métrologie quantiques / Generation and manipulation of entangled photonic states for quantum communication and metrology

Mazeas, Florent 12 November 2018 (has links)
Après une première révolution quantique marquée par l'avènement de la physique quantique et de ses lois contre-intuitives, le monde du XXIe siècle est en proie à une seconde révolution articulée autour des technologies quantiques. Ces dernières promettent un bouleversement important dans les domaines de la communication, du calcul, de la simulation et de la métrologie. Dans cette thèse, nous abordons deux des quatre sous-domaines cités précédemment, à savoir ceux de la communication et de la métrologie quantique. Le mot d'ordre rassemblant ces travaux est l'intrication. En effet, nous montrons que, grâce à cette propriété fondamentale, les performances des systèmes de communication et de métrologie standards peuvent être surpassés. Ainsi, nous présentons comment générer ces états intriqués responsables de l'avantage quantique, et ce sur différentes plateformes technologiques. La première plateforme exploitée est le silicium. Récente pour la photonique, elle combine des avantages de maturité permettant l'intégration de nombreuses structures micrométriques sur une même puce, avec des propriétés non-linéaires, basés sur des processus d'ordre 3, efficaces. Le silicium se destine alors à de nombreuses applications comme nous le montrons en générant des paires de photons intriqués démultiplexés spectralement et directement compatibles avec les réseaux de télécommunications standards. La seconde plateforme que nous présentons est le niobate de lithium. Cette dernière, très exploitée dans bon nombres de travaux en photonique quantique, possède une efficacité de génération de paires de photons intriqués très importante, notamment grâce à l'exploitation de processus non-linéaires d'ordre 2. Nous détaillons une expérience de génération d'états hyper-intriqués, qui, à l'instar du silicium, est orientée vers le domaine de la communication quantique. Enfin, nous exploitons aussi ces paires de photons intriqués combinés à des méthodes d'interférométrie quantique afin de réaliser une expérience de métrologie quantique. Le but de cette dernière étant de mesurer avec une précision inédite la différence d'indices de réfraction de fibres bi-coeurs. / After a first quantum revolution marked by the advent of quantum physics and its counter-intuitive laws, the XXIst century is in the throes of a second quantum revolution based on quantum technologies. These promises a major upheaval in the areas of communication, calculation, simulation and metrology. In this thesis, we address two of the four subdomains mentioned above, namely those of communication and quantum metrology. The main word bringing together these works is entanglement. Indeed, we show that, thanks to this fundamental property, the performances of standard communication and metrology systems can be surpassed. Thus, we present how to generate these entangled states responsible for the quantum advantage, and this on two technological platforms. The first platform exploited is silicon. The latter, recent for photonics, combines the advantages of maturity allowing the integration of many micrometric structures on the same chip, with efficient non-linear properties, based on third order process. Silicon is then destined for many applications as we show by generating pairs of spectrally demultiplexed entangled photons directly compatible with standard telecommunication networks. The second platform we present is lithium niobate. The latter, widely used in many quantum photonics demonstrations, has a very important efficiency of entangled photon pairs generation, notably thanks to the exploitation of second order non-linear process. We detail an experiment of hyper-entangled states generation, which, like silicon, is oriented towards the domain of quantum communication. Finally, we also exploit these pairs of entangled photons combined with quantum interferometry methods to realize a quantum metrology experiment. The purpose is to measure with unprecedented precision the refractive indices difference of dual-core fibers.
147

Particules ultra-fines et santé : caractérisation des particules ultra-fines dans l'air et dans les tissus humains / Ultrafine particles and health : characterization of ultrafine particles in air and human tissues

Rinaldo, Mickaël 21 December 2015 (has links)
Les études épidémiologiques sur les effets de la fraction ultrafine de la pollution particulaire et les études sur la toxicité in vitro et in vivo des nanoparticules manufacturées témoignent d’un danger potentiel pour l’homme en raison de nouvelles propriétés physico-chimiques de la matière à l’échelle nanométrique. L’évaluation du risque lié à des expositions professionnelles ou environnementales ou le diagnostic d’un lien causal entre ces expositions et d’éventuelles pathologies peuvent être limités par l’absence de méthode de référence pour caractériser et quantifier les particules nanométriques dans les tissus et fluides biologiques. Ce travail a permis de mettre au point une méthode remplissant ces objectifs, basée sur la préparation des échantillons par digestion alcaline et microfiltration et sur l’analyse en microscopie électronique analytique. L’application de cette méthode dans deux études a permis de confirmer qu’une translocation des particules nanométriques était possible d’une part au niveau pleural avec concentration dans les black spots et d’autre part à travers le placenta avec une possible exposition du foetus. Ce travail a également permis de caractériser des sources d’expositions professionnelles ou environnementales aux particules nanométriques. Sous réserve d’optimiser le coût et le temps nécessaire pour ce type d’analyse, cette méthode pourrait permettre de définir des valeurs de référence sur des échantillons plus larges et représentatifs de la population générale ou être utilisée dans le cadre de la surveillance de travailleurs exposés. / Epidemiologic studies on the health effects of ultrafine particles from atmospheric pollution and in vitro or in vivo studies on manufactured nanoparticles toxicity suggest that potential hazards may result from new physico-chemical properties of materials at nanometric scale. To assess human health risk after occupational or environmental exposure or to demonstrate a causal relationship between such exposures and diseases may be hindered by the lack of reference method to characterize and quantify nanometric particles in biological tissues and fluids. This work allowed us to develop such a method based on samples preparation by alkaline digestion and microfiltration followed by analytical electron microscopy analysis. This method applied in two studies allowed us to confirm that pleural translocation of nanometric particles and accumulation in black spots were possible in human and that they also may pass through the placental barrier with potential fetal exposure. This work also allowed us to characterize some sources of occupational and environmental exposures. After time-cost optimization of this method, it could be used to define reference values on larger population-representative samples or used for the medical follow-up of exposed workers.
148

L'interféromètre Virgo :<br />propriétés optiques, stabilisation en fréquence du laser

Bondu, François 06 June 2008 (has links) (PDF)
Un interféromètre à miroirs suspendus convertit les ondes gravitationnelles, perturbations de la géométrie de l'espace temps, en une variation de temps de vol d'aller-retour de photons entre deux masses inertielles au repos.<br />J'ai réalisé l'asservissement en fréquence du laser pour mesurer ces variations de temps de vol. La stabilité relative de fréquence en boucle du laser est de 1e-21 sur 100 ms ; je montre que le système obtenu respecte les spécifications. J'étudie dans le mémoire les propriétés d'un système où les boucles d'asservissements sont imbriquées.<br />Les cavités optiques résonnantes de l'interféromètre Virgo sont les éléments essentiels de la conversion d'une onde gravitationnelle. J'étudie l'ensemble des propriétés d'un oscillateur Fabry-Perot. Je montre comment elles peuvent être évaluées in situ à partir de mesures des fonctions de transfert utilisées pour leur verrouillage. Les cavités Fabry-Perot sont les oscillateurs de référence. Je fais un état des lieux de l'ensemble des perturbations susceptibles de perturber la stabilité de phase.
149

Nouveaux composites graphite/sel destinés au stockage de l'énergie thermique à haute température : De l'élaboration au développement de méthodes de caractérisation thermique de matériaux conducteurs orthotropes.

Acem, Zoubir 27 September 2007 (has links) (PDF)
Cette thèse a été effectuée dans le cadre des projets DISTOR (Européen) et HTPSTOCK (Français) qui visent à concevoir et étudier de nouveaux composites graphite/sel destinés au stockage de l'énergie thermique à haute température (>200°C). Elle est scindée en deux parties distinctes. <br />La première partie détaille les travaux relatifs à l'élaboration et la caractérisation thermique de ces nouveaux composites. On y présente les différentes voies d'élaboration des composites (dispersion, compression uniaxiale, isostatique) associées aux différents types de graphite (graphite naturel expansé (GNE), graphite synthétique) investigués au cours de cette thèse. On y retrouve également les résultats liés à la campagne de caractérisation thermique de ces composites permettant de mettre en exergue l'impact du graphite sur les propriétés conductrices des matériaux étudiés. A partir de ces résultats, des études de modélisation de l'évolution de la conductivité thermique ont pu être entrepris afin d'approfondir la compréhension de l'effet du graphite (quantité, taille de particules) sur la conductivité effective des composites.<br />La deuxième partie présente essentiellement les dispositifs de caractérisation thermique et les modèles thermocinétiques associés qui ont du être développés et adaptés aux spécificités des matériaux nouvellement élaborés. Cela concerne principalement les matériaux élaborés par compression, matériaux difficilement reproductible et possédant des propriétés orthotropes. La caractérisation de ce type de matériaux s'avère très délicate et pour le moins fastidieuse. C'est pourquoi nous nous sommes attachés à développer et adapter les moyens de caractérisation existants afin de permettre la caractérisation thermique complète d'un matériau conducteur orthotrope à partir d'une seule mesure sur un seul échantillon
150

La cohérence conceptuelle d’étudiants collégiaux en mécanique newtonienne et en métrologie

Périard, Martin 12 1900 (has links)
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée. / This thesis evaluates the coherence of the conceptual network demonstrated by college students in life and applied sciences. This evaluation was based on the analysis of Burt tables issuing from multiple choice questionnaires, on the creation and careful examination of a novel tool, the matrix of specific discrimination coefficients, which will be described in the main text, and on the qualitative analysis of actual laboratory work of students doing an experimentation. At the completion of this project, four research axis have been explored. 1) What is the conceptual coherence demonstrated in Newtonian mechanics? 2) Is the mastery of uncertainty quantification related to the development of logical thinking or to mathematical competency? 3) What is the conceptual coherence demonstrated in the quantification of experimental uncertainty? 4) What are the concrete procedures utilized by students to quantify experimental uncertainty in a semi-directed laboratory context? The main conclusions that emerged from each axis of research can be summerized as follow. 1) The most prevalent erroneous conceptions are not solidly set in a rigid conceptual network. For example, a student successful in a question about Newton’s third law (the most difficult subject of the Force Concept Inventory) is just slightly more likely to succeed in another related question than the other participants. Many pairs of questions displays a negative specific discrimination coefficient demonstrating a weak conceptual coherence in pre-test and a somewhat ameliorated conceptual coherence in post-test. 2) If a small proportion of students has demonstrated marked deficiencies in questions related with control of variable and in those related to the relationship between the graphical display of experimental data and a mathematical model, the majority of students can be considered as adequately mastering those subjects. However, almost every student demonstrated a lack of mastery of concepts underlying the quantification of experimental uncertainty and the propagation of uncertainty (heretofore referred to as metrology). No statistically significant correlation has been observed between the three main topics suggesting that they are largely independent cognitive abilities. Burt table has demonstrated a greater degree of conceptual coherence between control of variables questions than suggested by Pearson correlation coefficients. Equivalent question in the topic of metrology did not permit to demonstrate a clear conceptual coherence. 3) Analysis of a questionnaire entirely devoted to metrology has shown erroneous conceptions caused by prior learning (didactical obstacles), erroneous conceptions based on intuitive models and a lack of global comprehension of metrological concepts although some appear to be almost acquired. 4) When doing real experiments in semi-directed laboratory, students demonstrated the same difficulty identified in the questionnaire of 3) which could interpreted as corroborating previously obtaine results. However, many unanticipated behaviors related to measurement were observed that could not have been anticipated solely by analyzing answers in the multiple-choice questionnaire. Interviews immediately following each semi-directed laboratory permitted the participants to detail certain aspects of their metrological methodology. Most notably, the use of repeated measurement strategies, their « spontaneous » strategies to quantify uncertainty, and their explanation of numerical estimates of reading uncertainties. Overall, uncertainty propagation algorithms were adequately employed. Many erroneous metrological conceptions seem to resist strongly to be modified by learning. Among others, assignation of the resolution of a digital scale as the uncertainty value and the lack of stacking strategies to diminish uncertainty. The conception that a numerical value cannot be more precise than the tolerance of an instrument seems firmly set.

Page generated in 0.0717 seconds