• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 7
  • 1
  • Tagged with
  • 36
  • 17
  • 10
  • 10
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Etude de phénomènes non linéaires du second ordre dans les milieux diffusants en phase liquide. Définition et étude d'une configuration adaptée.

Lemaillet, Paul 11 January 2008 (has links) (PDF)
La détermination expérimentale des composantes du tenseur d'hyper-polarisabilité est essentielle au développement de nouvelles molécules possédant des propriétés d'optique non-linéaire. La diffusion harmonique de la lumière (DHL) correspond à un phénomène de diffusion non linéaire de la lumière pour laquelle les molécules considérées sont dans une solution isotrope. Du fait des fluctuations d'orientations et de positions des molécules, seules six observables, où invariants orientationnels, sont mesurables par DHL. Afin de déterminer expérimentalement ces six observables, nous avons mis au point un polarimètre à lame de phase tournantes fonctionnant avec une source laser impulsionnelle accordable en longueur d'onde et dédié au mesures de diffusion harmonique de la lumière. Nous avons dans un premier temps optimisé l'architecture du montage polarimétrique en nous appuyant sur la réduction du nombre de conditionnement de la matrice d'appareil, réduisant par la même les erreurs statistiques. Puis nous avons étalonné le montage au moyen d'un échantillon référence dédié à la conversion de longueur d'onde, afin de réduire les erreurs systématiques. Enfin, nous avons réalisé des mesures de diffusion harmonique de la lumière sur deux molécules connues, le DR1 et le Cristal Violet.
12

Contribution des informations expérimentales et expertes à l'amélioration des modèles linéaires d'étalonnage multivarié en spectrométrie / Cooperation between experimental and expert informations for improving spectrometer calibrations

Boulet, Jean-Claude 13 December 2010 (has links)
Les spectres contiennent de l'information sur la composition d'échantillons. Cette information est extraite au moyen d'une première famille d'outils chimiométriques, les étalonnages. Une deu xième famille d'outils, les prétraitements, est destinée à enlever une information spectrale nuisible. Etalonnages et prétraitements sont construits à partir de deux types d'informations: (1) les informations expérimentales basées sur l'expérience; (2) les informations expertes basées sur la connaissance a priori. L'objectif de la thèse est d'étudier les complémentarités et synergies entre ces deux types d'informations. Après une étude bibliographique, un modèle général commun aux étalonnages et prétraitements est proposé. L'information utile ou nuisible contenue dans un spectre est obtenue par projection orthogonale de ce spectre (selon un métrique Sigma) sur une matrice P dont les colonnes constituent une base de l'espace vectoriel associé à l'information utile ou nuisible. Selon les cas, l'information utile est conservée alors que l'information nuisible est éliminée. Le modèle général est ensuite implémenté par deux nouvelles méthodes. L'IDC-Improved Direct Calibration est une méthode d'étalonnage direct utilisant conjointement des informations expérimentales et expertes. Ensuite VODKA-PLSR est une généralisation de la PLSR. Un vecteur r est mis en évidence, il permet d'inclure de l'information experte dans le modèle. En conclusion ce travail permet une vision plus synthétique des modèles existants, propose deux nouveaux modèles d'étalonnage et ouvre de nombreuses possibilités pour créer de nouveaux modèles d'étalonnage et de prétraitement. / Spectra contain informations about the composition of samples. This information is obtained using calibration. Harmful spectral information can be previoulsy withdrawn using pretraitments. Both calibration and pretraitment models are based on two types of informations: (1) experimental information based on measurements onto samples; (2) expert information based on a previous knowledge. The aim of this thesis is to study the links between those two types of information. After a biography review, a general model including both calibrations and pretraitments is proposed. The usefull or harmful spectral information is obtained after spectra have been orthogonaly projected (with a Sigma metrix ) onto a P matrix whose columns define a basis of the vectorial subspace described by the usefull or harmful information. Thus usefull information is kept whereas harmful information is withdrawn. Two new methods are proposed. First IDC-Improved Direct Calibra tion is a direct calibration method using both experimental and expert informations. Then VODKA-PLSR is a generalisation of PLSR. A vector r permits the use of expert information by the regression model. To conclude, this works allows a global view of existing tools, proposes two new models and offers new possibilities for building new models.
13

Développement d'un dispositif de LIBS pour l'analyse quantitative en ligne des procédés de purification du silicium fondu / Development of a LIBS device for inline quantitative analysis during silicon melt purification

Patatut, Loïc 15 December 2015 (has links)
L’objectif de ce travail de thèse a été de développer et de valider une méthode d’analyse quantitative du silicium liquide par la technique LIBS (Laser Induced Breakdown Spectroscopy). Pour cela, le dispositif utilisé consiste en une mesure intrusive sur la surface de bulles gazeuses, générées au cœur du métal fondu par soufflage d’un gaz inerte au travers d’un tube. Dans un premier temps, les conditions d’acquisition du signal ont été optimisées pour permettre la répétabilité et la reproductibilité du signal LIBS en dépit des fluctuations paramétriques induites par le bullage. Dans un second temps, les paramètres expérimentaux affectant les propriétés physiques des plasmas produits ont été évalués pour maximiser la sensibilité de la mesure et réduire les limites de détection. Les deux paramètres clefs qui ont été identifiés sont la densité de puissance apportées par l’impulsion laser et la nature du gaz de bullage : l’intensité du signal et donc le nombre d’émetteurs dans les plasmas sont favorisés par les hautes énergies laser et par une atmosphère d’argon plutôt que d’hélium. Le diagnostic spectroscopique des plasmas générés en fonction de ces paramètres a permis de montrer qu’ils n’ont pas d’effet significatif sur la température des électrons, des ions et des espèces neutres. L’augmentation de masse ablatée par le laser et la modification des conditions de relaxation du plasma par le milieu ambiant sont les mécanismes majoritaires à considérer. Finalement un modèle d’analyse quantitatif a été construit dans les conditions optimisées pour les impuretés B, Al, Fe, Cu et Ti du silicium. Il permet d’atteindre des limites de détection qui vont de quelques ppmw pour les éléments B, Fe et Al jusqu’à moins de 0,5 ppmw pour le Cu et le Ti. Les concentrations prédites par LIBS présentent un très bon accord avec celles déterminées par une méthode ex-situ conventionnelle, l’ICP-OES, avec des écarts relatifs inférieurs en moyenne à 10 %. Ceci démontre l’intérêt de la technique LIBS pour contrôler in-situ et en temps réel un procédé d’élaboration du silicium photovoltaïque. / The aim of this PhD research work was to develop and to validate a quantitative method to measure the composition of molten silicon by Laser Induced Breakdown Spectroscopy (LIBS). The device used consists in an intrusive measurement on the surface of gas bubbles which are produced by blowing an inert gas through a pipe inserted into the melt. First, the signal acquisition conditions were optimized to ensure LIBS signal repeatability and reproducibility to overcome experimental fluctuations due to the bubbling. Second, the experimental parameters affecting plasma physics were evaluated to maximize the measurement sensitivity and to lower the limits of detection. The two key parameters identified are the laser power density and the ambient gas: the signal intensity and then the number of emitters inside the plasma are promoted by higher laser energy and an Ar atmosphere rather than a He one. The plasma spectroscopic diagnosis as a function of these parameters showed that they don’t have significant effect on the temperature of electrons, ions and neutral species. The only mechanisms to be considered are then the increase of the mass ablated by the laser and the modification of the plasma relaxation conditions by the ambient atmosphere. Third, calibration curves were established for B, Al, Fe, Cu and Ti impurities under the optimized conditions. Limits of detections from few ppmw for B, Fe and Al to less than 0,5 ppmw for Ti and Cu have been achieved. The predicted concentrations by LIBS are in very good agreement with the ones measured by the conventional ex-situ method, ICP-OES. The mean relative discrepancy is lower than 10 %. These results demonstrate the LIBS benefits for in-situ and in-line monitoring of photovoltaic silicon production processes.
14

Archeops et Planck-HFI : Etudes des systématiques pour l'analyse du fond diffus cosmologique

Henrot-Versillé, Sophie 13 June 2006 (has links) (PDF)
Les travaux présentés dans ce manuscrit ont comme fil conducteur la compréhension des détecteurs des instruments Archeops et Planck-HFI ainsi que la lutte contre les effets systématiques dans le but de reconstruire le spectre de puissance des anisotropies de température du Fond Diffus Cosmologique. <br />Après une introduction sur la physique, nous décrivons, dans une première partie, l'étalonnage des bolomètres des deux instruments à partir de sources pulsées constituées de fibres de carbone que nous avons mises au point pour mesurer les fuites optiques entre les différents étages cryogéniques du plan focal. Nous montrons l'analyse de ces fuites optiques à partir des données d'Archeops, ainsi que les mesures de diaphonie et de constantes de temps des bolomètres du modèle cryogénique de Planck-HFI. Nous présentons également l'analyse de la conductivité thermique et de la capacité calorifique des fibres afin de modéliser le comportement thermique et l'émission de ces sources.<br />La seconde partie est consacrée à l'étude des effets systématiques de l'analyse des anisotropies. Nous décrivons les mesures des lobes au sol et en vol, l'analyse des constantes de temps des bolomètres et l'étalonnage en flux à partir des données sur Jupiter pour Archeops. Nous montrons ensuite comment extraire les spectres de Fourier sur les cercles et comment cette dernière analyse nous renseigne sur le fond diffus, ce que nous illustrons avec les données de vol d'Archeops.<br />Le dernier chapitre présente un projet de mission submillimétrique permettant de cartographier tout le ciel à grande résolution dans le but de mesurer la polarisation de la poussière dans la galaxie.
15

Etalonnage de Herschel/HIFI : approche système et expérimentale d'un instrument scientifique spatial. Etude observationnelle de coeurs denses galactiques.

Teyssier, David 27 September 2002 (has links) (PDF)
L'étalonnage des instruments dédiés à l'observation de la Terre et du Cosmos est l'une des clefs d'un retour scientifique maximal de ces missions. <br> La première partie de cette thèse est consacrée à la préparation des outils et méthodes d'étalonnage du spectromètre submillimétrique HIFI embarqué à bord du satellite Herschel en 2007. Le premier aspect traite de l'étalonnage des données et de leur conversion en une échelle scientifique. Nous recensons dans un premier temps les besoins de l'étalonnage en vol et identifions les étalons primaires et secondaires. Nous établissons alors une liste de candidats potentiels, complétée par une campagne d'observations préparatoires au sol. Un schéma d'étalonnage interne fondé sur deux charges embarquées est étudié et nous présentons un premier bilan d'erreur. Nous montrons que cette approche n'est a priori pas adaptée aux conditions spatiales et donnons les premiers éléments d'une technique plus adéquate. Le second aspect s'intéresse à l'étalonnage de l'instrument proprement dit. Nous analysons les besoins de la campagne de mesures en laboratoire du premier prototype de HIFI, et proposons un système original afin d'étalonner divers paramètres au sol. Nous montrons également l'importance d'une modélisation instrumentale et présentons une description des systèmes d'ondes stationnaires susceptibles d'affecter les données de HIFI. <br> La seconde partie de cette thèse est dédiée à l'étude de coeurs denses galactiques détectés dans l'infrarouge moyen par le satellite ISO. Nous montrons que ces objets appartiennent à une population nouvelle de condensations massives (M > 1000 Masses solaires) et froides (8 < T < 25 K) associées à des nuages moléculaires géants. L'analyse indique des extinctions dans le visible supérieures à 50, et suggère que des phénomènes de collage sur les grain affectent la plupart des espèces moléculaires. Nous montrons que ces objets sont probablement fragementés, et qu'ils sont susceptibles, ou ont déjà initié la formation d'étoiles massives en leur sein.
16

Contribution à l'étalonnage en absolu d'une chaîne de réception GNSS

Proia, Amandine 10 November 2011 (has links) (PDF)
Les chaînes de réception de signaux satellitaires de navigation (GNSS), composées d'un récepteur, d'un câble d'antenne et d'une antenne, sont l'outil le plus utilisé lors de comparaisons d'horloges atomiques distantes nécessaires pour le calcul du Temps Atomique International (TAI). L'étalonnage de ces liens de temps, consistant à déterminer leur retard électrique lors de la propagation du signal au travers du système d'acquisition, est nécessaire afin de garantir leur exactitude et leur stabilité long-terme. Deux techniques d'étalonnage sont actuellement recensées : la méthode différentielle et la méthode en absolu. La technique différentielle consiste à comparer l'ensemble de la chaîne de réception à étalonner avec une chaîne de référence dont le retard est connu. Cette dernière circule de laboratoires en laboratoires afin que le BIPM (Bureau International des Poids et Mesures) puisse déterminer le délai interne des équipements opérationnels installés dans les laboratoires visités. La technique d'étalonnage dite en absolu consiste à déterminer indépendamment le retard électrique interne de chaque élément de la chaîne de réception en utilisant des signaux simulés permettant de s'affranchir des bruits liés à la diffusion de signaux satellitaires. Le CNES développe cette technique depuis 2005. Les travaux de cette thèse contribuent au développement et à l'optimisation des méthodes d'étalonnage en absolu de chacun des éléments de la chaîne de réception afin de déterminer le retard global de le la chaîne d'acquisition avec une incertitude inférieure à une nanoseconde. Cette méthode d'étalonnage permet également de caractériser les performances de chacun des composants du système d'acquisition ainsi que la sensibilité thermique et hygrométrique des récepteurs.
17

Vérification de la reconstruction du signal d'onde gravitationnelle de Virgo à l'aide d'un dispositif d'étalonnage utilisant la pression de radiation laser

Accadia, Timothee 15 November 2012 (has links) (PDF)
Les ondes gravitationnelles sont des solutions aux équations gourvenant la dynamique de la gravitation prédite en 1918 à partir de la théorie de la Relativité Générale d'Einstein. Elles représentent la propagation d'une oscillation de l'espace-temps induisant d'infimes variations de distance sur leur passage entre des masses libres. Depuis deux décennies, un réseau d'interféromètres de Michelson kilométriques a été développé et mis en opération à travers le monde afin de prouver l'existence des ondes gravitationnelles en détectant leur passage sur Terre. Leur signature est recherchée dans un canal de détection étalonné, obtenu à partir des mesures fournies par le détecteur et reconstruisant le signal absolu d'une onde gravitationnelle le traversant. La vérification de la procédure est nécessaire pour déceler d'éventuelles erreurs systématiques d'étalonnage biaisant l'exploitation du canal par les analyses des données. Depuis plusieurs années, une nouvelle technique d'étalonnage est développée à cette fin dans les différents interféromètres du réseau et repose sur la pression de radiation d'un laser modulé en puissance afin d'induire un déplacement étalonné de l'un de ses miroirs. Le dispositif, appelé étalonneur laser, permet de reproduire le passage d'une onde gravitationnelle connue et d'en vérifier la reconstruction dans le canal de détection. Le travail de cette thèse a concerné la mise en \oe uvre de cette technique pour l'interféromètre franco-italien Virgo afin de vérifier la reconstruction de son signal d'onde gravitationnelle. Le principe de fonctionnement de l'étalonneur laser installé sur le site est d'abord détaillé et son étalonnage est ensuite décrit avec les campagnes de mesures réalisées. Enfin, les vérifications faites durant les deux périodes de prises de données de Virgo qui se sont déroulées entre 2010 et 2011 seront présentées. Les résultats ont permis de valider la reconstruction du signal d'onde gravitationnelle de Virgo et ses incertitudes confirmant leur impact négligeable sur l'analyse des données.
18

Etalonnage du calorimetre electromagnetique tonneau. Identification des leptons taus et recherche d'un boson de Higgs dans le canal qqH->qq tau tau dans l'experience ATLAS au LHC.

Tarrade, Fabien 18 September 2006 (has links) (PDF)
Le Modèle Standard est la théorie qui décrit le mieux les interactions fondamentales. Cependant le mécanisme de Higgs et son boson associé n'ont pas encore été découverts. Le calorimètre électromagnétique jouera un rôle prépondérant dans sa découverte, s'il existe.<br /><br />Dans une première partie, une cartographie finale des cellules à problèmes du tonneau du calorimètre électromagnétique a été réalisée. <br /><br />Ensuite, le code pour l'étalonnage du calorimètre a été migré dans l'environnement logiciel d'ATLAS (ATHENA), puis il a été testé et validé avec les données du test en faisceau de 2004. Dans ce code, des coefficients de filtrage optimal, qui permettent de reconstruire l'énergie déposée dans le calorimètre tout en minimisant les bruits électronique et d'empilement, sont déterminés pour chaque cellule. Pour cela, un modèle avait été développé pour prédire la forme du signal de physique à partir de celui d'étalonnage.<br /><br />Dans une troisième partie, l'étude et la comparaison de deux algorithmes pour la reconstruction et l'identification des t dans leur mode hadronique ont été réalisées.<br /><br />Enfin dans une quatrième partie, l'étude de l'un des canaux les plus importants pour la recherche d'un Higgs du Modèle Standard de basse masse (115 < mHiggs < 145 GeV/c2) a été effectué, à savoir la production du Higgs par fusion de bosons vecteurs faibles, suivi de sa désintégration en une paire de leptons taus. Cette étude a été menée pour une luminosité intégrée de 30 fb-1 avec des données de simulation rapide et complète du détecteur ATLAS. Une étude du fond dominant Z+n jets (n < 6) a aussi été réalisée.
19

Assimilation variationnelle des données dans le modèle de surface continentale ORCHIDEE grâce au logiciel YAO / Variarional data assimilation in the land surface model ORCHIDEE using YAO

Benavides Pinjosovsky, Hector Simon 27 March 2014 (has links)
Un modèle de surface continentale (LSM en anglais) est un modèle numérique décrivant les échanges d'eau et d'énergie entre la surface terrestre et l'atmosphère. La physique de la surface de la terre comprend une vaste collection de processus complexes. L'équilibre entre la complexité du modèle et sa résolution, confronté à des limitations de calcul, représente une question fondamentale dans le développement d'un LSM. Les observations des phénomènes étudiés sont nécessaires afin d’adapter la valeur des paramètres du modèle à des variables reproduisant le monde réel. Le processus d'étalonnage consiste en une recherche des paramètres du modèle qui minimisent l’écart entre les résultats du modèle et un ensemble d'observations. Dans ce travail, nous montrons comment l'assimilation variationnelle de données est appliquée aux bilans d'énergie et d'eau du modèle de surface continentale ORCHIDEE afin d’étalonner les paramètres internes du modèle. Cette partie du modèle est appelé SECHIBA. Le logiciel YAO est utilisé pour faciliter la mise en œuvre de l'assimilation variationnelle 4DVAR. Une analyse de sensibilité a été réalisée afin d'identifier les paramètres les plus influents sur la température. Avec la hiérarchie des paramètres obtenue, des expériences jumelles à partir d'observations synthétiques ont été mises en œuvre. Les résultats obtenus suggèrent que l'assimilation de la température de surface a le potentiel d'améliorer les estimations de variables, en ajustant correctement les paramètres de contrôle. Enfin, plusieurs assimilations ont été faites en utilisant des observations de données réelles du site SMOSREX à Toulouse, France. Les expériences faites en utilisant différentes valeurs initiales pour les paramètres, montrent les limites de l'assimilation de la température pour contraindre les paramètres de contrôle. Même si l'estimation des variables est améliorée, ceci est dû à des valeurs finales des paramètres aux limites des intervalles prescrit de la fonction de coût. Afin de parvenir à un minimum, il faudrait permettre aux paramètres de visiter des valeurs irréalistes. Les résultats montrent que SECHIBA ne simule pas correctement simultanément la température et les flux et la relation entre les deux n’est pas toujours cohérente selon le régime (ou les valeurs des paramètres que l’on utilise). Il faut donc travailler sur la physique pour mieux simuler la température. En outre, la sensibilité des paramètres à la température n’est pas toujours suffisante, donnant une fonction de coût plate dans l’espace des paramètres prescrit. Nos résultats montrent que le système d'assimilation mis en place est robuste, puisque les résultats des expériences jumelles sont satisfaisants. Le couplage entre l'hydrologie et la thermodynamique dans SECHIBA doit donc être revu afin d'améliorer l'estimation des variables. Une étude exhaustive de l'erreur des mesures doit être menée afin de récupérer des termes de pondération dans la fonction de coût. Enfin, l'assimilation d'autres variables telles que l'humidité du sol peut maintenant être réalisée afin d'évaluer l'impact sur les performances de l’assimilation. / A land surface model (LSM) is a numerical model describing the exchange of water and energy between the land surface and the atmosphere. Land surface physics includes an extensive collection of complex processes. The balance between model complexity and resolution, subject to computational limitations, represents a fundamental query in the development of a LSM. With the purpose of adapting the value of the model parameters to values that reproduces results in the real world, measurements are necessary in order to compare to our estimations to the real world. The calibration process consists in an optimization of model parameters for a better agreement between model results and a set of observations, reducing the gap between the model and the available measurements. Here we show how variational data assimilation is applied to the energy and water budgets modules of the ORCHIDEE land surface model in order to constrain the model internal parameters. This part of the model is denoted SECHIBA. The adjoint semi-generator software denoted YAO is used as a framework to implement the 4DVAR assimilation. A sensitivity analysis was performed in order to identify the most influent parameters to temperature. With the parameter hierarchy resolved, twin experiments using synthetic observations were implemented for controlling the most sensitive parameters. Results obtained suggest that land surface temperature assimilation has the potential of improving the output estimations by adjusting properly the control parameters. Finally, several assimilations were made using observational meteorology dataset from the SMOSREX site in Toulouse, France. The experiments implemented, using different prior values for the parameters, show the limits of the temperature assimilation to constrain control parameters. Even though variable estimation is slightly improved, this is due to final parameter values are at the edge of a variation interval in the cost function. Effectively reaching a minimum would require allowing the parameters to visit unrealistic values. SECHIBA does not correctly simulates simultaneously temperature and fluxes and the relationship between the two is not always consistent according to the regime (or parameter values that are used). We must therefore work on the physical aspects to better simulate the temperature. Likewise, the parameter sensitivity to temperature is not always sufficient, giving as a result a flat cost function. Our results show that the assimilation system implemented is robust, since performances results in twin experiments are satisfactory. The coupling between the hydrology and the thermodynamics in SECHIBA must be reviewed in order to improve variable estimation. An exhaustive study of the prior errors in the measurements must be conducted in order to retrieve more adapted weighing terms in the cost function. Finally, the assimilation of other variables such as soil moisture should be performed to evaluate the impacts in constraining control parameters
20

Vision conoscopique 3D : Calibration et reconstruction

Gava, Didier 01 June 1998 (has links) (PDF)
La métrologie industrielle est l'un des enjeux actuels de tous les secteurs d'activité qui nécessitent de réaliser un contrôle dimensionnel précis de produits afin de garantir des spécificités conformes aux normes et de tendre vers une qualité ``zéro défaut''. Les systèmes actuels utilisés s'appuient sur des technologies fondées sur la stéréométrie, la photogrammétrie, la projection de lumière structurée, la triangulation active ou le temps de vol. En général non polyvalents, encombrants, fragiles et ne pouvant s'adapter à des environnements hostiles, ces systèmes souffrent d'une limitation géométrique en raison de l'existence d'un angle mort dans lequel aucune mesure ne peut être réalisée.<br /><br />Dans cette thèse, nous proposons un nouveau capteur, le scanner conoscopique, capable d'effectuer des mesures dans les domaines macroscopiques et microscopiques, fonctionnant dans n'importe quel environnement, même hostile, très compact et utilisant de la lumière spatialement incohérente.<br /><br />Exploitant le principe de la conoscopie et donc des propriétés de biréfringence des cristaux, le scanner conoscopique est composé d'une caméra à couplage de charges (CCD), d'un système conoscopique et d'une unité de traitement de l'information. A partir des spécifications de ses performances en terme de précision au millième de millimètre sur les mesures 3D, nous avons été conduit à analyser et caractériser chaque élément de la chaîne de mesure dont la calibration est l'étape fondamentale.<br /><br />Nous avons tout d'abord développé une technique de calibration de la caméra à couplage de charges (CCD) à partir d'un modèle sténopé qui combine les paramètres intrinsèques et extrinsèques et exploitant les points d'amers. Nous avons abouti à une précision de 1.5% du champ d'analyse. Ensuite, nous avons proposé deux méthodes de calibration du système conoscopique, l'une analytique par calcul direct de la phase et exploitant les équations de l'optique et de la biréfringence des cristaux, l'autre expérimentale par dénombrement des franges d'interférence et s'appuyant sur la connaissance d'abaques incluant la variation de température, d'éclairement, la nature des matériaux et intégrant une modélisation globale du bruit d'acquisition. La validation expérimentale réalisée d'une part sur des profils géométriques simples (créneaux, escaliers...) et d'autre part sur des objets 3D réels a permis d'établir que la précision de mesure est de 1.5% du champ d'analyse.<br /><br />Ayant établi la faisabilité technologique de la calibration du système qui permet de garantir les spécifications souhaitées, nous nous sommes plus particulièrement interessé à deux configurations du scanner conoscopique : fixe et à balayage, dont nous avons analysé les performances sur des objets diffusifs pour des formes et des matériaux différents. Nous avons établi que la précision des mesures est de l'ordre du millième du champ de mesure.<br /><br />L'ensemble des contributions de cette thèse est intégré au système actuellement développé qui est par ailleurs commercialisé et utilisé dans des applications industrielles et médicales.

Page generated in 0.0501 seconds