• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 42
  • 14
  • 7
  • 1
  • 1
  • Tagged with
  • 64
  • 23
  • 13
  • 10
  • 9
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Développement d'un photomètre UV pour des mesures de référence de gaz d'intérêt atmosphérique : ozone et COVs

Daudé, Barthélémy 08 November 2012 (has links) (PDF)
La détermination de la section efficace d'absorption de composés atmosphériques est indispensable pour leurs mesures de concentration. Plus les valeurs de sections efficaces sont exactes, meilleure est la détermination des concentrations atmosphériques. À l'heure actuelle, la valeur de la section efficace d'absorption de l'ozone à 253,65 nm servant de standard pour la mesure de concentration de l'ozone est entachée d'une erreur de 2% et est controversée. Pour cette raison, nous avons développée un photomètre permettant d'obtenir des sections efficaces d'absorption avec une très bonne exactitude à 253,65 nm. Le but était d'atteindre une précision inférieure à 1 %. Le photomètre réalisé a été testé sur le styrène, un composé organique volatil (COV) aromatique. Les COVs comme l'ozone sont des polluants de la troposphère qui absorbent fortement dans l'UV. Outre son intérêt de molécule test, le styrène comme de nombreux COVs, a une section efficace d'absorption dans l'UV connue avec une mauvaise précision. La forte absorbance du styrène nous a obligé à travailler en basse pression (en dessous de 1 Torr). Dans ce domaine de pression, il apparaît une non-linéarité dans la mesure de pression que nous avons corrigée en mesurant la transpiration thermique du styrène. Nous avons donc obtenu la première mesure de transpiration thermique d'une molécule aromatique. Grâce à une estimation précise des erreurs et des corrections faites, nous avons montré que le photomètre réalisé atteignait bien une précision inférieure au %. Nous avons obtenu une section efficace absolue d'absorption du styrène de 1,521E−17 cm^2 avec une incertitude de 0,6 % pour un intervalle de confiance de 95 %.
22

Optimisation des techniques non invasives d'IRM de perfusion cérébrale et d'imagerie spectroscopique par résonance magnétique pour l'exploration des pathologies cérébrales / Optimization of non-invasive MRI techniques of weighted perfusion and spectroscopic imaging

Lecocq, Angèle 12 December 2014 (has links)
L'IRM de perfusion et de spectroscopie restent encore peu utilisées en raison de leur mise en oeuvre difficile et de leur manque de quantification. L'objectif de ces travaux a été d'optimiser et de valider des techniques IRM totalement non invasives chez l'Homme en vue d'applications cliniques permettant une exploration sur un large volume cérébral et une quantification absolue des paramètres de perfusion et du métabolisme cérébraux. Concernant la perfusion, 3 séquences de type marquage de spins,PASL PICORE, PASL FAIR et pCASL, ont été comparées en termes de sensibilité et de reproductibilité. pCASL a ensuite été intégrée dans un protocole de recherche sur des patients atteints de sclérose en plaques ou SEP. Quant au métabolisme cérébral, un protocole a été mis en place afin d'accéder à une quantification absolue et pseudo absolue des métabolites par la normalisation du signal de l'eau issue de la CSI par la densité de protons acquise en IRM. Cette technique a été validée en CSI 2D puis transposée en 3D avec la séquence EPSI sur deux orientations différentes : CACP et CACP+15°afin de constituer des valeurs normatives fiables des métabolites principaux sur tout le cerveau. L'élaboration de ces techniques en spectroscopie a abouti à une étude sur des patients souffrant de SEP démontrant la faisabilité de l'utilisation de ces techniques en clinique. Ces travaux démontrent que la quantification absolue en IRM de perfusion et en IRM de spectroscopie peut être obtenue sur un large volume cérébral de manière fiable sur un système IRM disponible en environnement clinique dans un temps d'acquisition acceptable à travers les corrections diverses spécifiques à chaque imagerie. / Conventional MRI's lack of specificity in clinical routine limits our ability to perform correct diagnoses or follow-ups of pathological diseases. Two forms of NMR imaging, perfusion weighed and spectroscopic imaging provide information about two closely related characteristics :cerebral perfusion and metabolism. However, these techniques are not widely used due to the complexity of implementation and a lack of quantification.The general aim was to optimize and validate completely non-invasive NMR techniques for further human clinical applications in the context of exploring large cerebral volumes and determining absolute or pseudo-absolute quantification of cerebral perfusion and metabolism. Concerning perfusion, three arterial spin labeling sequences, PASL PICORE, PASL FAIR and pCASL, were compared in terms of sensitivity and reproducibility. The pCASL sequence was then integrated to a protocol applied to patients suffering from multiple sclerosis. In relation to metabolism, a protocol was applied in order to access absolute and pseudo-absolute metabolite quantification by water SI normalization from MRI proton density. This technique was validated on 2D CSI and then on 3D with EPSI sequence with two orientations, AC-PC and AC-PC+15 in order to generate reliable normative values of metabolites for the whole brain. The use of those spectroscopic techniques on patients suffering from multiple sclerosis allowed demonstrating the feasibility in clinic.This work demonstrates that reliable absolute quantification in perfusion weighted and spectroscopic imaging can be obtained with extensive coverage and with an acquisition time compatible with the reality of clinical exams.
23

Modélisation de l'effet de facteurs de risque sur la probabilité de devenir dément et d'autres indicateurs de santé / Modelling of the effect of risk factors on the probability of becoming demented and others health indicators

Sabathé, Camille 15 November 2019 (has links)
Les indicateurs épidémiologiques de la démence tels que l'espérance de vie sans démence pour un âge donné ou le risque absolu sont des quantités utiles en santé publique. L'observation de la démence en temps discret entraine une censure par intervalle du temps d'apparition de la pathologie. De plus, certains individus peuvent développer une démence et décéder entre deux visites de suivi. Un modèle illness-death pour données censurées par intervalle est une solution pour modéliser simultanément les risques de démence et de décès et pour éviter la sous-estimation de l'incidence de la démence.Ces indicateurs dépendent à la fois du risque de démence mais aussi du risque de décès, contrairement à l'intensité de transition de la démence. Les modèles de régression disponibles ne prennent pas en compte la censure par intervalle ou ne sont pas adaptés à ces indicateurs. L'objectif de ce travail est de quantifier l'effet de facteurs de risque sur ces indicateurs épidémiologiques par des modèles de régression. La première partie de cette thèse est consacrée à l'extension de l'approche par pseudo-valeurs aux données censurées par intervalle. Les pseudo-valeurs sont calculées à partir d'estimateurs paramétriques ou d'estimateurs du maximum de vraisemblance pénalisée. Elles sont utilisées comme variable d'intérêt dans des modèles linéaires généralisés ou des modèles additifs généralisés pour permettre un effet non-linéaire des variables explicatives quantitatives. La seconde partie de cette thèse porte sur le développement d'un modèle par linéarisation des indicateurs épidémiologiques. L'idée est de calculer l'indicateur conditionnellement aux variables explicatives à partir des intensités de transition d'un modèle illness-death avec censure par intervalle du temps d'apparition de la maladie. Ces deux approches sont appliquées aux données de la cohorte française PAQUID pour étudier par exemple l'effet d'un score psychométrique (le MMS) sur des indicateurs épidémiologiques de la démence. / Dementia epidemiological indicators as the life expectancy without dementia at a specific age or the absolute risk are quantities meaningful for public health. Dementia is observed on discrete-time in cohort studies which leads to interval censoring of the time-to-onset. Moreover, some subjects can develop dementia and die between two follow-up visits. Illness-death model for interval-censored data is a solution to model simultaneously dementia risk and death risk and to avoid under-estimation of dementia incidence. These indicators depend on both dementia and death risks as opposed to dementia transition intensity. Available regression models do not take into account interval censoring or are not suitable for these indicators. The aim of this work is to propose regression models to quantify impact of risk factors on these indicators. Firstly, the pseudo-values approach is extended to interval-censored data. Pseudo-values are computed by parametric estimators or by maximum penalized likelihood estimators. Then pseudo-values are used as outcome in a generalized linear models or in a generalized additive models in case of non-linear effect of quantitative covariates. Secondly, the effect of covariates are summarized by linearization of the maximum likelihood estimator. In this part, the idea is to compute indicators conditionally on the covariates values from transition intensities of an illness-death model. These two approaches are applied to the French cohort PAQUID to study effect of a psychometric test (the MMS) on these indicators for example.
24

Horloge à réseau optique à atomes de Strontium

Baillard, Xavier 22 January 2008 (has links) (PDF)
Ce mémoire présente les dernières avancées de l'horloge à réseau optique à atomes de Strontium du LNE-SYRTE. Après avoir passé en revue les différents types d'horloges optiques actuellement développées, l'accent est mis sur le concept d'horloge à réseau optique qui a d'abord été formulé dans le cadre d'une horloge à 87Sr utilisant la transition 1S0 - 3P0. Les particularités de cet atome sont présentées, notamment la notion de longueur d'onde magique de piégeage, ainsi que les performances qui sont envisageables pour une telle horloge. La deuxième partie présente les aspects expérimentaux, en insistant plus particulièrement sur le développement du laser ultra-stable qui est utilisé pour l'interrogation des atomes et qui représente un point central. Parmi les dernières améliorations, une phase de pompage optique et d'interrogation en présence d'un champ magnétique a été ajoutée au dispositif de manière à mieux déterminer l'effet Zeeman. Enfin, la dernière partie présente les résultats expérimentaux. La dernière évaluation de l'horloge à 87Sr a permis d'atteindre une exactitude de 2,6.10-15 et une mesure en accord au niveau de 10-15 avec une évaluation indépendante faite au JILA. D'autre part, suite à de récentes propositions théoriques, une mesure a également été effectuée en utilisant l'isotope bosonique 88Sr et en adaptant le dispositif expérimental, permettant d'obtenir la première évaluation pour ce type d'horloge, avec une exactitude de 7.10-14.
25

Persistance des performances des hedge funds a l’epreuve de la crise financiere

Samet, Nesrine 27 January 2011 (has links)
La recherche menée propose une contribution à l’analyse de la performance des hedge funds dansun contexte d’instabilité des marchés financiers. Ce travail de thèse tourne autour de deux axes deréflexions. Le premier axe se propose d’examiner la structure de dépendance entre les mesures alternativesde performance absolue, en mettant en évidence l’impact du changement de base de donnéeset de période d’analyse sur le classement des indices. Dans ce cadre, nous proposons de comparer laperformance de cinq indices de stratégies issus de trois différentes bases de données. L’analyse esteffectuée sur trois périodes : une période avant crise, une période de crise et une période globale.Nous avons pu montrer que l’évaluation de la performance et la dépendance entre les indicateurssont des éléments fortement sensibles à la période d’analyse. De plus, cette analyse confirme qu’iln’existe pas d’indice "universel" pouvant représenter l’univers des hedge funds. Le deuxième axede réflexion est lié à l’analyse de la stabilité des performances des hedge funds sur trois horizons :le court terme, le moyen terme et le long terme. Il ressort de notre étude que la persistance desperformances des hedge funds n’est pas un phénomène de long terme et que le niveau de persistanceest fortement dépendant de la stratégie d’investissement et de l’indicateur de performance utilisé. / This dissertation provides a contribution to hedge funds performance analysis in a financialmarket instability context. The objective of this thesis is twofold. The first aim is to examine thedependence structure between alternative measures of absolute performance, highlighting the impactof the database switch and analysis period changing on the leaderboard of hedge funds indexes.In this framework, we propose to compare the performance of five hedge funds indexes extractedfrom three different databases. The analysis is conducted over three periods : a pre-crisis period, acrisis period and an overall period. Our findings show that the performance evaluation and dependancebetween performance indicators are highly sensitive to the analysis period. In addition, wefind that there is no "universal" index that can represent hedge funds universe. The second thesis’spurpose is related to the hedge funds performance stability over three horizons : the short term,the medium term and the long term. Firstly, it appears that hedge funds performance persistence isnot a long term phenomenon. Secondly, the persistence level is highly dependent to the investmentstrategy and to the performance indicator used.
26

Étude théorique et numérique des modes propres acoustiques dans un conduit avec écoulement et parois absorbantes / Theoretical and numerical study of the acoustic eigenmodes in a duct with grazing flow and absorbent walls

Rodríguez Sánchez, Javier 04 May 2016 (has links)
L’étude présentée dans cette thèse se situe dans le domaine de l’acoustique modale des conduits avec des parois absorbantes et un écoulement moyen. Nous considérons une source de bruit en amont avec une fréquence fixe. Avec cela, nous étudions les modes propres acoustiques du conduit en terme de nombre d’onde qui sont présents.Avec cette étude, nous contribuons à la meilleure compréhension de la propagation du sondans ce type de configuration. Parmi les applications, il y a la réduction du bruit des moteurs des aéronefs.Une analyse numérique par la méthode pseudospectrale de collocation, sur la base de polynômes de Chebyshev, a été mise en ouvre pour obtenir le spectre des modes, dans un domaine transversal.Pour cela, deux programmes ont été utilisés : le programme FiEStA, qui a été développé dans le cadre de cette thèse, et qui résout les équations d’Euler linéarisées, en considérant un problème à une ou deux une ou deux dimensions. D’autre part, le programme MAMOUT, a été utilisé pour résoudre les équations de Navier-Stokes linéarisées, pour étudier plus spécifiquement les effets de la viscosité.Avec ces outils, on a constaté les effets de trois paramètres : lorsque le rapport d’aspect augmente, la densité des modes, en particulier des modes propagatifs, se développe également.Quand le nombre de Mach de l’écoulement moyen augmente, on observe les effets suivants sur les valeurs propres : un déplacement vers la partie réelle négative, une amplification de leur valeur absolue et un déplacement vers les modes d’indice inférieur. Le profil d’écoulement moyen induit aussi un déplacement dans les valeur propres, pas facilement prévisible. Il modifie également la forme des fonctions propres ; ce qui est notamment visible pour le mode d’onde plane. Les changements d’impédance induisent un échange cyclique de valeurs propres entre les valeurs de parois rigides des modes consécutifs. Avec certaines valeurs d’impédance, les modes acoustiques de paroi apparaissent. Ils sont caractérisés par la forme exponentielle de leurs fonctions propres.En plus des modes acoustiques, il existe des modes hydrodynamiques de surface qui se sont révélés avec quelques valeurs d’impédance et forme et nombre de Mach de l’écoulement moyen. Pour un ensemble de données de référence, ces modes ont été étudiés. L’impédance a été considérée avec un modèle basé sur des données de la littérature, tout comme le profil d’écoulement moyen.Un mode hydrodynamique a été trouvé. Avec certaines valeurs de la fréquence, l’ensemble des paramètres donne lieu à une instabilité. En utilisant le critère Briggs Bres pour la stabilité,l’instabilité a été jugée absolue.À partir du comportement des modes avec différentes valeurs de l’impédance, et conformément aux résultats publiés, nous avons défini la condition que le spectre doit remplir pour réduire autant que possible le bruit. C’est cela qu’on appelle l’impédance optimale. Nous avons calculé cette valeur pour différents fréquences et écoulements moyens. / The study presented in this thesis is within the domain of modal acoustics of lined ducts withgrazing flow. We consider an upstream source of noise with a fixed frequency, within a lined duct.From this, we study the eigenmodes in terms of wavenumber that are present in this system.With this study, we contribute to the better understanding of sound propagation in thedescribed configuration. Within its main applications, we can find the noise reduction fromaeroengines.A numerical analysis with the pseudospectral collocation method, based on Chebyshevpolynomials was used to obtain the spectrum of modes within the duct, in a domain transversalto the mean flow. For this, two programs were used: On one hand, within the frame of this thesis,the program FiEStA was developed. It solves the linearized Euler Equations, considering eitherone or two dimensions of the transversal plane. On the other hand, the already existing programMAMOUT was used for verification and to solve also the linearized Navier-Stokes Equations toobserve the effects of viscosity.With these tools, the first result was to notice the effects of three parameters: When theaspect ratio grows, the density of modes in the spectrum grows also. In particular, we havemore propagative modes. As the mean flow Mach number grows, we observe these effects on theeigenvalues: a displacement to the negative real part, a slight amplification of their absolute valueand a displacement towards the modes of lower index. The difference in mean flow profile inducesanother displacement in modes, not easily predictable. It changes also the shape of eigenfunctions,which is clearly seen for the planewave mode. The impedance changes induce a cyclic exchange ofeigenvalues from their hard wall value to the hard wall value of a consecutive mode. The changeof eigenfunction is gradually change in wavelength, to obtain the shape of the destination mode.With some impedance values, a pair of modes, called the acoustic surface modes arise. They arecharacterized by the exponential shape of their eigenfunctions.Besides these acoustic surface modes, there are also a pair of hydrodynamic surface modeswhich come to light with some values of impedance and shape and Mach number of the meanflow. With a benchmark data, these modes were studied. The impedance was considered from themodel of a measured liner while the mean flow profile was taken from experimental values. Withthis, the hydrodynamic mode was found. With specific values of frequency, the set of parametersgives rise to an instability. Using the Briggs-Bers criterion for stability, the instability was foundto be absolute for a given frequency.From the comportment of modes with different values of impedance, and in accordance withpublished results, we defined the condition that the spectrum has to fulfill to reduce as much aspossible the upstream noise. This is what we called the optimal impedance. We obtained it forseveral flow profiles and frequencies, in both 1D and 2D domains.
27

Identification et Quantification des Sous-Types de la Neurotoxine Botulique de Type A par Spectrométrie de Masse / Identification and quantification of botulinim neurotoxin A subtypes by mass spectrometry

Morineaux, Valérie 02 July 2015 (has links)
Les toxines botuliques (BoNTs) sont les substances les plus toxiques connues. Elles sont responsables du botulisme, une maladie rare mais le plus souvent mortelle sans prise en charge médicale. Cependant, les applications médicales des BoNTs sont de plus en plus nombreuses du fait de leurs propriétés paralysantes. Leur toxicité par voie inhalée en fait un des 6 principaux agents du risque intentionnel. Les BoNTs, produites par Clostridium botulinum, se répartissent en 7 types sérologiques qui se déclinent en sous-types. Cette biodiversité rend difficile leur identification par les méthodes classiques utilisées pour les toxines protéiques (approches immunologiques). Jusqu’à présent, seule l’analyse génétique permettait de distinguer les différents sous-types entre eux. Dans ce travail a été développée une méthode d’analyse en LC-QqQ-MS/MS en mode MRM pour identifier les différents sous-types de la BoNT/A dans des matrices complexes à partir de peptides communs et spécifiques à ces sous-types. Un traitement d’échantillon par immunocapture sur billes magnétiques couplées à des anticorps anti-peptides a été développé pour isoler la toxine de l’échantillon avant analyse. Des surnageants de culture des sous-types A1 à A3, A5, A7 à A8 ont été utilisés pour valider la méthode. La limite de détection de la méthode est compatible avec les taux de toxine retrouvés habituellement dans les échantillons naturellement contaminés. Cette méthode de spectrométrie de masse a ensuite été utilisée pour quantifier les différents sous-types de la BoNT/A dans une matrice complexe (surnageants de culture de C. botulinum). Une technique de quantification, utilisant un isotope stable de la chaine légère de type A1, ([13C6]K et [13C6]R), a été retenu comme étalon interne. Les différents sous-types de BoNT/A ont été quantifiés dans les surnageants et la quantité de BoNT correspondante à une dose létale minimale de 100% a été déterminée pour chaque sous-type. / Botulinum neurotoxins (BoNTs) are the most poisonous substances known. They are responsible for human botulism, a rare but potentially fatal disease if not quickly treated. However, BoNTs were approved for the treatment of numerous medical applications due to their temporary paralysis effects. BoNTs are among the six agents with the highest risk of potential use as bio-weapons because of their high toxicity in aerosol form. BoNTs, produced by Clostridium botulinum, are divised into seven toxinotypes and each toxinotype contains several subtypes. This biodiversity makes more difficult their identification with classical methods by immunological ways. Until now, only molecular genetical methods could differenciate subtypes among them. The aim of this work was to develop a liquid chromatography tandem mass spectrometry (LC-MS/MS) in MRM mode to efficiently discrimate the distinct subtypes from specific and common peptides. Immunocapture sample preparation with antipeptides antibodies was used and allowed the isolation of the toxin from the sample. Subtyping was performed with crude supernatants (BoNT/A1 to /A3, /A5, /A7 and /A8) in order to validate the method. Limit of detection (LOD) of the proposed method is in the range of minimal toxin concentration found in naturally contamined samples. In a second part of this work, this mass spectrometry method was used to quantify the neurotoxin in complex matrices (supernatants of Clostridium botulinum cultures). Isotope labeled light chain (13C6]K et [13C6]R) from botulinum A1 neurotoxin was produced and used as internal standart. Subtypes were quantified in supernatants and the quantity of neurotoxin for one minimal lethal dose 100% was determined for each subtype
28

Mesure de distance absolue utilisant l'interférométrie à balayage de longueur d'onde étalonnée par un peigne de fréquences / Absolute distance measurement using frequency sweeping interferometry calibrated by frequency comb

Yu, Wenhui 10 April 2019 (has links)
Dans cette thèse, nous avons mis en oeuvre un système de mesure de distance absolue (Absolute Distance Measurement, ADM) de haute précision utilisant l'interférométrie à balayage de fréquence (Frequency Sweeping Interferometry, FSI). La technique FSI exige que la plage de réglage de fréquence du laser balayé soit mesurée avec une précision élevée, ce qui est difficile en raison de l'absence d'un moyen simple de mesurer la haute fréquence d'un laser en temps réel. Dans cette thèse, un peigne de fréquence a été utilisé comme règle de fréquence lumière pour mesurer la plage de réglage de la fréquence du laser à balayage. Un peigne de fréquence formé par un laser femtoseconde est constitué de millions de lignes de peigne régulièrement espacées, ce qui permet de le considérer comme une règle de fréquence de la lumière. La calibration de fréquence a été réalisée en filtrant le signal hétérodyne entre le laser à balayage et les lignes de peigne en utilisant un filtre passe-bande étroit. Cette approche nous permet de détecter le signal d'étalonnage lorsque la fréquence du laser à balayage est proche d'une ligne en peigne. Etant donné que l’intervalle de fréquence entre les lignes de peigne peut être mesuré avec précision ou activement verrouillé en phase par rapport à un oscillateur radiofréquence (RF) stable, la plage d ’ accord du laser à balayage peut être mesurée avec une grande précision. En particulier, chacun des deux pics d’étalonnage peut être utilisé dans le calcul de la distance, ce que nous appelons des «sous-mesures» en un seul balayage. Combinée au grand nombre de lignes de peigne, la moyenne des sous-mesures améliore considérablement la précision des mesures sans balayage multiple. Dans la thèse, la condition de détection et les caractéristiques du signal hétérodyne entre le laser à balayage et la ligne de peigne sont présentées. Une conception de filtre pour filtrer le signal hétérodyne est réalisée. Un travail de modélisation concernant l'effet du bruit de phase des lasers sur la distorsion d'enveloppe du pic d'étalonnage a été présenté. Des travaux expérimentaux basés sur les concepts de mesure ont été réalisés. Il montre que l'utilisation du schéma de mesure proposé peut considérablement améliorer la précision de la mesure de distance. Dans l’une des mesures, une précision de 30 nm pour une distance d’environ 0,8 m, correspondant à une incertitude relative de 37 ppm (part-perbillion) a été obtenue. Le résultat a été obtenu sur la base d'une méthode de traitement du signal de comptage de franges. La grande précision a été obtenue grâce au grand nombre de sous-mesures et à la stabilité des lignes de peigne régulièrement espacées. Nous avons constaté que la mesure de vibration de la cible peut également être effectuée en prenant avantage des lignes de peigne denses. Une sensibilité élevée, limitée à 1,7 nm efficace en bruit, de la mesure des vibrations a été atteinte. Ce résultat nous permet de surveiller la vibration de la cible, ce qui est un problème important de la technique FSI. / In this thesis, we implemented a high-precision absolute distance measurement (ADM) system using frequency sweeping interferometry (FSI). The FSI technique requires the frequency tuning range of the swept laser to be measured with high accuracy and precision, which is challenging due to the lack of an easy way to measure the high frequency of a laser in real time. In this thesis, a frequency comb has been used as the light frequency ruler for measuring the frequency tuning range of the sweeping laser. A frequency comb formed by a femtosecond laser consists millions of evenly spaced comb lines so that can be regarded as a light frequency ruler. The frequency calibration was realized by filtering the heterodyne signal between the sweeping laser and the comb lines using a narrow bandpass filter. This approach allows us to detect the calibration signal when the frequency of the sweeping laser is in the vicinity of a comb line. As the frequency interval between the comb lines space can be precisely measured or actively phase-locked against a stable radio-frequency (RF) oscillator, the tuning range of the sweeping laser could be measured with high accuracy. Especially, each two calibration peaks can be used in the calculation of distance, which we call sub-measurements in a single sweeping. Combined with the large number of the comb lines, averaging of the sub-measurements improves greatly the measurement precision without multiple sweeping. In the thesis, the condition of detecting and the characteristics of the heterodyne signal between the sweeping laser and the comb line are presented. A filter design for filtering the heterodyne signal is performed. A modeling work concerning the effect of the phase noise of lasers on the envelope distortion of the calibration peak has been presented. Experimental works based on the measurement concepts have been carried out. It shows that using the proposed measurement scheme can greatly improve the distance measurement precision. In one of the measurements, a precision of 30 nm for a distance around 0.8 m, corresponding to 37 ppb (part-per-billion) relative uncertainty has been achieved. The result was obtained based on a fringe counting signal processing method. The high precision was obtained thanks to the large number of sub-measurements and the stability of the evenly spaced comb lines. We have found that vibration measurement of the target can be also performed taking the advantage of the dense comb lines. A high sensitivity, limited by 1.7 nm noise RMS, of vibration measurement has been achieved. This result allows us to monitor the vibration of the target, which is an important issue of FSI technique.
29

3D Vision Geometry for Rolling Shutter Cameras / Géométrie pour la vision 3D avec des caméras Rolling Shutter

Lao, Yizhen 16 May 2019 (has links)
De nombreuses caméras CMOS modernes sont équipées de capteurs Rolling Shutter (RS). Ces caméras à bas coût et basse consommation permettent d’atteindre de très hautes fréquences d’acquisition. Dans ce mode d’acquisition, les lignes de pixels sont exposées séquentiellement du haut vers le bas de l'image. Par conséquent, les images capturées alors que la caméra et/ou la scène est en mouvement présentent des distorsions qui rendent les algorithmes classiques au mieux moins précis, au pire inutilisables en raison de singularités ou de configurations dégénérées. Le but de cette thèse est de revisiter la géométrie de la vision 3D avec des caméras RS en proposant des solutions pour chaque sous-tâche du pipe-line de Structure-from-Motion (SfM).Le chapitre II présente une nouvelle méthode de correction du RS en utilisant les droites. Contrairement aux méthodes existantes, qui sont itératives et font l’hypothèse dite Manhattan World (MW), notre solution est linéaire et n’impose aucune contrainte sur l’orientation des droites 3D. De plus, la méthode est intégrée dans un processus de type RANSAC permettant de distinguer les courbes qui sont des projections de segments droits de celles qui correspondent à de vraies courbes 3D. La méthode de correction est ainsi plus robuste et entièrement automatisée.Le chapitre III revient sur l'ajustement faisceaux ou bundle adjustment (BA). Nous proposons un nouvel algorithme basé sur une erreur de projection dans laquelle l’index de ligne des points projetés varie pendant l’optimisation afin de garder une cohérence géométrique contrairement aux méthodes existantes qui considère un index fixe (celui mesurés dans l’image). Nous montrons que cela permet de lever la dégénérescence dans le cas où les directions de scan des images sont trop proches (cas très communs avec des caméras embraquées sur un véhicule par exemple). Dans le chapitre VI nous étendons le concept d'homographie aux cas d’images RS en démontrant que la relation point-à-point entre deux images d’un nuage de points coplanaires pouvait s’exprimer sous la forme de 3 à 7 matrices de taille 3X3 en fonction du modèle de mouvement utilisé. Nous proposons une méthode linéaire pour le calcul de ces matrices. Ces dernières sont ensuite utilisées pour résoudre deux problèmes classiques en vision par ordinateur à savoir le calcul du mouvement relatif et le « mosaïcing » dans le cas RS.Dans le chapitre V nous traitons le problème de calcul de pose et de reconstruction multi-vues en établissant une analogie avec les méthodes utilisées pour les surfaces déformables telles que SfT (Structure-from-Template) et NRSfM (Non Rigid Structure-from-Motion). Nous montrons qu’une image RS d’une scène rigide en mouvement peut être interprétée comme une image Global Shutter (GS) d’une surface virtuellement déformée (par l’effet RS). La solution proposée pour estimer la pose et la structure 3D de la scène est ainsi composée de deux étapes. D’abord les déformations virtuelles sont d’abord calculées grâce à SfT ou NRSfM en assumant un modèle GS classique (relaxation du modèle RS). Ensuite, ces déformations sont réinterprétées comme étant le résultat du mouvement durant l’acquisition (réintroduction du modèle RS). L’approche proposée présente ainsi de meilleures propriétés de convergence que les approches existantes. / Many modern CMOS cameras are equipped with Rolling Shutter (RS) sensors which are considered as low cost, low consumption and fast cameras. In this acquisition mode, the pixel rows are exposed sequentially from the top to the bottom of the image. Therefore, images captured by moving RS cameras produce distortions (e.g. wobble and skew) which make the classic algorithms at best less precise, at worst unusable due to singularities or degeneracies. The goal of this thesis is to propose a general framework for modelling and solving structure from motion (SfM) with RS cameras. Our approach consists in addressing each sub-task of the SfM pipe-line (namely image correction, absolute and relative pose estimation and bundle adjustment) and proposing improvements.The first part of this manuscript presents a novel RS correction method which uses line features. Unlike existing methods, which uses iterative solutions and make Manhattan World (MW) assumption, our method R4C computes linearly the camera instantaneous-motion using few image features. Besides, the method was integrated into a RANSAC-like framework which enables us to detect curves that correspond to actual 3D straight lines and reject outlier curves making image correction more robust and fully automated.The second part revisits Bundle Adjustment (BA) for RS images. It deals with a limitation of existing RS bundle adjustment methods in case of close read-out directions among RS views which is a common configuration in many real-life applications. In contrast, we propose a novel camera-based RS projection algorithm and incorporate it into RSBA to calculate reprojection errors. We found out that this new algorithm makes SfM survive the degenerate configuration mentioned above.The third part proposes a new RS Homography matrix based on point correspondences from an RS pair. Linear solvers for the computation of this matrix are also presented. Specifically, a practical solver with 13 point correspondences is proposed. In addition, we present two essential applications in computer vision that use RS homography: plane-based RS relative pose estimation and RS image stitching. The last part of this thesis studies absolute camera pose problem (PnP) and SfM which handle RS effects by drawing analogies with non-rigid vision, namely Shape-from-Template (SfT) and Non-rigid SfM (NRSfM) respectively. Unlike all existing methods which perform 3D-2D registration after augmenting the Global Shutter (GS) projection model with the velocity parameters under various kinematic models, we propose to use local differential constraints. The proposed methods outperform stat-of-the-art and handles configurations that are critical for existing methods.
30

Irradiation de molécules biologiques (bases de l'ADN et de l'ARN) par impact de protons dans le domaine de vitesse du pic de Bragg (20-150 keV/uma)

Tabet, Jean 07 November 2007 (has links) (PDF)
L'étude de l'ionisation de molécules biologiques, bases de l'ADN et de l'ARN, par impact de protons (20-150 keV/uma) a été l'enjeu de ce travail. Les expériences développées ont permis d'étudier la fragmentation de l'uracile, la thymine, l'adénine et la cytosine sous impact de protons, et de développer une méthode de mesure de section efficace absolue des processus d'ionisation mis en jeu au cours de l'interaction proton-molécule cible.<br />Le dispositif expérimental développé a permis de séparer les contributions des deux processus d'ionisation de la molécule cible : l'ionisation directe et l'ionisation par capture électronique. Les spectres de masse correspondants, analysés événement par événement, ont été mesurés. Pour l'uracile, les rapports de branchement de ces deux processus ont été mesurés en fonction de la vitesse du projectile.<br />Nous avons développé la mesure de sections efficaces absolues pour le processus de capture électronique. Le taux de production d'atomes neutres par rapport au nombre de protons incidents a été mesuré pour les quatre molécules étudiées : uracile, cytosine, thymine et adénine, et ceci, pour différentes températures d'évaporation. Ce taux varie avec l'épaisseur de cible traversée par le faisceau de protons. Un dispositif de dépôt a été développé pour caractériser la densité moléculaire du jet gazeux des bases étudiées. L'étude théorique et expérimentale du débit total d'effusion et du profil du jet gazeux a permis de déduire l'épaisseur de cible traversée par le faisceau de protons. Ainsi, la section efficace absolue d'ionisation des quatre molécules biologiques isolées sous impact de protons d'énergie de 80 keV/uma a été déterminée.

Page generated in 0.0789 seconds