Spelling suggestions: "subject:"exactitud""
1 |
Data Quality Evaluation in Data Integration SystemsPeralta, Veronika 17 November 2006 (has links) (PDF)
Les besoins d'accéder, de façon uniforme, à des sources de données multiples, sont chaque jour plus forts, particulièrement, dans les systèmes décisionnels qui ont besoin d'une analyse compréhensive des données. Avec le développement des Systèmes d'Intégration de Données (SID), la qualité de l'information est devenue une propriété de premier niveau de plus en plus exigée par les utilisateurs. Cette thèse porte sur la qualité des données dans les SID. Nous nous intéressons, plus précisément, aux problèmes de l'évaluation de la qualité des données délivrées aux utilisateurs en réponse à leurs requêtes et de la satisfaction des exigences des utilisateurs en terme de qualité. Nous analysons également l'utilisation de mesures de qualité pour l'amélioration de la conception du SID et de la qualité des données. Notre approche consiste à étudier un facteur de qualité à la fois, en analysant sa relation avec le SID, en proposant des techniques pour son évaluation et en proposant des actions pour son amélioration. Parmi les facteurs de qualité qui ont été proposés, cette thèse analyse deux facteurs de qualité : la fraîcheur et l'exactitude des données. Nous analysons les différentes définitions et mesures qui ont été proposées pour la fraîcheur et l'exactitude des données et nous faisons émerger les propriétés du SID qui ont un impact important sur leur évaluation. Nous résumons l'analyse de chaque facteur par le biais d'une taxonomie, qui sert à comparer les travaux existants et à faire ressortir les problèmes ouverts. Nous proposons un canevas qui modélise les différents éléments liés à l'évaluation de la qualité tels que les sources de données, les requêtes utilisateur, les processus d'intégration du SID, les propriétés du SID, les mesures de qualité et les algorithmes d'évaluation de la qualité. En particulier, nous modélisons les processus d'intégration du SID comme des processus de workflow, dans lesquels les activités réalisent les tâches qui extraient, intègrent et envoient des données aux utilisateurs. Notre support de raisonnement pour l'évaluation de la qualité est un graphe acyclique dirigé, appelé graphe de qualité, qui a la même structure du SID et contient, comme étiquettes, les propriétés du SID qui sont relevants pour l'évaluation de la qualité. Nous développons des algorithmes d'évaluation qui prennent en entrée les valeurs de qualité des données sources et les propriétés du SID, et, combinent ces valeurs pour qualifier les données délivrées par le SID. Ils se basent sur la représentation en forme de graphe et combinent les valeurs des propriétés en traversant le graphe. Les algorithmes d'évaluation peuvent être spécialisés pour tenir compte des propriétés qui influent la qualité dans une application concrète. L'idée derrière le canevas est de définir un contexte flexible qui permet la spécialisation des algorithmes d'évaluation à des scénarios d'application spécifiques. Les valeurs de qualité obtenues pendant l'évaluation sont comparées à celles attendues par les utilisateurs. Des actions d'amélioration peuvent se réaliser si les exigences de qualité ne sont pas satisfaites. Nous suggérons des actions d'amélioration élémentaires qui peuvent être composées pour améliorer la qualité dans un SID concret. Notre approche pour améliorer la fraîcheur des données consiste à l'analyse du SID à différents niveaux d'abstraction, de façon à identifier ses points critiques et cibler l'application d'actions d'amélioration sur ces points-là. Notre approche pour améliorer l'exactitude des données consiste à partitionner les résultats des requêtes en portions (certains attributs, certaines tuples) ayant une exactitude homogène. Cela permet aux applications utilisateur de visualiser seulement les données les plus exactes, de filtrer les données ne satisfaisant pas les exigences d'exactitude ou de visualiser les données par tranche selon leur exactitude. Comparée aux approches existantes de sélection de sources, notre proposition permet de sélectionner les portions les plus exactes au lieu de filtrer des sources entières. Les contributions principales de cette thèse sont : (1) une analyse détaillée des facteurs de qualité fraîcheur et exactitude ; (2) la proposition de techniques et algorithmes pour l'évaluation et l'amélioration de la fraîcheur et l'exactitude des données ; et (3) un prototype d'évaluation de la qualité utilisable dans la conception de SID.
|
2 |
Gravimétrie atomique, amélioration de l'exactitude et nouvelles géométriesBodart, Quentin 17 November 2010 (has links) (PDF)
L'objectif du gravimètre absolu est de déterminer la valeur de l'accélération de pesanteur g avec une incertitude relative de 10-9 pour le projet métrologique de "balance du watt". Nous avons développé pendant ma thèse une nouvelle enceinte à vide permettant l'évaluation des effets systématiques limitant. Le gravimètre a été rendu transportable et placé à côté de la balance du LNE. Le gravimètre repose sur des techniques d'interférométrie atomique, où un nuage d'atomes froids de 87Rb en chute libre est manipulé au moyen de transitions à deux photons. Nous avons réduit l'incertitude sur l'ensemble des biais au-dessous de l'objectif, excepté l'effet des aberrations du front d'onde des faisceaux lasers. Il est actuellement l'objet de nos investigations et nous cherchons à contrôler le mieux possible la trajectoire des atomes. Au cours de l'année 2010, notre gravimètre atomique a participé à des comparaisons "clefs" internationales. Les valeurs de g obtenues sont en accord, mais nous relevons des fluctuations de l'écart avec les autres gravimètres, liées en partie aux variations de l'effet d'aberration. Nous avons développé en parallèle trois nouvelles techniques de mesures d'interférométrie atomique. La première utilise un algorithme à trois coups qui rend la mesure robuste aux vibrations. La seconde consiste à diffracter les atomes simultanément au moyen des quatre champs présents dans l'enceinte à vide afin de doubler l'aire de l'interféromètre et donc sa sensibilité intrinsèque. Enfin nous avons conçu et caractérisé une pyramide creuse, qui permet de substituer aux différents lasers un unique large faisceau, afin de créer un gravimètre atomique transportable compact.
|
3 |
Stabilité long terme d'un gravimètre atomique et limites de la technique de rejet des effets systématiques / Long-term stability of an atom gravimeter and limits of the rejection technic of the systematic effectsGillot, Pierre 04 November 2016 (has links)
Cette thèse porte sur l'amélioration des performances du CAG, le gravimètre atomique développé au SYRTE. Cet instrument exploite des techniques d'interférométrie atomique pour mesurer l'accélération locale de la pesanteur g subit par un nuage d'atomes froids de 87Rb en chute libre. Les perfectionnements comme l'asservissement des puissances des faisceaux Raman et l'optimisation des paramètres tels que ceux pilotant la détection sont présentés dans ce manuscrit. La position initiale du nuage, sa vitesse moyenne, son expansion balistique dans les faisceaux Raman ainsi que leur évolution, sont autant de paramètres altérant les performances du CAG. Les inhomogénéités de couplage qui en résultent, modifient la symétrie de la fonction de sensibilité de l'interféromètre et le rendent sensible aux désaccords Raman constants. De plus, les désaccords Raman de type Doppler ne peuvent voir leur effet annulé par la technique de mesure mise en place pour rejeter les effets systématiques. L'asymétrie de l'interféromètre a été mesurée et une méthode pour la compenser est proposée. Enfin, plusieurs comparaisons avec différents gravimètres sont présentées. La comparaison internationale CCM.G-K2 a permis de confirmer l'exactitude du CAG, révélant notamment un écart type d'Allan de 5,7 10-9/Hz1/2. Finalement, une session de mesure d'un mois en vue commune avec un gravimètre supraconducteur iGrav est étudiée. Elle a permis la détermination du facteur d'échelle de l'iGrav à 0,1% dès un jour de mesure et 0,02% en moins d'un mois. L'écart type d'Allan sur le résidu du signal entre les gravimètres atteint alors 6 10-11g après 12h de mesure. / This thesis aims at pushing the performances of the atom gravimeter CAG developed at SYRTE. This instrument uses atom interferometry to measure the local gravity acceleration of a free falling 87Rb cold atomic cloud. The improvements of the Raman power control and parameters such as those driving the detection are presented in this thesis. The initial position of the cloud, its mean velocity, its ballistic expansion into the Raman beams and thus their evolution, are important parameters which affect the performances of the CAG. The resulting coupling inhomogeneities modify the symmetry of the sensitivity function of the interferometer and make it sensitive to constant Raman detuning. Moreover, the Raman detuning in a Doppler way cannot be canceled by our rejection technic of systematic effects. The asymmetry of the sensitivity function has been measured and a method is demonstrated to cancel it. Several comparisons between the CAG and different gravimeter types have been performed and their results are developed. The international comparison of absolute gravimeters CCM.G-K2 confirms the CAG accuracy budget. It reveals an Allan standard deviation of 5.710-9g/Hz1/2. In the end, a one month common view measurement with a superconducting gravimeter iGrav is studied. The determination of the iGrav scale factor at the level of 0.1% in a single day and 0.02% in less than a month is obtained with this long measurement. The Allan standard deviation of the gravity residual signal is 610-11g in 12h measurement time.
|
4 |
Conditions de validité de l'Élastographie par Résonance Magnétique / Conditions of validity of Magnetic Resonance ElastographyJulea, Felicia 14 March 2018 (has links)
L'élastographie par résonance magnétique (ERM) est une technique d'imagerie, reconnue comme une méthode pertinente pour la caractérisation mécanique des tissus humains in vivo. Celle-ci représente un intérêt fondamental en diagnostic clinique car le développement d'un processus pathologique s'accompagne la plupart du temps d'altérations des propriétés mécaniques des tissus atteints. L'ERM consiste à enregistrer le champ de déplacement induit au passage d'une onde de cisaillement généré dans le milieu étudié. Les paramètres mécaniques comme la vitesse, v, et les modules de viscoélasticité de cisaillement, G' et G'', peuvent être cartographiés. La quantification des paramètres mécaniques dépend à la fois de la fréquence mécanique, fexc, de la taille de voxel, a, de l'amplitude des champs de déplacement induits, A, de l'amplitude du rotationnel du champ de déplacement, q, des erreurs de mesure, ΔA et Δq, donc du rapport signal à bruit, RSB, et enfin de la méthode de reconstruction. En inversant les équations différentielles du champ de déplacement acquis selon les trois dimensions de l'espace, ces paramètres ont été considérés pour déterminer la précision et l'exactitude des modules mécaniques obtenus et établir les conditions de validité de l'ERM. Dans cette thèse, nous avons tout d'abord considéré A et A/ΔA afin de définir un premier seuil de validité pour l'ERM. Nous avons étudié l'influence de ces deux paramètres sur un fantôme hétérogène dans un appareil IRM 1,5 T avec deux types d'antennes. Dans une première étude, les champs de déplacement ont été acquis en fonction de A en utilisant deux séquences écho de spin (RFE) et écho de gradient (FFE) sensibilisées au mouvement pour une taille de voxel isotrope de 1 mm. Dans une seconde étude, ils ont été acquis en RFE en fonction de A pour trois résolutions spatiales différentes. Ces études ont révélé l'existence d'un seuil en A/ΔA au-delà duquel les paramètres extraits (G', G'') atteignent un plateau et l'ERM est fiable. Nous avons ensuite considéré le nombre de voxel par longueur d'onde, λ/a, comme paramètre déterminant des conditions de validité de l'ERM et nous avons caractérisé la qualité des données acquises par le rapport q/Δq. Sur des simulaitons dans un milieu élastique, homogène et isotrope avec un RSB variant entre 5 et 30, la précision et l'exactitude des mesures se sont avérées optimales pour 6 à 9 voxels par longueur d'onde. Nous avons reproduit expérimentalement à 2 kHz les conditions des siimulations sur un fantôme de PVA. Les champs de déplacement ont été acquis à 11,7 T en utilisant une séquence RFE sensibilisée au mouvement pour des résolutions spatiales de 150 μm à 300 μm afin de balayer le rapport λ/a de 1 à 20. Les résultats expérimentaux confirment pleinement les prédictions de la simulation. La vitesse de cisaillement diminue et tend vers la vitesse de référence attendue lorsque l'acquisition est réalisée dans le domaine optimal, à savoir ici lorsque a est inférieure ou égale à 200 μm. En outre la dispersion de la vitesse est réduite dans le domaine optimal et des estimations plus précises des paramètres mécaniques ont pu être déduites. Cette thèse montre d'une part que la précision et l'exactitude de l'ERM sont optimales lorsque les acquisitions sont réalisées ou traitées pour un domaine d'échantillonnage de la longueur d'onde déterminé par le RSB. Elle montre d'autre part que la comparaison des résultats obtenus doit être menée dans une gamme similaire de q/Δq. La prise en compte des conditions de validité de l'ERM, déterminées par les rapports λ/a et q/Δq, conduit à une mesure quantitative effective des paramètres mécaniques. Il est ainsi possible d'envisager un diagnostic clinique pertinent au sein d'un même organe, d'un même sujet, entre sujets ou au cours du temps. / Magnetic Resonance Elastography (MRE) is a imaging technique, recognized as a pertinent method for the mechanical characterization of human tissue in vivo. It offersa particular interest in clinical diagnosis because the development of a pathological process is often accompanied by modifications of the mechanical properties of diseased tissues. MRE consists of recording, along the three spatial dimensions, the displacement field induced by the propagation of a shear wave generated by excitation of the investigated tissue. Mechanical parameters such as shear wave velocity, v, and shear moduli, G' and G'', can then be mapped. The quantification of the mechanical parameters depends on the frequency of the mechanical excitation, fexc, the spatial resolution, a, the amplitude of the induced displacement field, A and the amplitude of the curl field displacement, q, with associated measurement errors, ΔA and Δq, (related to the signal-to-noise ratio, SNR) and finally the reconstruction method. All these parameters were considered to determine the precision and the accuracy of the estimated mechanical moduli and to establish the conditions of validity of MRE following the inversion of the differential equations of the displacement field. In this work, first A and A/ΔA were considered to define a validity threshold for MRE. The influence of A and A/ΔA was studied on a heterogeneous phantom acquired using a 1.5 T MRI with two different types of coils. In a first study, the displacement fields were acquired as a function of A using motion-sensitized spin-echo (REF) and gradient-echo (FFE) sequences for an isotropic spatial resolution of 1 mm. In a second study, the displacement field was acquired as a function of A using RFE for three different spatial resolutions. These studies revealed the existence of a threshold in A/ΔA beyond which the extracted parameters (G', G'') reach a plateau and the MRE is reliable. Then the number of voxels per wavelength, λ/a was considered as a parameter determining the conditions of validity of MRE. This parameter was studied according to the quality of the acquired data characterized by the ratio q//Δq. Simulations were carried in a homogeneous and isotropic elastic medium with a SNR between 5 and 30. The accuracy and the precision of the measurements were found optimal for 6 to 9 voxels per wavelength. The simulation conditions were experimentally reproduced at 2 kHz on a home-made polyvinyl alcohol phantom. The displacement fields were acquired at 11.7 T using a motion-sensitized RFE sequence with spatial resolutions ranging from 150 μm to 300 μm in order to obtain a λ/a ratio ranging from 1 to 20. The experimental results fully confirm the predictions of the simulation. The shear wave velocity decreases with λ/a. It tends towards the expected reference value when the acquisition is performed in the optimal condition, namely here when a is less than or equal to 200 μm. In addition, the standard deviation of the shear wave velocity is reduced for the optimal conditions. Therefore, accurate estimation of mechanical parameters could be deduced. This thesis first demonstrates that the precision and accuracy of MRE are optimal when the acquisitions are performed or processed for a certain wavelength sampling range determined by the SNR. We also showed that for fair comparison of the results, MRE must be carried out in a similar range of q/Δq. Taking into account the conditions of validity of MRE, determined by the ratios λ/a and q/Δq, leads to an effective quantitative measurement of the mechanical parameters making it possible to establish a relevant clinical diagnosis within the same organ, the same subject, between subjects or over time.
|
5 |
Évaluation de l'exactitude dimensionnelle des gouttières orthodontiques thermoformées faites-maisonMekhil Polis, Cathrine 12 1900 (has links)
Introduction : Le traitement orthodontique par aligneurs transparents est une modalité de traitement populaire. Transparents, amovibles et hygiéniques, c’est une option que plusieurs patients préfèrent. Les avancées technologiques et leur accessibilité ont contribué à l’augmentation de la production de gouttières orthodontiques, faites-maison. L’objectif de cette étude expérimentale in vitro à groupes parallèles est d’investiguer la précision dimensionnelle des gouttières orthodontiques thermoformées, faites-maison.
Méthodes : L’empreinte numérique d’une arcade maxillaire a été enregistrée et trois scénarios orthodontiques ont été programmés digitalement, générant trois groupes. Groupe 1 : aucun mouvement dentaire, groupe 2 : 1 mm d’intrusion sur les dents 16, 11, 22, 24, groupe 3 : 1 mm de translation buccale sur les mêmes dents. La taille de l’échantillon étant de 15 pour chaque groupe (n=15), chacun des 3 modèles numériques a été imprimé en 3-dimensions 15 fois. Un aligneur de 0.75 mm a ensuite été thermoformé sur chaque modèle, générant 45 gouttières orthodontiques, et chacune a été subséquemment injectée de vinyl polysiloxane (VPS). Suite à sa polymérisation, chaque modèle en silicone a été séparé de son aligneur respectif, puis numérisé et converti en fichier Standard Tesselation Language (STL). Les modèles numériques finaux représentant l’intérieur des aligneurs ont été superposés digitalement aux modèles virtuels originaux de chaque groupe, servant de contrôle. La valeur quadratique moyenne (RMS) a été générée, à la fois pour la superposition globale du modèle ainsi que pour des points spécifiques sur les dents soumises à des mouvements dentaires.
Résultats : Les aligneurs fabriqués dans cette étude ont démontré une précision élevée, avec une marge d’erreur cliniquement acceptable (<0.25 mm). À l’intervalle de confiance de 95 %, l’écart médian entre les modèles numérique original et VPS final lors de la superposition générale, a varié de 0.161 mm à 0.169 mm. Cependant, le test de Kruskall-Wallis a démontré que le RMS médian de la surface buccale de la dent 22 était significativement compromis dans les groupes 2 et 3.
Conclusions : Les aligneurs orthodontiques produits dans le cadre de cette étude étaient très précis, quoique la surface buccale de l’incisive latérale maxillaire ait démontré une précision dimensionnelle moindre lorsqu’elle était soumise à des mouvements dentaires. / Introduction: Orthodontic treatment with clear aligners is a modality with great popularity due to improved hygiene, aesthetics, and comfort for the patient. Digital changes in orthodontics, as well as readily available CAD-CAM technologies, have increased the in-house production of orthodontic clear aligners. This experimental parallel-group in vitro study investigated the dimensional accuracy of in-house thermoformed orthodontic clear aligners.
Methods: The digital impression of a maxillary arch was collected, and three orthodontic scenarios were digitally programmed, generating the three groups studied. Group 1: no dental movement; Group 2: 1 mm of intrusion on teeth 16, 11, 22, 24; Group 3: 1 mm of buccal translation on the same teeth. Since the sample size for each group was 15 (n=15) for statistical purposes, each of the 3 digital models was 3-dimensionally printed 15 times. A 0.75 mm aligner was thermoformed on each model, thus generating 45 aligners, and each one was injected with vinyl polysiloxane (VPS). Upon its polymerization, every silicone model was separated from the aligner, subsequently scanned, and converted to a standard tessellation language (STL) file. The final digital models representing the inside of the aligners were digitally superimposed with the original digital models of each group, which served as controls. The root-mean-square (RMS) value was generated, both for the overall model superimposition, and for specific points on the teeth submitted to movements.
Results: The clear aligners produced in this study were within acceptable clinical error for aligner manufacturing (<0.25 mm). At a 95% confidence interval, the median discrepancy between the original digital model and the final VPS model for overall model superimposition was 0.161 mm at its lowest and 0.169 mm at its highest, depicting significant accuracy of overall aligners. However, the Kruskall-Wallis test showed the median RMS of the buccal surface of the maxillary lateral incisor was significantly offset in groups 2 and 3.
Conclusions: The orthodontic clear aligners produced within this study were highly accurate, although the buccal surface of the maxillary lateral incisor demonstrated less dimensional accuracy when submitted to dental movement.
|
6 |
Horloge à réseau optique au Strontium : une 2ème génération d'horloges à atomes froidsLe Targat, Rodolphe 13 July 2007 (has links) (PDF)
Les fontaines atomiques, basées sur une transition micro-onde du Césium ou du Rubidium, constituent l'état de l'art des horloges atomiques, avec une exactitude relative avoisinant 10^-16. Il apparaît cependant clairement aujourd'hui qu'il sera difficile de dépasser significativement ce niveau de performance avec un dispositif de ce type. L'utilisation d'une transition optique, toutes choses étant égales par ailleurs, ouvre la perspective d'une amélioration de 4 ou 5 ordres de grandeur de la stabilité et de l'incertitude relative sur la plupart des effets systématiques. Les effets liés au mouvement des atomes peuvent être, quant à eux, contrôlés d'une façon totalement différente, en les piégeant dans un réseau optique pour éviter la phase de vol balistique caractéristique des fontaines. Le point clef de cette approche réside dans le fait que les paramètres de ce piège peuvent être ajustés de façon à s'affranchir du déplacement lumineux si l'on sélectionne une transition d'horloge faiblement permise J = 0->J = 0. A cet égard, l'atome de strontium est l'un des candidats les plus prometteurs, la transition 1^S_0 -> 3^P_0 présente une largeur naturelle de 1 mHz, et plusieurs autres transitions facilement accessibles peuvent être utilisées en vue d'un refroidissement laser efficace des atomes jusqu'à une température de 10 microK. Ce manuscrit de thèse d'une part démontre la faisabilité expérimentale d'une horloge à réseau optique basée sur l'atome de strontium, et d'autre part expose une évaluation préliminaire de l'exactitude relative avec l'isotope fermionique 87^Sr, à un niveau de quelques 10^-15.
|
7 |
Formalisation et qualification de modèles par contraintes en conception préliminaireVernat, Yoann 11 1900 (has links) (PDF)
La conception architecturale constitue une étape complexe du développement d'un produit, car elle implique: (i) une prise de décision dans un contexte où les données du problème sont mal définies ou imprécises, (ii) une exploration de l'espace des solutions qui doit rester aussi large que possible, (iii) des choix de conception basés sur des variables continues ou discrètes, et (iv) une optimisation multidisciplinaire. Ainsi, les modèles de simulation classiquement utilisés en conception sont souvent mal adaptés à une réelle prise de décision: certains modèles sont trop simples, les choix sont alors entachés d'erreur de modélisation, d'autres sont trop spécialisés et certaines solutions risquent d'être ignorées. Nous proposons dans cette étude une approche de la formalisation de modèles plus adaptée à la prise de décision en conception architecturale. Cette méthodologie vise à obtenir des modèles à la fois parcimonieux et exacts. Ainsi, les modèles sont plus faciles à exploiter en conception préliminaire et cohérents avec les attentes du concepteur. La méthode développée repose sur: (i) une approche globale basée sur la décomposition fonctionnelle pour conserver une cohérence entre les modèles des différents composants, (ii) l'utilisation de quatre critères de qualification des modèles permettant de s'assurer de leur adéquation avec les objectifs de la conception préliminaire, (iii) l'utilisation des techniques d'adaptation de modèles, permettant de faire des choix de conception à l'aide de solveurs de Problèmes par Satisfaction de Contraintes (PSC). Les quatre critères de qualification utilisés sont: (i) la parcimonie du modèle, liée au nombre minimal de variables et d'équations décrivant correctement le comportement du système, (ii) l'exactitude du modèle, estimant l'adéquation entre les résultats du modèle et des résultats issus d'un modèle de référence, (iii) la précision du modèle, évaluant l'étendue du domaine de variation de chaque variable, due à un manque de connaissance ou à une incertitude et (iv) la spécialisation du modèle, qui est une mesure de la restriction du domaine d'application du modèle, relativement à la quantité d'information introduite dans le modèle. Les quatre critères retenus sont pertinents de la conception préliminaire dans la mesure où: la parcimonie assure la simplicité du modèle, la spécialisation contribue à définir l'étendue du domaine d'application du modèle, et donc les limites de l'espace de conception, enfin, l'exactitude et la précision donnent une mesure de la fidélité du modèle à la réalité. Utilisés au cours de la méthodologie proposée, ces critères constituent un moyen de contrôle des modèles jusqu'à atteindre la forme souhaitée. Enfin, cette méthodologie est illustrée au travers de l'exemple d'une batterie de véhicule électrique, pour lequel deux modèles de niveaux systémiques différents sont comparés.
|
8 |
Horloge à réseau optique au Strontium : une 2ème génération d'horloges à atomes froidsLe Targat, Rodolphe 13 July 2007 (has links) (PDF)
Les fontaines atomiques, basées sur une transition micro-onde du Césium ou du Rubidium, constituent l'état de l'art des horloges atomiques, avec une exactitude relative avoisinant 10^{-16}. Il apparaît cependant clairement aujourd'hui qu'il sera difficile de dépasser significativement ce niveau de performance avec un dispositif de ce type.<br /><br />L'utilisation d'une transition optique, toutes choses étant égales par ailleurs, ouvre la perspective d'une amélioration de 4 ou 5 ordres de grandeur de la stabilité et de l'incertitude relative sur la plupart des effets systématiques. Les effets liés au mouvement des atomes peuvent être, quant à eux, contrôlés d'une façon totalement différente, en les piégeant dans un réseau optique pour éviter la phase de vol ballistique caractéristique des fontaines. Le point clef de cette approche réside dans le fait que les paramètres de ce piège peuvent être ajustés de façon à s'affranchir du déplacement lumineux si l'on sélectionne une transition d'horloge faiblement permise J=0 -> J=0.<br /><br />A cet égard, l'atome de strontium est l'un des candidats les plus prometteurs, la transition ^1S_0 -> ^3P_0 présente une largeur naturelle de 1 mHz, et plusieurs autres transitions facilement accessibles peuvent être utilisées en vue d'un refroidissement laser efficace des atomes jusqu'à une température de 10 µK. Ce manuscrit de thèse d'une part démontre la faisabilité expérimentale d'une horloge à réseau optique basée sur l'atome de strontium, et d'autre part expose une évaluation préliminaire de l'exactitude relative avec l'isotope fermionique ^{87}Sr, à un niveau de quelques 10^{-15}.
|
9 |
Cémentochronologie : précision et exactitude de l’estimation de l’âge au décès : influence de la taphonomie / Cementochronology : precision and accuracy of age at death estimation : impact of taphonomyBertrand, Benoit 18 December 2017 (has links)
L’estimation de l’âge au décès d’individus découverts en contexte médico-légal ou ar-chéologique est un sujet fondamental. La cémentochronologie fondée sur le dépôt annuel de cément acellulaire est une technique parmi les plus performantes dont l’exactitude est appréciée dans de nombreuses publications. Cependant, le manque de standardisation ralentit l’adoption de cette méthode et freine l’étude de la précision qui demeure méconnue tout comme l’impact des conditions taphonomiques sur sa fiabilité. Le premier objectif de ce travail est de mesurer la concordance des estimations effectuées, donc la précision, puis d’évaluer l’exactitude, donc la qualité de l’accord entre l’âge estimé et l’âge chronologique, en appliquant un protocole standardisé et certifié ISO-9001 pour s’affranchir des biais inhérents à la préparation. Le second objectif est d’apprécier l’impact des affections taphonomiques trop souvent négligées. La collecte des données à partir de préparations histologiques dentaires représente une opération coûteuse en temps et constitue un obstacle majeur pour conduire des études cémentochronologiques. Nous nous fixons comme autre objectif d’expérimenter un logiciel de comptage semi-automatique, fruit d’une collaboration entre anthropologues (UTML) et développeurs (FEI Visualization Sciences Group). Pour atteindre ces buts, l’étude porte sur 2000 lames histologiques réalisées à partir de 400 canines. 200 canines sont issues de collections de référence dont l’âge, le sexe, l’intervalle postmortem et la durée d’inhumation des sujets sont connus. Afin d’apprécier l’influence de la taphonomie sur la lisibilité et la précision et d’étudier l’applicabilité de la méthode à du matériel ancien, 200 canines extraites de sujets archéologiques datés entre le XIIe et le XVIIIe siècle sont intégrées à l’étude. Précision et exactitude sont approchées pour chaque classe d’âge et en tenant compte des intervalles post-mortem et des affections taphonomiques, mettant ainsi en évidence une fiabilité qui est fonction de l’âge du sujet, mais aussi de l’état de conservation des tissus. Ce travail vise, sur un échantillon standardisé conséquent, à amener une discussion sur les performances de la cémentochronologie à l’échelle individuelle et populationnelle, à apporter des recommandations et proposer un modèle de prédiction pour minimiser les différences entre âge estimé et âge chronologique. / Age at death estimation is a fundamental component of creating a biological profile in forensic and bioarchaeological contexts. Cementochronology based on annual deposition of acellular cementum is one of the most effective ageing techniques, and its accuracy, i.e. the agreement between estimated age and chronological age, is acknowledged in many publications. However, the lack of standardization slows down the adoption of this method and hinders the evaluation of its precision that remains unknown as well as the impact of taphonomical processes. The first objective of this thesis is to measure the agreement between cementum estimates, i.e. the precision, and then to assess the accuracy through the evaluation of the quality of the accordance between chronological age and estimates based on a standardized and ISO-9001 certified protocol to overcome bias due to sample preparation. The second objective is to gauge the impact of taphonomical effects too often neglected. Counting cementum increments on histological preparations is time-consuming and represents a major difficulty to perform cementochronological studies. Another goal is to experiment a semi-automatic program resulting from a col-laboration between anthropologists (UTML) and software developers (FEI Visualization Sciences Group). To achieve these goals, our study is based on 2000 histological sections from 400 canines. 200 canines are derived from reference collections with documented age, sex, postmortem interval and burial duration. In order to grasp the influence of taphonomy on slices readability and on precision and to investigate the applicability of this method on ancient material, 200 canines extracted from archaeological assemblages dated between the XIIth century and XVIIIth century are included in the study. Accuracy and precision are assessed for each age group in considering post-mortem intervals and taphonomical conditions and show a reliability influenced by age but also by tissue preservation. This work aims, on a large standardized sample, to discuss cementochronology’s performance for individual and population approaches, to provide recommen-dations and to propose a prediction model to reduce differences between estimated age and chronological age.
|
10 |
L'exactitude de la cotation au Rorschach - Système IntégréDoyon, Julie 12 1900 (has links)
No description available.
|
Page generated in 0.0497 seconds