• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 6
  • 3
  • 1
  • Tagged with
  • 25
  • 14
  • 8
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Data Quality Evaluation in Data Integration Systems

Peralta, Veronika 17 November 2006 (has links) (PDF)
Les besoins d'accéder, de façon uniforme, à des sources de données multiples, sont chaque jour plus forts, particulièrement, dans les systèmes décisionnels qui ont besoin d'une analyse compréhensive des données. Avec le développement des Systèmes d'Intégration de Données (SID), la qualité de l'information est devenue une propriété de premier niveau de plus en plus exigée par les utilisateurs. Cette thèse porte sur la qualité des données dans les SID. Nous nous intéressons, plus précisément, aux problèmes de l'évaluation de la qualité des données délivrées aux utilisateurs en réponse à leurs requêtes et de la satisfaction des exigences des utilisateurs en terme de qualité. Nous analysons également l'utilisation de mesures de qualité pour l'amélioration de la conception du SID et de la qualité des données. Notre approche consiste à étudier un facteur de qualité à la fois, en analysant sa relation avec le SID, en proposant des techniques pour son évaluation et en proposant des actions pour son amélioration. Parmi les facteurs de qualité qui ont été proposés, cette thèse analyse deux facteurs de qualité : la fraîcheur et l'exactitude des données. Nous analysons les différentes définitions et mesures qui ont été proposées pour la fraîcheur et l'exactitude des données et nous faisons émerger les propriétés du SID qui ont un impact important sur leur évaluation. Nous résumons l'analyse de chaque facteur par le biais d'une taxonomie, qui sert à comparer les travaux existants et à faire ressortir les problèmes ouverts. Nous proposons un canevas qui modélise les différents éléments liés à l'évaluation de la qualité tels que les sources de données, les requêtes utilisateur, les processus d'intégration du SID, les propriétés du SID, les mesures de qualité et les algorithmes d'évaluation de la qualité. En particulier, nous modélisons les processus d'intégration du SID comme des processus de workflow, dans lesquels les activités réalisent les tâches qui extraient, intègrent et envoient des données aux utilisateurs. Notre support de raisonnement pour l'évaluation de la qualité est un graphe acyclique dirigé, appelé graphe de qualité, qui a la même structure du SID et contient, comme étiquettes, les propriétés du SID qui sont relevants pour l'évaluation de la qualité. Nous développons des algorithmes d'évaluation qui prennent en entrée les valeurs de qualité des données sources et les propriétés du SID, et, combinent ces valeurs pour qualifier les données délivrées par le SID. Ils se basent sur la représentation en forme de graphe et combinent les valeurs des propriétés en traversant le graphe. Les algorithmes d'évaluation peuvent être spécialisés pour tenir compte des propriétés qui influent la qualité dans une application concrète. L'idée derrière le canevas est de définir un contexte flexible qui permet la spécialisation des algorithmes d'évaluation à des scénarios d'application spécifiques. Les valeurs de qualité obtenues pendant l'évaluation sont comparées à celles attendues par les utilisateurs. Des actions d'amélioration peuvent se réaliser si les exigences de qualité ne sont pas satisfaites. Nous suggérons des actions d'amélioration élémentaires qui peuvent être composées pour améliorer la qualité dans un SID concret. Notre approche pour améliorer la fraîcheur des données consiste à l'analyse du SID à différents niveaux d'abstraction, de façon à identifier ses points critiques et cibler l'application d'actions d'amélioration sur ces points-là. Notre approche pour améliorer l'exactitude des données consiste à partitionner les résultats des requêtes en portions (certains attributs, certaines tuples) ayant une exactitude homogène. Cela permet aux applications utilisateur de visualiser seulement les données les plus exactes, de filtrer les données ne satisfaisant pas les exigences d'exactitude ou de visualiser les données par tranche selon leur exactitude. Comparée aux approches existantes de sélection de sources, notre proposition permet de sélectionner les portions les plus exactes au lieu de filtrer des sources entières. Les contributions principales de cette thèse sont : (1) une analyse détaillée des facteurs de qualité fraîcheur et exactitude ; (2) la proposition de techniques et algorithmes pour l'évaluation et l'amélioration de la fraîcheur et l'exactitude des données ; et (3) un prototype d'évaluation de la qualité utilisable dans la conception de SID.
2

Gravimétrie atomique, amélioration de l'exactitude et nouvelles géométries

Bodart, Quentin 17 November 2010 (has links) (PDF)
L'objectif du gravimètre absolu est de déterminer la valeur de l'accélération de pesanteur g avec une incertitude relative de 10-9 pour le projet métrologique de "balance du watt". Nous avons développé pendant ma thèse une nouvelle enceinte à vide permettant l'évaluation des effets systématiques limitant. Le gravimètre a été rendu transportable et placé à côté de la balance du LNE. Le gravimètre repose sur des techniques d'interférométrie atomique, où un nuage d'atomes froids de 87Rb en chute libre est manipulé au moyen de transitions à deux photons. Nous avons réduit l'incertitude sur l'ensemble des biais au-dessous de l'objectif, excepté l'effet des aberrations du front d'onde des faisceaux lasers. Il est actuellement l'objet de nos investigations et nous cherchons à contrôler le mieux possible la trajectoire des atomes. Au cours de l'année 2010, notre gravimètre atomique a participé à des comparaisons "clefs" internationales. Les valeurs de g obtenues sont en accord, mais nous relevons des fluctuations de l'écart avec les autres gravimètres, liées en partie aux variations de l'effet d'aberration. Nous avons développé en parallèle trois nouvelles techniques de mesures d'interférométrie atomique. La première utilise un algorithme à trois coups qui rend la mesure robuste aux vibrations. La seconde consiste à diffracter les atomes simultanément au moyen des quatre champs présents dans l'enceinte à vide afin de doubler l'aire de l'interféromètre et donc sa sensibilité intrinsèque. Enfin nous avons conçu et caractérisé une pyramide creuse, qui permet de substituer aux différents lasers un unique large faisceau, afin de créer un gravimètre atomique transportable compact.
3

Stabilité long terme d'un gravimètre atomique et limites de la technique de rejet des effets systématiques / Long-term stability of an atom gravimeter and limits of the rejection technic of the systematic effects

Gillot, Pierre 04 November 2016 (has links)
Cette thèse porte sur l'amélioration des performances du CAG, le gravimètre atomique développé au SYRTE. Cet instrument exploite des techniques d'interférométrie atomique pour mesurer l'accélération locale de la pesanteur g subit par un nuage d'atomes froids de 87Rb en chute libre. Les perfectionnements comme l'asservissement des puissances des faisceaux Raman et l'optimisation des paramètres tels que ceux pilotant la détection sont présentés dans ce manuscrit. La position initiale du nuage, sa vitesse moyenne, son expansion balistique dans les faisceaux Raman ainsi que leur évolution, sont autant de paramètres altérant les performances du CAG. Les inhomogénéités de couplage qui en résultent, modifient la symétrie de la fonction de sensibilité de l'interféromètre et le rendent sensible aux désaccords Raman constants. De plus, les désaccords Raman de type Doppler ne peuvent voir leur effet annulé par la technique de mesure mise en place pour rejeter les effets systématiques. L'asymétrie de l'interféromètre a été mesurée et une méthode pour la compenser est proposée. Enfin, plusieurs comparaisons avec différents gravimètres sont présentées. La comparaison internationale CCM.G-K2 a permis de confirmer l'exactitude du CAG, révélant notamment un écart type d'Allan de 5,7 10-9/Hz1/2. Finalement, une session de mesure d'un mois en vue commune avec un gravimètre supraconducteur iGrav est étudiée. Elle a permis la détermination du facteur d'échelle de l'iGrav à 0,1% dès un jour de mesure et 0,02% en moins d'un mois. L'écart type d'Allan sur le résidu du signal entre les gravimètres atteint alors 6 10-11g après 12h de mesure. / This thesis aims at pushing the performances of the atom gravimeter CAG developed at SYRTE. This instrument uses atom interferometry to measure the local gravity acceleration of a free falling 87Rb cold atomic cloud. The improvements of the Raman power control and parameters such as those driving the detection are presented in this thesis. The initial position of the cloud, its mean velocity, its ballistic expansion into the Raman beams and thus their evolution, are important parameters which affect the performances of the CAG. The resulting coupling inhomogeneities modify the symmetry of the sensitivity function of the interferometer and make it sensitive to constant Raman detuning. Moreover, the Raman detuning in a Doppler way cannot be canceled by our rejection technic of systematic effects. The asymmetry of the sensitivity function has been measured and a method is demonstrated to cancel it. Several comparisons between the CAG and different gravimeter types have been performed and their results are developed. The international comparison of absolute gravimeters CCM.G-K2 confirms the CAG accuracy budget. It reveals an Allan standard deviation of 5.710-9g/Hz1/2. In the end, a one month common view measurement with a superconducting gravimeter iGrav is studied. The determination of the iGrav scale factor at the level of 0.1% in a single day and 0.02% in less than a month is obtained with this long measurement. The Allan standard deviation of the gravity residual signal is 610-11g in 12h measurement time.
4

Conditions de validité de l'Élastographie par Résonance Magnétique / Conditions of validity of Magnetic Resonance Elastography

Julea, Felicia 14 March 2018 (has links)
L'élastographie par résonance magnétique (ERM) est une technique d'imagerie, reconnue comme une méthode pertinente pour la caractérisation mécanique des tissus humains in vivo. Celle-ci représente un intérêt fondamental en diagnostic clinique car le développement d'un processus pathologique s'accompagne la plupart du temps d'altérations des propriétés mécaniques des tissus atteints. L'ERM consiste à enregistrer le champ de déplacement induit au passage d'une onde de cisaillement généré dans le milieu étudié. Les paramètres mécaniques comme la vitesse, v, et les modules de viscoélasticité de cisaillement, G' et G'', peuvent être cartographiés. La quantification des paramètres mécaniques dépend à la fois de la fréquence mécanique, fexc, de la taille de voxel, a, de l'amplitude des champs de déplacement induits, A, de l'amplitude du rotationnel du champ de déplacement, q, des erreurs de mesure, ΔA et Δq, donc du rapport signal à bruit, RSB, et enfin de la méthode de reconstruction. En inversant les équations différentielles du champ de déplacement acquis selon les trois dimensions de l'espace, ces paramètres ont été considérés pour déterminer la précision et l'exactitude des modules mécaniques obtenus et établir les conditions de validité de l'ERM. Dans cette thèse, nous avons tout d'abord considéré A et A/ΔA afin de définir un premier seuil de validité pour l'ERM. Nous avons étudié l'influence de ces deux paramètres sur un fantôme hétérogène dans un appareil IRM 1,5 T avec deux types d'antennes. Dans une première étude, les champs de déplacement ont été acquis en fonction de A en utilisant deux séquences écho de spin (RFE) et écho de gradient (FFE) sensibilisées au mouvement pour une taille de voxel isotrope de 1 mm. Dans une seconde étude, ils ont été acquis en RFE en fonction de A pour trois résolutions spatiales différentes. Ces études ont révélé l'existence d'un seuil en A/ΔA au-delà duquel les paramètres extraits (G', G'') atteignent un plateau et l'ERM est fiable. Nous avons ensuite considéré le nombre de voxel par longueur d'onde, λ/a, comme paramètre déterminant des conditions de validité de l'ERM et nous avons caractérisé la qualité des données acquises par le rapport q/Δq. Sur des simulaitons dans un milieu élastique, homogène et isotrope avec un RSB variant entre 5 et 30, la précision et l'exactitude des mesures se sont avérées optimales pour 6 à 9 voxels par longueur d'onde. Nous avons reproduit expérimentalement à 2 kHz les conditions des siimulations sur un fantôme de PVA. Les champs de déplacement ont été acquis à 11,7 T en utilisant une séquence RFE sensibilisée au mouvement pour des résolutions spatiales de 150 μm à 300 μm afin de balayer le rapport λ/a de 1 à 20. Les résultats expérimentaux confirment pleinement les prédictions de la simulation. La vitesse de cisaillement diminue et tend vers la vitesse de référence attendue lorsque l'acquisition est réalisée dans le domaine optimal, à savoir ici lorsque a est inférieure ou égale à 200 μm. En outre la dispersion de la vitesse est réduite dans le domaine optimal et des estimations plus précises des paramètres mécaniques ont pu être déduites. Cette thèse montre d'une part que la précision et l'exactitude de l'ERM sont optimales lorsque les acquisitions sont réalisées ou traitées pour un domaine d'échantillonnage de la longueur d'onde déterminé par le RSB. Elle montre d'autre part que la comparaison des résultats obtenus doit être menée dans une gamme similaire de q/Δq. La prise en compte des conditions de validité de l'ERM, déterminées par les rapports λ/a et q/Δq, conduit à une mesure quantitative effective des paramètres mécaniques. Il est ainsi possible d'envisager un diagnostic clinique pertinent au sein d'un même organe, d'un même sujet, entre sujets ou au cours du temps. / Magnetic Resonance Elastography (MRE) is a imaging technique, recognized as a pertinent method for the mechanical characterization of human tissue in vivo. It offersa particular interest in clinical diagnosis because the development of a pathological process is often accompanied by modifications of the mechanical properties of diseased tissues. MRE consists of recording, along the three spatial dimensions, the displacement field induced by the propagation of a shear wave generated by excitation of the investigated tissue. Mechanical parameters such as shear wave velocity, v, and shear moduli, G' and G'', can then be mapped. The quantification of the mechanical parameters depends on the frequency of the mechanical excitation, fexc, the spatial resolution, a, the amplitude of the induced displacement field, A and the amplitude of the curl field displacement, q, with associated measurement errors, ΔA and Δq, (related to the signal-to-noise ratio, SNR) and finally the reconstruction method. All these parameters were considered to determine the precision and the accuracy of the estimated mechanical moduli and to establish the conditions of validity of MRE following the inversion of the differential equations of the displacement field. In this work, first A and A/ΔA were considered to define a validity threshold for MRE. The influence of A and A/ΔA was studied on a heterogeneous phantom acquired using a 1.5 T MRI with two different types of coils. In a first study, the displacement fields were acquired as a function of A using motion-sensitized spin-echo (REF) and gradient-echo (FFE) sequences for an isotropic spatial resolution of 1 mm. In a second study, the displacement field was acquired as a function of A using RFE for three different spatial resolutions. These studies revealed the existence of a threshold in A/ΔA beyond which the extracted parameters (G', G'') reach a plateau and the MRE is reliable. Then the number of voxels per wavelength, λ/a was considered as a parameter determining the conditions of validity of MRE. This parameter was studied according to the quality of the acquired data characterized by the ratio q//Δq. Simulations were carried in a homogeneous and isotropic elastic medium with a SNR between 5 and 30. The accuracy and the precision of the measurements were found optimal for 6 to 9 voxels per wavelength. The simulation conditions were experimentally reproduced at 2 kHz on a home-made polyvinyl alcohol phantom. The displacement fields were acquired at 11.7 T using a motion-sensitized RFE sequence with spatial resolutions ranging from 150 μm to 300 μm in order to obtain a λ/a ratio ranging from 1 to 20. The experimental results fully confirm the predictions of the simulation. The shear wave velocity decreases with λ/a. It tends towards the expected reference value when the acquisition is performed in the optimal condition, namely here when a is less than or equal to 200 μm. In addition, the standard deviation of the shear wave velocity is reduced for the optimal conditions. Therefore, accurate estimation of mechanical parameters could be deduced. This thesis first demonstrates that the precision and accuracy of MRE are optimal when the acquisitions are performed or processed for a certain wavelength sampling range determined by the SNR. We also showed that for fair comparison of the results, MRE must be carried out in a similar range of q/Δq. Taking into account the conditions of validity of MRE, determined by the ratios λ/a and q/Δq, leads to an effective quantitative measurement of the mechanical parameters making it possible to establish a relevant clinical diagnosis within the same organ, the same subject, between subjects or over time.
5

Horloge à réseau optique au Strontium : une 2ème génération d'horloges à atomes froids

Le Targat, Rodolphe 13 July 2007 (has links) (PDF)
Les fontaines atomiques, basées sur une transition micro-onde du Césium ou du Rubidium, constituent l'état de l'art des horloges atomiques, avec une exactitude relative avoisinant 10^-16. Il apparaît cependant clairement aujourd'hui qu'il sera difficile de dépasser significativement ce niveau de performance avec un dispositif de ce type. L'utilisation d'une transition optique, toutes choses étant égales par ailleurs, ouvre la perspective d'une amélioration de 4 ou 5 ordres de grandeur de la stabilité et de l'incertitude relative sur la plupart des effets systématiques. Les effets liés au mouvement des atomes peuvent être, quant à eux, contrôlés d'une façon totalement différente, en les piégeant dans un réseau optique pour éviter la phase de vol balistique caractéristique des fontaines. Le point clef de cette approche réside dans le fait que les paramètres de ce piège peuvent être ajustés de façon à s'affranchir du déplacement lumineux si l'on sélectionne une transition d'horloge faiblement permise J = 0->J = 0. A cet égard, l'atome de strontium est l'un des candidats les plus prometteurs, la transition 1^S_0 -> 3^P_0 présente une largeur naturelle de 1 mHz, et plusieurs autres transitions facilement accessibles peuvent être utilisées en vue d'un refroidissement laser efficace des atomes jusqu'à une température de 10 microK. Ce manuscrit de thèse d'une part démontre la faisabilité expérimentale d'une horloge à réseau optique basée sur l'atome de strontium, et d'autre part expose une évaluation préliminaire de l'exactitude relative avec l'isotope fermionique 87^Sr, à un niveau de quelques 10^-15.
6

Formalisation et qualification de modèles par contraintes en conception préliminaire

Vernat, Yoann 11 1900 (has links) (PDF)
La conception architecturale constitue une étape complexe du développement d'un produit, car elle implique: (i) une prise de décision dans un contexte où les données du problème sont mal définies ou imprécises, (ii) une exploration de l'espace des solutions qui doit rester aussi large que possible, (iii) des choix de conception basés sur des variables continues ou discrètes, et (iv) une optimisation multidisciplinaire. Ainsi, les modèles de simulation classiquement utilisés en conception sont souvent mal adaptés à une réelle prise de décision: certains modèles sont trop simples, les choix sont alors entachés d'erreur de modélisation, d'autres sont trop spécialisés et certaines solutions risquent d'être ignorées. Nous proposons dans cette étude une approche de la formalisation de modèles plus adaptée à la prise de décision en conception architecturale. Cette méthodologie vise à obtenir des modèles à la fois parcimonieux et exacts. Ainsi, les modèles sont plus faciles à exploiter en conception préliminaire et cohérents avec les attentes du concepteur. La méthode développée repose sur: (i) une approche globale basée sur la décomposition fonctionnelle pour conserver une cohérence entre les modèles des différents composants, (ii) l'utilisation de quatre critères de qualification des modèles permettant de s'assurer de leur adéquation avec les objectifs de la conception préliminaire, (iii) l'utilisation des techniques d'adaptation de modèles, permettant de faire des choix de conception à l'aide de solveurs de Problèmes par Satisfaction de Contraintes (PSC). Les quatre critères de qualification utilisés sont: (i) la parcimonie du modèle, liée au nombre minimal de variables et d'équations décrivant correctement le comportement du système, (ii) l'exactitude du modèle, estimant l'adéquation entre les résultats du modèle et des résultats issus d'un modèle de référence, (iii) la précision du modèle, évaluant l'étendue du domaine de variation de chaque variable, due à un manque de connaissance ou à une incertitude et (iv) la spécialisation du modèle, qui est une mesure de la restriction du domaine d'application du modèle, relativement à la quantité d'information introduite dans le modèle. Les quatre critères retenus sont pertinents de la conception préliminaire dans la mesure où: la parcimonie assure la simplicité du modèle, la spécialisation contribue à définir l'étendue du domaine d'application du modèle, et donc les limites de l'espace de conception, enfin, l'exactitude et la précision donnent une mesure de la fidélité du modèle à la réalité. Utilisés au cours de la méthodologie proposée, ces critères constituent un moyen de contrôle des modèles jusqu'à atteindre la forme souhaitée. Enfin, cette méthodologie est illustrée au travers de l'exemple d'une batterie de véhicule électrique, pour lequel deux modèles de niveaux systémiques différents sont comparés.
7

Horloge à réseau optique au Strontium : une 2ème génération d'horloges à atomes froids

Le Targat, Rodolphe 13 July 2007 (has links) (PDF)
Les fontaines atomiques, basées sur une transition micro-onde du Césium ou du Rubidium, constituent l'état de l'art des horloges atomiques, avec une exactitude relative avoisinant 10^{-16}. Il apparaît cependant clairement aujourd'hui qu'il sera difficile de dépasser significativement ce niveau de performance avec un dispositif de ce type.<br /><br />L'utilisation d'une transition optique, toutes choses étant égales par ailleurs, ouvre la perspective d'une amélioration de 4 ou 5 ordres de grandeur de la stabilité et de l'incertitude relative sur la plupart des effets systématiques. Les effets liés au mouvement des atomes peuvent être, quant à eux, contrôlés d'une façon totalement différente, en les piégeant dans un réseau optique pour éviter la phase de vol ballistique caractéristique des fontaines. Le point clef de cette approche réside dans le fait que les paramètres de ce piège peuvent être ajustés de façon à s'affranchir du déplacement lumineux si l'on sélectionne une transition d'horloge faiblement permise J=0 -> J=0.<br /><br />A cet égard, l'atome de strontium est l'un des candidats les plus prometteurs, la transition ^1S_0 -> ^3P_0 présente une largeur naturelle de 1 mHz, et plusieurs autres transitions facilement accessibles peuvent être utilisées en vue d'un refroidissement laser efficace des atomes jusqu'à une température de 10 µK. Ce manuscrit de thèse d'une part démontre la faisabilité expérimentale d'une horloge à réseau optique basée sur l'atome de strontium, et d'autre part expose une évaluation préliminaire de l'exactitude relative avec l'isotope fermionique ^{87}Sr, à un niveau de quelques 10^{-15}.
8

Cémentochronologie : précision et exactitude de l’estimation de l’âge au décès : influence de la taphonomie / Cementochronology : precision and accuracy of age at death estimation : impact of taphonomy

Bertrand, Benoit 18 December 2017 (has links)
L’estimation de l’âge au décès d’individus découverts en contexte médico-légal ou ar-chéologique est un sujet fondamental. La cémentochronologie fondée sur le dépôt annuel de cément acellulaire est une technique parmi les plus performantes dont l’exactitude est appréciée dans de nombreuses publications. Cependant, le manque de standardisation ralentit l’adoption de cette méthode et freine l’étude de la précision qui demeure méconnue tout comme l’impact des conditions taphonomiques sur sa fiabilité. Le premier objectif de ce travail est de mesurer la concordance des estimations effectuées, donc la précision, puis d’évaluer l’exactitude, donc la qualité de l’accord entre l’âge estimé et l’âge chronologique, en appliquant un protocole standardisé et certifié ISO-9001 pour s’affranchir des biais inhérents à la préparation. Le second objectif est d’apprécier l’impact des affections taphonomiques trop souvent négligées. La collecte des données à partir de préparations histologiques dentaires représente une opération coûteuse en temps et constitue un obstacle majeur pour conduire des études cémentochronologiques. Nous nous fixons comme autre objectif d’expérimenter un logiciel de comptage semi-automatique, fruit d’une collaboration entre anthropologues (UTML) et développeurs (FEI Visualization Sciences Group). Pour atteindre ces buts, l’étude porte sur 2000 lames histologiques réalisées à partir de 400 canines. 200 canines sont issues de collections de référence dont l’âge, le sexe, l’intervalle postmortem et la durée d’inhumation des sujets sont connus. Afin d’apprécier l’influence de la taphonomie sur la lisibilité et la précision et d’étudier l’applicabilité de la méthode à du matériel ancien, 200 canines extraites de sujets archéologiques datés entre le XIIe et le XVIIIe siècle sont intégrées à l’étude. Précision et exactitude sont approchées pour chaque classe d’âge et en tenant compte des intervalles post-mortem et des affections taphonomiques, mettant ainsi en évidence une fiabilité qui est fonction de l’âge du sujet, mais aussi de l’état de conservation des tissus. Ce travail vise, sur un échantillon standardisé conséquent, à amener une discussion sur les performances de la cémentochronologie à l’échelle individuelle et populationnelle, à apporter des recommandations et proposer un modèle de prédiction pour minimiser les différences entre âge estimé et âge chronologique. / Age at death estimation is a fundamental component of creating a biological profile in forensic and bioarchaeological contexts. Cementochronology based on annual deposition of acellular cementum is one of the most effective ageing techniques, and its accuracy, i.e. the agreement between estimated age and chronological age, is acknowledged in many publications. However, the lack of standardization slows down the adoption of this method and hinders the evaluation of its precision that remains unknown as well as the impact of taphonomical processes. The first objective of this thesis is to measure the agreement between cementum estimates, i.e. the precision, and then to assess the accuracy through the evaluation of the quality of the accordance between chronological age and estimates based on a standardized and ISO-9001 certified protocol to overcome bias due to sample preparation. The second objective is to gauge the impact of taphonomical effects too often neglected. Counting cementum increments on histological preparations is time-consuming and represents a major difficulty to perform cementochronological studies. Another goal is to experiment a semi-automatic program resulting from a col-laboration between anthropologists (UTML) and software developers (FEI Visualization Sciences Group). To achieve these goals, our study is based on 2000 histological sections from 400 canines. 200 canines are derived from reference collections with documented age, sex, postmortem interval and burial duration. In order to grasp the influence of taphonomy on slices readability and on precision and to investigate the applicability of this method on ancient material, 200 canines extracted from archaeological assemblages dated between the XIIth century and XVIIIth century are included in the study. Accuracy and precision are assessed for each age group in considering post-mortem intervals and taphonomical conditions and show a reliability influenced by age but also by tissue preservation. This work aims, on a large standardized sample, to discuss cementochronology’s performance for individual and population approaches, to provide recommen-dations and to propose a prediction model to reduce differences between estimated age and chronological age.
9

L'exactitude de la cotation au Rorschach - Système Intégré

Doyon, Julie 12 1900 (has links)
No description available.
10

Le Flaubert de Nabokov : interprétation, continuité et originalité / Nabokov’s Flaubert : interpretation, continuity and originality

Reigner, Léopold 30 November 2018 (has links)
« L’influence est une chose sombre et peu claire » disait Vladimir Nabokov en 1930, réfutant avoir été profondément influencé par ses prédécesseurs. Pourtant, comme il le soulignait lui-même, cet auteur russe francophone avait lu les œuvres complètes de Flaubert en français avant l’âge de 14 ans et considérait Madame Bovary comme le roman le plus « brillant de la littérature européenne ». Cette étude se propose d’examiner ce lien à travers une nouvelle définition de l’influence, s’appuyant sur les théories d’Harold Bloom et de Derek Attridge, mais centrée sur l’individualité des auteurs, considérée comme le moteur du processus d’influence, processus caractérisé à la fois par l’exploration des idées du précurseur et la déviation de celles-ci. L’analyse de la conception nabokovienne de l’œuvre de Flaubert permettra de mettre au jour le retentissement qu’a pu avoir cette lecture sur l’œuvre de Nabokov. En effet, si le style de Nabokov est unique et original, son admiration pour le rythme et la sonorité de l’écriture flaubertienne dévoilée dans le cours de Nabokov sur Madame Bovary invite à s’interroger sur la façon dont son interprétation individuelle du style flaubertien se retrouve dans certains aspects de la propre écriture de Nabokov. Également, cet examen parallèle fournira un éclairage nouveau sur les œuvres des deux auteurs, et sur leur vision de la littérature, apparemment lié dans refus de l’incidence sociale et une adhésion à un purisme esthétique complexe, liant la beauté et la vérité. Enfin, cette analyse donnera lieu à une recherche de deux définitions du « style », chez deux auteurs fascinés par l’exactitude et la quête de la précision verbale. / « Influence is a dark and unclear thing » Vladimir Nabokov said in 1930, as he denied having been deeply influenced by any past writer. However, and as he declared himself, this French-speaking Russian writer had read the complete works of Flaubert in French before the age of 14 and considered Madame Bovary to be “the most brilliant novel in world literature”. This study plans to examine this link through a new definition of influence, based on the theories of Harold Bloom and Derek Attridge, but focused on the writers’ individuality, which is seen as the core of the influence process, a process characterized both the exploration idea found in the precursor’s work and the deviation of those ideas. The analysis of the Nabokovian conception of Flaubert’s work will be used to bring to light the impact such a reading may have had on Nabokov’s work. Indeed, although Nabokov’s style is unique and original, his admiration for the rhythm and sounds of Flaubert’s writing, described at length in Nabokov’s class on Madame Bovary, suggests an inquiry on the way that his individual interpretation of Flaubert’s style may have reverberations in Nabokov’s own writing. Also, this parallel examination will provide a new study of both authors’ works, and on their vision of literature, apparently linked by a common contradiction between social impact and aesthetic purism. Finally, this analysis will give rise to a search for two definitions of “style”, in two writers fascinated by exactitude and the quest of verbal accuracy.

Page generated in 0.0451 seconds