• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 24
  • 7
  • Tagged with
  • 33
  • 9
  • 8
  • 7
  • 7
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Strategies of Information Acquisition Under Uncertainty / Stratégies d'acquisition d'information dans l'incertain

Attallah, May 13 October 2017 (has links)
L’objectif de cette thèse est de présenter quatre essais en économie comportementale et expérimentale sur prise de décision dans le risque et l’ambiguïté. Le premier essai présente une synthèse et un point de vue sur la représentativité des résultats expérimentaux en matière de préférences : préférences sociales et préférences concernant le risque et le temps dans les pays développés ainsi que dans les pays en voie de développement. Le deuxième essai explore expérimentalement l’effet du risque et de l’ambiguïté sur le comportement de recherche d’emploi en horizon infini. Les résultats montrent qu’en risque et ambiguïté, les salaires de réservation sont inférieurs aux valeurs théoriques et diminuent au cours du processus de recherche. De même, les sujets se comportent comme des agents neutre à l’ambiguïté. Le troisième et quatrième essai étudient l’effet du contexte social et la corrélation des paiements sur les attitudes face au risque et à l’ambiguïté respectivement dans le domaine de gain, perte et le domaine mixte. Les résultats montrent que l’introduction du contexte social a un effet significatif sur les attitudes face au risque dans les trois domaines. Néanmoins, la corrélation des risques a un effet sur les attitudes face au risque seulement dans le domaine mixte. Les attitudes face à l’ambiguïté varient selon le domaine. De même, la corrélation des paiements diminuent l’aversion à l’ambiguïté. / The objective of this thesis is to present four essays in behavioral and experimental economics on decision-making under risk and ambiguity. The first essay presents a synthesis and a point of view on the representativeness of experimental results regarding individual preferences: social preferences and risk and time preferences, in developed countries as well as in developing countries. The second essay explores experimentally the effect of risk and ambiguity on job search behavior in an infinite horizon. The results show that in risk and ambiguity, reservation wages are lower than the theoretical values and decrease during the search process. Similarly, subjects behave as ambiguity neutral agents. The third and fourth essay examine the effect of the social context and the correlation of payments on attitudes towards risk and ambiguity respectively in gain, loss and mixed domain. The results show that the introduction of the social context has a significant effect on attitudes towards risk in all three domains. Nevertheless, the correlation of risks has an effect on risk attitudes only in the mixed domain. As for ambiguity, ambiguity attitudes vary across domains. The correlation of payments decreases ambiguity aversion.
12

La cohérence conceptuelle d’étudiants collégiaux en mécanique newtonienne et en métrologie

Périard, Martin 12 1900 (has links)
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée. / This thesis evaluates the coherence of the conceptual network demonstrated by college students in life and applied sciences. This evaluation was based on the analysis of Burt tables issuing from multiple choice questionnaires, on the creation and careful examination of a novel tool, the matrix of specific discrimination coefficients, which will be described in the main text, and on the qualitative analysis of actual laboratory work of students doing an experimentation. At the completion of this project, four research axis have been explored. 1) What is the conceptual coherence demonstrated in Newtonian mechanics? 2) Is the mastery of uncertainty quantification related to the development of logical thinking or to mathematical competency? 3) What is the conceptual coherence demonstrated in the quantification of experimental uncertainty? 4) What are the concrete procedures utilized by students to quantify experimental uncertainty in a semi-directed laboratory context? The main conclusions that emerged from each axis of research can be summerized as follow. 1) The most prevalent erroneous conceptions are not solidly set in a rigid conceptual network. For example, a student successful in a question about Newton’s third law (the most difficult subject of the Force Concept Inventory) is just slightly more likely to succeed in another related question than the other participants. Many pairs of questions displays a negative specific discrimination coefficient demonstrating a weak conceptual coherence in pre-test and a somewhat ameliorated conceptual coherence in post-test. 2) If a small proportion of students has demonstrated marked deficiencies in questions related with control of variable and in those related to the relationship between the graphical display of experimental data and a mathematical model, the majority of students can be considered as adequately mastering those subjects. However, almost every student demonstrated a lack of mastery of concepts underlying the quantification of experimental uncertainty and the propagation of uncertainty (heretofore referred to as metrology). No statistically significant correlation has been observed between the three main topics suggesting that they are largely independent cognitive abilities. Burt table has demonstrated a greater degree of conceptual coherence between control of variables questions than suggested by Pearson correlation coefficients. Equivalent question in the topic of metrology did not permit to demonstrate a clear conceptual coherence. 3) Analysis of a questionnaire entirely devoted to metrology has shown erroneous conceptions caused by prior learning (didactical obstacles), erroneous conceptions based on intuitive models and a lack of global comprehension of metrological concepts although some appear to be almost acquired. 4) When doing real experiments in semi-directed laboratory, students demonstrated the same difficulty identified in the questionnaire of 3) which could interpreted as corroborating previously obtaine results. However, many unanticipated behaviors related to measurement were observed that could not have been anticipated solely by analyzing answers in the multiple-choice questionnaire. Interviews immediately following each semi-directed laboratory permitted the participants to detail certain aspects of their metrological methodology. Most notably, the use of repeated measurement strategies, their « spontaneous » strategies to quantify uncertainty, and their explanation of numerical estimates of reading uncertainties. Overall, uncertainty propagation algorithms were adequately employed. Many erroneous metrological conceptions seem to resist strongly to be modified by learning. Among others, assignation of the resolution of a digital scale as the uncertainty value and the lack of stacking strategies to diminish uncertainty. The conception that a numerical value cannot be more precise than the tolerance of an instrument seems firmly set.
13

Violation de parité et contenu étrange du nucléon : expériences G0 et SAMPLE

Tieulent, Raphaël 17 May 2002 (has links) (PDF)
Le nucléon est décrit par QCD comme étant constitué de trois quarks de valence (de saveur up et down) et d'une mer constituée de gluons et de paires de quark – antiquark de toutes saveurs. Le quark étrange est le meilleur candidat pour l'étude de cette mer dont la contribution à la structure du nucléon est à l'heure actuelle mal connue. Il est en effet le plus léger des quarks n'ayant pas de contribution de valence. Expérimentalement, cette étude est effectuée dans trois secteurs différents reliés à la masse, aux distributions de charge et de courant du nucléon, et au spin du nucléon. Cette thèse présente les expériences G0 au laboratoire Thomas Jefferson (USA) et SAMPLE au laboratoire MIT-Bates qui mesure l'asymétrie de violation de parité en diffusion élastique d'électrons polarisés sur une cible de nucléons. De ces mesures, il est possible d'extraire la contribution étrange aux distributions de charge et de courant dans le nucléon ainsi que le facteur de forme axial du nucléon. Dans ce manuscrit, nous décrivons le formalisme relatif à la sonde électrofaible et donnons également un panorama des différentes prédictions théoriques. Nous avons étudié l'origine des changements systématiques des propriétés du faisceau d'électrons et développé des systèmes de correction permettant de réduire leurs effets au niveau de l'expérience. Nous détaillons le dispositif expérimental de l'expérience G0 ainsi que les études de bruit de fond et leurs implications sur la stratégie expérimentale. Nous présentons finalement le dispositif expérimental de l'expérience SAMPLE et l'analyse des données qui a permis de déterminer le facteur de forme axial du nucléon. Cette quantité est peu contrainte par les prédictions théoriques dû aux contributions des ordres supérieurs de diffusion difficilement calculables théoriquement. Ce facteur de forme intervenant dans la mesure d'asymétrie de violation de parité, sa détermination expérimentale est importante.
14

Colloïdes magnétiques: auto-organisation et applications biologiques

Goubault, Cécile 23 March 2004 (has links) (PDF)
Ce manuscrit pr´esente l'´etude de latex magn´etiques auto-organis´es. Dans un premier temps, l'obtention de filaments magn´etiques, compos´es d'assemblages lin´eaires et permanents de particules magn´etiques, est pr´esent´ee. Ces objets nouveaux introduisent une m´ethode originale pour sonder la flexibilit´e `a l'´echelle mol´eculaire. Sous champ, ils adoptent une configuration m´etastable : ils se plient en forme d'´epingle`a cheveux. A partir de la mesure macroscopique de leur rayon de courbure, corr´el´ee `a la mesure par diusion de la lumi`ere de la longueur du lien, la rigidit´e de flexion de ce dernier peut ˆetre d´eduite. La mod´elisation de ce ph´enom`ene est aussi d´ecrite. Enfin, l'organisation de ces filaments, dans des microcanaux, constitue une nouvelle matrice de s´eparation que l'on a cherch´e `a appliquer, ici, au tri cellulaire. L'obtention d'un r´eseau de pas contrˆol´e, l'accrochage des filaments `a la paroi, leur d´ecoration par des anticorps sp´ecifiques sont d´etaill´es. Enfin la possibilit´e de proc´eder `a une chromatographie des cellules est introduite. Ces nouveaux objets ouvrent un champ d'applications dans le domaine des laboratoires sur puce.
15

Evaluation des différentes approches pour l'estimation de l'incertitude des mesures analytiques

Marini Djang'Eing'A, Roland 19 April 2006 (has links)
=RESUME= Trois approches différentes ont été comparées pour lestimation de lincertitude de mesure, à savoir celles basées sur des études inter-laboratoire, sur la robustesse et sur la validation. Pour ce faire, deux techniques analytiques séparatives, la chromatographie liquide haute performance (CLHP) et lélectrophorèse capillaire (EC), ont été utilisées pour la détermination de lénantiomère R-timolol dans des échantillons de maléate de S-timolol. Loptimisation de la méthode de CLHP a été effectuée sur une phase chirale à base de cellulose modifiée selon une approche multivariée. En ce qui concerne lEC, une séparation chirale convenable a été obtenue en milieu non aqueux en utilisant de lheptakis(2,3-di-O-méthyl-6-O-sulfo)-β-cyclodextrine comme sélecteur chiral en combinaison avec le camphosulfonate. Les deux méthodes ont été validées pour lusage prédéfini en appliquant la stratégie du profil dexactitude, ce qui a permis également destimer lincertitude de mesure. Par la suite, un test de robustesse a été effectué pour les deux méthodes. Linfluence des paramètres opératoires a été évaluée en considérant non seulement les réponses qualitatives mais surtout les réponses quantitatives. Les résultats de ces dernières (teneurs en R-timolol) ont servi à lestimation de lincertitude de mesure, selon le guide ISO 5725-2. Ce même guide a été utilisé pour évaluer la reproductibilité des résultats obtenus lors des études inter-laboratoire menées avec les deux méthodes. Lincertitude estimée à partir de la reproductibilité, a été trouvée dépendante de la concentration, comme observé également lors des études de validation et de robustesse. Il apparaît que lincertitude obtenue en robustesse prédit très bien celle obtenue en inter-laboratoire et constitue donc une alternative intéressante à cette dernière. Par contre, lincertitude associée à la validation est quant à elle différente de celle des autres approches. Cependant, elle reste parfaitement valable pour autant que le protocole de validation soit en accord avec la routine et que la méthode ne quitte pas le laboratoire qui la validée. Lors de la comparaison des deux méthodes, lincertitude obtenue en CLHP a été trouvée plus faible que celle obtenue en EC. =SUMMARY= Three different approaches (inter-laboratory, robustness and validation) have been applied to the estimation of uncertainty and compared. For that purpose, two analytical separation techniques, namely high performance chromatography liquid (HPLC) and capillary electrophoresis (CE), have been used for the determination of R-timolol enantiomer in S-timolol maleate samples. The optimisation of the HPLC method was carried out on a chiral stationary phase containing modified cellulose, by applying a multivariate approach. Concerning the CE method, a suitable chiral separation was obtained in a nonaqueous medium using heptakis(2,3-di-O-méthyl-6-O-sulfo)-β-cyclodextrin as chiral selector in combination with camphorsulfonate. The two methods were validated for the intended use by applying the strategy of the accuracy profile, which could be used additionally to estimate the uncertainty of measurement. Then, a robustness test was performed for the two methods. The influence of the operating parameters was assessed considering not only the qualitative responses but mainly the quantitative ones (the R-timolol content). The latter were used to estimate the uncertainty of measurement according to the ISO 5725-2 guide. The same guide was applied to evaluate the reproducibility of results obtained in inter-laboratory studies carried out with the two methods. The uncertainty was found to be concentration dependent, as also observed in validation and in robustness studies. The uncertainty obtained by robustness studies predicts well that obtained in inter-laboratory studies and can be proposed as an alternative to the latter. On the other hand, the estimation of uncertainty obtained with the validation studies leads to lower values than those obtained with the two other approaches but is still acceptable as long as the analytical method is used in a single laboratory. When comparing the two analytical methods, the uncertainty obtained in LC was found to be lower than that obtained in CE.
16

Statistical methods for analysing serum protein electrophoretic data in External Quality Assessment (EQA) programmes

Zhang, Lixin 03 December 2010 (has links)
Les examens de laboratoire jouent un rôle essentiel dans la pratique médicale. Ils sont utilisés à des fins diagnostique, pronostique, thérapeutique ou encore pour dépister des maladies spécifiques dans des populations présumées en bonne santé (Tietz, 1986). Quotidiennement, les laboratoires de biologie clinique réalisent des millions de tests fournissant autant de données à interpréter. Les responsables des soins de santé ont toujours été préoccupés par la qualité globale du travail réalisé dans les laboratoires. En dépit de procédures de contrôle de qualité interne rigoureuses, les résultats obtenus pour un même échantillon dans deux laboratoires peuvent occasionnellement différer de façon notoire. Il serait inacceptable cependant quun résultat dun test biologique soit considéré comme « normal » dans un laboratoire et « anormal » dans lautre. Les programmes dEvaluation Externe de la Qualité (EEQ) ont précisément comme objectif de contrôler la performance analytique des laboratoires de biologie clinique à une grande échelle et généralement par le biais dun organisme externe. Le but de lEEQ est de sassurer que les résultats des tests soient compatibles quel que soit le laboratoire qui réalise les analyses, en dautres termes de garantir la comparabilité des laboratoires et par là-même dadministrer les meilleurs soins aux patients (Libeer, 1993). Les protocoles EEQ consistent à organiser des enquêtes dans lesquelles les laboratoires participants doivent réaliser des analyses sur un même échantillon contrôle comme sil sagissait danalyses de routine. Il faut ensuite renvoyer les résultats de ces analyses au centre EEQ avec des informations détaillées sur les techniques de dosage utilisées. Les résultats sont alors soumis à une analyse statistique. En réalité, lanalyse statistique poursuit trois objectifs : (1) obtenir une estimation robuste de la concentration du constituant (moyenne) dans léchantillon contrôle et de la variabilité entre les laboratoires (écart-type), une estimation robuste étant nécessaire car les résultats EEQ contiennent souvent des valeurs aberrantes qui peuvent sérieusement affecter la moyenne et de lécart-type ; (2) évaluer la qualité des laboratoires en mettant en évidence les résultats « hors-limites » et les laboratoires « peu performants » et ce, à court et à long termes ; (3) évaluer et comparer la précision analytique des techniques/équipements utilisés par les participants (Albert, 1997). Depuis plusieurs dizaines dannées, des programmes EEQ ont été mis en place dans de nombreux pays et ils contrôlent la plupart des analyses de biologie clinique classiques comme le glucose, le cholestérol ou le calcium, ou encore les enzymes et les hormones. Ce travail a débuté lorsque lélectrophorèse de protéines fut introduite dans le panel des analyses de laboratoire soumises à lEEQ. Contrairement aux autres tests contrôlés jusqualors, lélectrophorèse de protéines fournit non pas une valeur mais cinq fractions, respectivement, lalbumine, les globulines α1, α2, β et , dont la somme fait 100% et dont linterprétation doit se faire globalement. En dautres termes, les données électrophorétiques obtenues dans lEEQ doivent être analysées par des méthodes de la statistique multivariée (Zhang et al, 2008). Ceci nécessite ladaptation à lenvironnement EEQ de méthodes multivariées existantes (telles quon les trouve dans les ouvrages de référence) ou le développement dapproches nouvelles. Dans cette thèse, nous nous sommes fixé comme but dapporter une solution théorique et pratique au problème de lanalyse et de linterprétation des résultats délectrophorèses dans le domaine de lEvaluation Externe de la Qualité. Dans lintroduction de ce travail, un bref rappel est fait des protocoles EEQ et de leur mise en pratique notamment en ayant recours à lInternet. Les méthodes univariées de statistique robuste permettant destimer la moyenne et lécart-type des résultats EEQ sont décrites et la notion de valeur « hors-limites » est définie. Ceci permet dapprécier la qualité dun laboratoire par rapport à ses pairs sur base du résultat quil a fourni. Le concept de coefficient de variation (CV) est aussi présenté comme un moyen de mesurer et de comparer la reproductibilité analytique des techniques de laboratoire. Finalement, on rappelle quelques notions relatives aux électrophorèses de protéines, leur utilité clinique et les méthodes de dosage utilisées. Les bases de données EEQ qui servent à illustrer la méthodologie statistique développée dans ce travail sont décrites en détail. Elles proviennent principalement des enquêtes de lEvaluation Externe de la Qualité réalisées entre 2004 et 2008 en France et en Belgique. La première partie de cette thèse concerne le problème de lévaluation de la performance des laboratoires pour le dosage de lélectrophorèse de protéines. La façon la plus simple consiste à appliquer les méthodes univariées classiques à chaque fraction de lélectrophorèse. Cette façon de procéder cependant ignore que les fractions doivent être interprétées globalement car elles sont corrélées. De plus, elles sont linéairement dépendantes (car leur somme est égale à 100%), ce qui conduit à une matrice de variances-covariances singulière et donc non inversible. La première approche multivariée que nous proposons vise à retirer une des cinq fractions et ainsi éviter le problème de singularité, ensuite à obtenir une estimation robuste du vecteur moyen et de la matrice de variances-covariances par la technique du déterminant de covariance minimum (MCD) publiée par Rousseuw et Van Driessen (1999). On utilise alors la distance de Mahalanobis pour identifier les profils électrophorétiques « hors-limites » et détecter les laboratoires dont la qualité est insatisfaisante (Zhang et al. 2008). Appliquée aux bases de données EEQ, cette méthode simple savère ne pas être optimale car elle donne des corrélations peu fiables et décèle trop de laboratoires « hors-limites ». Cest la raison pour laquelle, une approche nouvelle est proposée dans laquelle une transformation log-ratio (Egozcue et al. 2003) est appliquée aux profils électrophorétiques avant de les analyser statistiquement. Cette méthode transforme les cinq fractions électrophorétiques en quatre variables indépendantes et sans dimension. La technique MCD est alors appliquée pour obtenir des estimations robustes du vecteur moyen et de la matrice de dispersion. Les estimations sont utilisées pour calculer la distance de Mahalanobis et mettre en lumière les laboratoires « hors-limites ». Appliquée aux bases de données EEQ, cette seconde approche est meilleure que la première, non seulement dun point de vue théorique mais aussi pratique, en détectant un nombre plus raisonnable de laboratoires peu performants. Des méthodes de représentations graphiques des profils électrophorétiques sont aussi proposées au moyen du "MCD z-score plot" ou du "star plot" obtenu à partir de lanalyse en composantes principales (ACP) robuste. La seconde partie de la thèse sattache à lévaluation et à la comparaison de la précision analytique des techniques de dosage délectrophorèses utilisées par les laboratoires participants à lEEQ. Ceci nous a conduit à rechercher des méthodes dextension du coefficient de variation (CV) classique au cas multivariée. Les coefficients de variation multivariés publiés dans la littérature sont passés en revue, en ce compris ceux de Reyment (1960) et de Van Valen (1974, 2005). Reyment fut le premier à proposer une définition du CV multivarié et à donner une formule permettant de calculer l'erreur type de l'estimation. Van Valen suggéra une définition plus générale car applicable en toute circonstances mais qui malheureusement ne tient pas compte explicitement des corrélations entre les variables. Par ailleurs, nous avons exploité une idée de Voinov et Nikulin (1996) pour développer un CV multivarié basée sur la distance de Mahalanobis et qui est invariant par rapport à léchelle utilisée. Nous lavons appliqué aux données de lEEQ franco-belge de 2004 et avons ainsi pu classer les techniques électrophorétiques par ordre décroissant de précision analytique (Zhang et al. 2010). Malheureusement, cette approche comme celle du CV de Reyment requiert une matrice de covariance non singulière et nest donc pas applicable pour des groupes deffectif faible (n < 5) de laboratoires utilisant la même technique. Nous avons dès lors proposé une définition originale et tout à fait générale du CV multivarié, notée CVm (Albert et Zhang, 2010). Cette nouvelle formulation jouit de propriétés intéressantes; elle est simple et facile à calculer, ne requiert aucune inversion de matrice (contrairement aux autres techniques) mais uniquement le calcul de formes quadratiques. On nimpose aucune restriction sur le nombre dobservations ni sur le nombre de variables du problème. Nous avons appliqué cette méthode CVm aux bases de données EEQ délectrophorèses et nous avons pu démontrer en pratique sa grande flexibilité. Elle nous a permis de classer toutes les techniques électrophorétiques même pour des groupes de participants de petite taille (n = 2) et de mettre en évidence les plus précises, comme celle de lélectrophorèse capillaire de zone (CZE) complètement automatisée. Nous avons aussi appliqué la nouvelle méthode à des données de cytométrie de flux récoltées dans le cadre dune enquête EEQ réalisée en Belgique en 2010 ainsi quà un échantillon de données de « microarray » publié dans la littérature (Golub et al. 1999), confirmant ainsi son applicabilité à des domaines variés. Enfin, nous présentons quelques développements théoriques personnels sur le CV de Reyment afin de corriger la définition initiale, entachée à notre sens dune erreur de dimension, son estimation ainsi que la formule de lerreur type. En résumé, la méthodologie statistique développée dans ce travail propose une solution complète à lanalyse des données électrophorétiques ou de tout autre profil de tests de laboratoire récoltés dans le cadre denquêtes de lEvaluation Externe de la Qualité.
17

La cohérence conceptuelle d’étudiants collégiaux en mécanique newtonienne et en métrologie

Périard, Martin 12 1900 (has links)
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée. / This thesis evaluates the coherence of the conceptual network demonstrated by college students in life and applied sciences. This evaluation was based on the analysis of Burt tables issuing from multiple choice questionnaires, on the creation and careful examination of a novel tool, the matrix of specific discrimination coefficients, which will be described in the main text, and on the qualitative analysis of actual laboratory work of students doing an experimentation. At the completion of this project, four research axis have been explored. 1) What is the conceptual coherence demonstrated in Newtonian mechanics? 2) Is the mastery of uncertainty quantification related to the development of logical thinking or to mathematical competency? 3) What is the conceptual coherence demonstrated in the quantification of experimental uncertainty? 4) What are the concrete procedures utilized by students to quantify experimental uncertainty in a semi-directed laboratory context? The main conclusions that emerged from each axis of research can be summerized as follow. 1) The most prevalent erroneous conceptions are not solidly set in a rigid conceptual network. For example, a student successful in a question about Newton’s third law (the most difficult subject of the Force Concept Inventory) is just slightly more likely to succeed in another related question than the other participants. Many pairs of questions displays a negative specific discrimination coefficient demonstrating a weak conceptual coherence in pre-test and a somewhat ameliorated conceptual coherence in post-test. 2) If a small proportion of students has demonstrated marked deficiencies in questions related with control of variable and in those related to the relationship between the graphical display of experimental data and a mathematical model, the majority of students can be considered as adequately mastering those subjects. However, almost every student demonstrated a lack of mastery of concepts underlying the quantification of experimental uncertainty and the propagation of uncertainty (heretofore referred to as metrology). No statistically significant correlation has been observed between the three main topics suggesting that they are largely independent cognitive abilities. Burt table has demonstrated a greater degree of conceptual coherence between control of variables questions than suggested by Pearson correlation coefficients. Equivalent question in the topic of metrology did not permit to demonstrate a clear conceptual coherence. 3) Analysis of a questionnaire entirely devoted to metrology has shown erroneous conceptions caused by prior learning (didactical obstacles), erroneous conceptions based on intuitive models and a lack of global comprehension of metrological concepts although some appear to be almost acquired. 4) When doing real experiments in semi-directed laboratory, students demonstrated the same difficulty identified in the questionnaire of 3) which could interpreted as corroborating previously obtaine results. However, many unanticipated behaviors related to measurement were observed that could not have been anticipated solely by analyzing answers in the multiple-choice questionnaire. Interviews immediately following each semi-directed laboratory permitted the participants to detail certain aspects of their metrological methodology. Most notably, the use of repeated measurement strategies, their « spontaneous » strategies to quantify uncertainty, and their explanation of numerical estimates of reading uncertainties. Overall, uncertainty propagation algorithms were adequately employed. Many erroneous metrological conceptions seem to resist strongly to be modified by learning. Among others, assignation of the resolution of a digital scale as the uncertainty value and the lack of stacking strategies to diminish uncertainty. The conception that a numerical value cannot be more precise than the tolerance of an instrument seems firmly set.
18

Microfluidique supercritique pour la compréhension des systèmes CO2 / eau sous pression et en température : Application à la gestion durable de la filière CO2

Liu, Na 22 November 2013 (has links) (PDF)
Le stockage géologique du CO2 est une stratégie prometteuse pour limiter la concentration de CO2anthropique dans l'atmosphère. Les aquifères salins (AS) ont été identifiés comme des optionsviables car ils possèdent de grandes capacités potentielles de stockage. Toutefois, les processusrelatifs au piégeage du CO2 souffrent d'un manque de connaissances fondamentales car il existe peude méthodes d'expérimentation rapides et reproductibles, travaillant dans les conditions du stockagegéologique. Ainsi, nous avons développé des microréacteurs haute pression, véritables laboratoiresgéologiques sur puce (GLoCs), recréant les conditions de porosité et de perméabilité des AS pour :(i) Mesurer la solubilité du CO2 dans l'eau et les saumures via un couplage microsystèmes /spectroscopie Raman ;(ii) Etudier les mécanismes d'invasion du CO2 dans les formations géologiques, incluantnotamment les écoulements diphasiques en milieux poreux, les séparations de phases etla précipitation des carbonates.
19

Microfluidique supercritique pour la compréhension des systèmes CO2 / eau sous pression et en température : Application à la gestion durable de la filière CO2 / Supercritical Microfluidics for understanding CO2 / water systems under pressure and temperature : Application to the sustainable management of the anthropogenic CO2

Liu, Na 22 November 2013 (has links)
Le stockage géologique du CO2 est une stratégie prometteuse pour limiter la concentration de CO2anthropique dans l’atmosphère. Les aquifères salins (AS) ont été identifiés comme des optionsviables car ils possèdent de grandes capacités potentielles de stockage. Toutefois, les processusrelatifs au piégeage du CO2 souffrent d’un manque de connaissances fondamentales car il existe peude méthodes d’expérimentation rapides et reproductibles, travaillant dans les conditions du stockagegéologique. Ainsi, nous avons développé des microréacteurs haute pression, véritables laboratoiresgéologiques sur puce (GLoCs), recréant les conditions de porosité et de perméabilité des AS pour :(i) Mesurer la solubilité du CO2 dans l’eau et les saumures via un couplage microsystèmes /spectroscopie Raman ;(ii) Etudier les mécanismes d’invasion du CO2 dans les formations géologiques, incluantnotamment les écoulements diphasiques en milieux poreux, les séparations de phases etla précipitation des carbonates. / CO2 geological storage is a promising strategy to control the anthropogenic CO2 concentration in theatmosphere. Deep saline aquifers (DSA) were identified as viable options since they exhibit largestorage capacity. However, processes inherent to CO2 trapping suffer from a lack of fundamentalknowledge, since there are too few fast and reproducible experimental approaches able to work atgeological storage conditions. Therefore, to address these limitations, we have developed highpressure microreactors, so-called “geological labs on a chip” - GloCs – allowing mimicking porosityand permeability conditions of DSA for:(i) Measuring solubility of CO2 in water and brine through the combination of microsystemsand confocal Raman spectroscopy,(ii) Studying invasion mechanisms of CO2 in geological formations, including in particularbiphasic flows in porous media, phase separation and carbonates precipitation.
20

Applications des laboratoires géologiques sur puce pour les problématiques du stockage du CO2 / Applications of geological labs onf chip for CO2 storage issues

Morais, Sandy 19 December 2016 (has links)
Le stockage géologique du CO2 dans les aquifères salins représente une stratégie prometteuse pour la réduction des émissions de CO2 anthropiques. Ce type de stockage requiert des connaissances fondamentales afin d'évaluer les scénarios d'injection, d'estimer la capacité des réservoirs et les risques de fuite. C'est dans ce contexte que des outils microfluidiques haute pression/haute température ont été développés afin d'étudier différents mécanismes liés aux technologies de stockage de CO2. Les laboratoires géologiques sur puce (GLoCs) permettent de mener des expériences à des conditions de pression et de température typiques des réservoirs (25 < T < 50°C, 50 < p < 10 MPa) et d'en mimer des propriétés géologiques.Ce manuscrit présente dans un premier temps les stratégies de fabrication des GLoCs et l'accès à leurs caractéristiques (porosité et perméabilité). La détection du CO2 directement au sein de GLoCs grâce à l'implémentation de fibres optiques par spectroscopie infrarouge est ensuite présentée, ainsi que la mise en œuvre de la technique de laminographie X menées à l'ESRF pour le suivi de dissolution de carbonates dans des microcanaux. Le manuscrit explicite ensuite les investigations, menées avec des GLoCs concernant les différents mécanismes de piégeage du CO2 à l'échelle du pore. La visualisation directe et le traitement d'image ont permis de suivre l'évolution des phases de CO2 et des phases aqueuses au sein du GLoC et les mécanismes de déplacement et de saturation. Enfin, les travaux en cours sont exposés, comme les expériences de drainage avec des saumures réactives ou la formation d'hydrates au sein de milieux poreux. / CO2 geological storage in deep saline aquifers represents a mediation solution for reducing the anthropogenic CO2 emissions. Consequently, this kind of storage requires adequate scientific knowledge to evaluate injection scenarios, estimate reservoir capacity and assess leakage risks. In this context, we have developed and used high pressure/high temperature microfluidic tools to investigate the different mechanisms associated with CO2 geological storage in deep saline aquifers. The silicon-Pyrex 2D porous networks (Geological Labs On Chips) can replicate the reservoir p,T conditions (25 < T < 50°C, 50 < p < 10 MPa), geological and topological properties. This thesis manuscript first highlights the strategies developed during this work to fabricate the GLoCs and to access to global characteristics of our porous media such as porosity and permeability, which are later compared to numerical modelling results. The carbon dioxide detection in GLoCs mimicking p,T conditions of geological reservoirs by using the direct integration of optical fiber for IR spectroscopy is presented. I then detail the strategies for following the dissolution of carbonates in GLoCs with X-rays laminography experiments.Then, the manuscript focuses on the use of GLoCs to investigate each CO2 trapping mechanism at the pore scale. The direct optical visualization and image processing allow us to follow the evolution of the injected CO2/aqueous phase within the reservoir, including displacement mechanisms and pore saturation levels.Eventually, I present the ongoing works such as experiments with reactive brines and hydrates formations in porous media.

Page generated in 0.0817 seconds