• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 2
  • Tagged with
  • 7
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Studying gravitational waves of compact binary systems using post-Newtonian theory / Études des ondes gravitationnelles des binaires compactes à l’approximation post-newtonienne

Marchand, Tanguy 15 June 2018 (has links)
La détection ainsi que l’analyse des ondes gravitationnelles émises par les systèmes binaires d’objets compacts reposent sur notre capacité à faire des prédictions précises au sein de la théorie de la relativité générale. Dans cette thèse, nous utilisons la théorie post-newtonienne (PN), et en particulier le formalisme connu sous le nom de Blanchet-Damour-Iyer, afin d’étudier de tels systèmes. La finalité des différents calculs réalisés au sein de cette thèse est d’obtenir la phase du signal gravitationnel à l’ordre 4,5PN, et les résultats que nous présentons nous rapprochent fortement de cet objectif. Tout d’abord, nous calculons les sillages d’ondes à l’ordre 3 dans le champ radiatif, ce qui nous permet d’obtenir le coefficient 4,5PN du flux d’énergie émis par des systèmes binaires compacts sans spin dans le cas d’orbites circulaires. Puis, nous calculons la dernière ambiguïté apparaissant dans les équations du mouvement de deux corps compacts sans spin à l’ordre 4PN, ce qui nous permet d’obtenir la première dérivation à partir de principes fondamentaux de ce résultat. Nous étudions alors en détail les différentes quantités conservées générées par cette dynamique. Enfin,nous présentons un premier résultat préliminaire du quadrupôle de masse source à l’ordre 4PN, ce qui constitue l’une des étapes cruciales dans l’obtention de la phase à l’ordre 4.5PN. / The detection and the analysis of gravitational waves emitted by compact binary systems rely on our ability to make accurate predictions within general relativity. In this thesis, we use the post-Newtonian (PN) formalism, and in particular the Blanchet-Damour-Iyer framework, to study the dynamics and the emission of gravitational waves of such systems. The different computations that we performed are motivated by our aim to obtain the phase of the gravitational wave signal at the 4.5PN order. In that regard, crucial steps have been achieved within this thesis. First of all, we compute the third-order tail effects in the radiation field, yielding the 4.5PN coefficient of the energy flux for binaries of non-spinning objects in circular orbits. Besides, we determine the remaining ambiguity of the 4PN Lagrangian of two spinless compact bodies. This result completes the first derivation from first principles of the 4PN equations of motion. Then we comprehensively study the conserved quantities of the 4PN dynamics. Finally, we provide a preliminary result of the 4PN source mass quadrupole, which constitutes one of the crucial steps towards the computation of the 4.5PN phase.
2

Étude d'états atomiques à proximité d'une surface massive - Application à l'expérience FORCA-G

Pelisson, Sophie 25 October 2012 (has links) (PDF)
Ce mémoire présente la modélisation théorique de l'expérience FORCA-G (FORce de CAsimir et Gravitation à courte distance) actuellement en cours de développement à l'Observatoire de Paris. L'objet de cette expérience est la mesure des interactions à courte portée entre un atome et une surface massive. Les interactions recherchées sont du type électrodynamique quantique (effet Casimir-Polder) et gravitationnelle. Le travail présenté ici a consisté à calculer les états des atomes dans le contexte de l'expérience afin de prévoir les signaux et les performances de l'expérience. Ceci a permis l'optimisation du schéma expérimental pour la mesure à la fois de l'effet Casimir-Polder à une précision non encore atteinte ainsi que pour la recherche de déviations à la loi de Newton prédites par les théories d'unification.
3

Régionalisation du climat avec le modèle LMDZ : étude méthodologique / Climate regionalization with the LMDZ model : methodological study

Li, Shan 29 November 2017 (has links)
Ce manuscrit de thèse rapporte quelques études méthodologiques sur la régionalisation du climat par l’approche dynamique. Le domaine géographique couvre une large zone allant du milieu de l’Atlantique Nord à l’Europe de l’Est, et du Sahel à l’Arctique. La quête à tout prix d’une amélioration du climat régional n’est pas au cœur du manuscrit. Pourtant, l’accent est mis sur trois points clefs, généralement rencontrés par toutes tentatives de régionalisation du climat. Le premier point concerne le schéma d’imbrication : imbrication du sens unidirectionnel du GCM vers le RCM (one-way nesting, OWN) ou bidirectionnelle entre le GCM et le RCM (two-way nesting, TWN). Le deuxième point examine la réalisation technique d’imbrication, qui est généralement une opération de relaxation newtonienne ajoutée aux équations pronostiques du modèle. Le troisième point est sur l’effet du raffinement de maille dans le RCM. L’esprit général du manuscrit consiste à conceptualiser et réaliser des simulations numériques pour traiter ces trois points avec astuces afin de les isoler et quantifier. Le modèle de circulation générale LMDZ est utilisé pour l’ensemble des expériences. Il joue à la fois le rôle du GCM et celui du RCM. Dans les deux cas, il conserve strictement ses paramétrisations physique et sa configuration dynamique, ainsi que tous les forçages ou paramètres externes. La stratégie d’expérimentation, qualifiée comme Master versus Slave, consiste à réaliser des simulations sous deux protocoles reliés l’un et l’autre : « DS-300-to-300 » désigne Downscaling du GCM à 300 km de résolution horizontale au RCM qui est identique au GCM, aussi à 300 km de résolution spatiale ; « DS-300-to-100 » désigne Downscaling de 300 km (GCM) à 100 km (RCM). Il est clair que « DS-300-to-300 » est un cadre idéalisé, particulièrement approprié pour évaluer l’effet de l’opération de relaxation. Le protocole « DS-300-to-100 », soustrait du « DS-300-to-300 », permet d’évaluer très précisément l’effet de la résolution du RCM augmentée. Dans chaque protocole, deux schémas de communication entre le RCM et le GCM ont été implémentés, l’un (OWN) est la méthodologie classique du sens unique qui consiste à piloter le RCM par les sorties du GCM, l’autre (TWN) est d’établir un échange mutuel entre les deux modèles. Le climat régional est sensible au choix des schémas de communication entre le RCM et le GCM, surtout aux moyennes latitudes. TWN apporte une nette amélioration sur la représentation des informations frontalières. Au niveau des modes régionaux de circulation atmosphérique, exprimés en structures d’EOF, OWN et TWN sont tous deux capables de les reproduire, mais avec de légères déformations dans l’espace. La relaxation newtonienne, largement utilisée dans la régionalisation du climat, permet au RCM de bien suivre la trajectoire synoptique du GCM. Pourtant, la concomitance temporelle et la ressemblance spatiale sont dépendantes des variables considérées, des saisons, des régimes de temps, et des échelles spatio-temporelles de circulations atmosphériques. Des cas de dé-corrélation sont remarquables quand la circulation dominante de la région est de petites échelles. Le raffinement de maille augmente la liberté du RCM à développer sa dynamique interne, surtout aux petites échelles, mais aussi à l’ensemble du spectre de la circulation à travers l’interaction des échelles. Ainsi le RCM devient plus indépendant et s’écarte davantage du GCM. Cette thèse, autour des aspects méthodologiques de la régionalisation du climat, aide à avoir une meilleure compréhension sur la pratique. Elle adresse aussi un message de précaution à la communauté RCM et l’invite à bien vérifier leur méthodologie de régionalisation. / The work developed in this thesis explores through methodological modelling studies the current techniques of climate regionalization. In this case, the regionalization focuses on a geographical domain covering from the North Atlantic to Eastern Europe longitudinal wise, and from the Sahel to the Arctic as a latitudinal interval. The aim of this thesis is not the improvement of regional climate modelling per se, but tackling three key questions that are commonly met by all attempts when trying to improve climate regionalization. Firstly, the choice and advantages of the nesting scheme: one-way nesting (OWN) versus two-way nesting (TWN). Secondly, the evaluation of the nesting method, which is generally a Newtonian relaxation operation added to the prognostic equations of the model. And finally, the consequences of the mesh refinement in Regional Circulation Models (RCM). The objective of this manuscript consists in conceptualizing and carrying out numerical simulations to answer these three questions by isolating each individual effect and quantifying the consequences of each of the effects. The general circulation model LMDZ is used for all experiments. It is able to play the role of the General Circulation Model (GCM) and the RCM, keeping the same physical parameterizations and the same dynamical configuration, as well as the same external forcings and model parameters. Our experimental set-up, referred as “Master versus Slave”, consists on two related protocols: “DS-300-to-300” and “DS-300-to-100”. The former implies the downscaling of the GCM at 300 km of horizontal resolution while the RCM has the identical resolution of 300 km. The latter implies the downscaling from 300 km (GCM) to 100 km (RCM). We have assumed the “DS-300-to-300” as an idealized framework, particularly appropriate to evaluate the relaxation operation effect. In parallel, the “DS-300-to-100” protocol, subtracted from the “DS-300-to-300”, allows assessing the effect of the increased resolution for the RCM. In each protocol, two communication schemes between the RCM and the GCM have been implemented. The first one -OWN- is the classic one-way methodology to control the RCM by the outputs of the GCM. The second one -TWN- is used to establish a mutual exchange between the two models (RCM and GCM). This thesis has found that climate regionalization is highly sensitive to the choice of the communication scheme between the RCM and the GCM, especially at mid-latitudes. TWN clearly improves the representation at the boundaries. For the regional atmospheric circulation modes, expressed in EOF structures, both OWN and TWN are able to reproduce them, but with a slight deformation in space. Newtonian relaxation, widely used in climate regionalization, allows the RCM to follow the GCM’s synoptic trajectory. However, temporal concomitance and spatial resemblance of the two depend on the variables considered, on the particular seasons selected, on the weather regimes, and on the spatiotemporal scales of atmospheric circulation. De-correlation cases are remarkable when the dominant circulation on a regional scale is small. Moreover, mesh refinement increases the freedom of the RCM to develop its internal dynamic circulation, especially at small scales, and also across the whole spectrum of circulation regimes through the scales in which the RCM operates. Thus, when resolution increases, the RCM becomes more independent from the GCM behavior and the model results deviate significantly from the GCM. Focused on the methodological aspects of climate regionalization, this thesis helps to gain a better understanding on the regionalization practice. Il also sends a precautionary message to the RCM community, kindly inviting to verify their regionalization strategy.
4

La cohérence conceptuelle d’étudiants collégiaux en mécanique newtonienne et en métrologie

Périard, Martin 12 1900 (has links)
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée. / This thesis evaluates the coherence of the conceptual network demonstrated by college students in life and applied sciences. This evaluation was based on the analysis of Burt tables issuing from multiple choice questionnaires, on the creation and careful examination of a novel tool, the matrix of specific discrimination coefficients, which will be described in the main text, and on the qualitative analysis of actual laboratory work of students doing an experimentation. At the completion of this project, four research axis have been explored. 1) What is the conceptual coherence demonstrated in Newtonian mechanics? 2) Is the mastery of uncertainty quantification related to the development of logical thinking or to mathematical competency? 3) What is the conceptual coherence demonstrated in the quantification of experimental uncertainty? 4) What are the concrete procedures utilized by students to quantify experimental uncertainty in a semi-directed laboratory context? The main conclusions that emerged from each axis of research can be summerized as follow. 1) The most prevalent erroneous conceptions are not solidly set in a rigid conceptual network. For example, a student successful in a question about Newton’s third law (the most difficult subject of the Force Concept Inventory) is just slightly more likely to succeed in another related question than the other participants. Many pairs of questions displays a negative specific discrimination coefficient demonstrating a weak conceptual coherence in pre-test and a somewhat ameliorated conceptual coherence in post-test. 2) If a small proportion of students has demonstrated marked deficiencies in questions related with control of variable and in those related to the relationship between the graphical display of experimental data and a mathematical model, the majority of students can be considered as adequately mastering those subjects. However, almost every student demonstrated a lack of mastery of concepts underlying the quantification of experimental uncertainty and the propagation of uncertainty (heretofore referred to as metrology). No statistically significant correlation has been observed between the three main topics suggesting that they are largely independent cognitive abilities. Burt table has demonstrated a greater degree of conceptual coherence between control of variables questions than suggested by Pearson correlation coefficients. Equivalent question in the topic of metrology did not permit to demonstrate a clear conceptual coherence. 3) Analysis of a questionnaire entirely devoted to metrology has shown erroneous conceptions caused by prior learning (didactical obstacles), erroneous conceptions based on intuitive models and a lack of global comprehension of metrological concepts although some appear to be almost acquired. 4) When doing real experiments in semi-directed laboratory, students demonstrated the same difficulty identified in the questionnaire of 3) which could interpreted as corroborating previously obtaine results. However, many unanticipated behaviors related to measurement were observed that could not have been anticipated solely by analyzing answers in the multiple-choice questionnaire. Interviews immediately following each semi-directed laboratory permitted the participants to detail certain aspects of their metrological methodology. Most notably, the use of repeated measurement strategies, their « spontaneous » strategies to quantify uncertainty, and their explanation of numerical estimates of reading uncertainties. Overall, uncertainty propagation algorithms were adequately employed. Many erroneous metrological conceptions seem to resist strongly to be modified by learning. Among others, assignation of the resolution of a digital scale as the uncertainty value and the lack of stacking strategies to diminish uncertainty. The conception that a numerical value cannot be more precise than the tolerance of an instrument seems firmly set.
5

Contributions à l'étude de l'équation de Schrödinger : problème inverse en domaine borné et contrôle optimal bilinéaire d'une équation de Hartree-Fock

Baudouin, Lucie 09 November 2004 (has links) (PDF)
L'objet de cette thèse est l'étude de quelques propriétés de l'équation d'évolution de Schrödinger. Dans un premier temps, on s'intéresse à un problème inverse concernant cette équation posée en domaine borné, avec potentiel, lequel dépend uniquement de la variable d'espace, et donnée de Dirichlet sur le bord. On démontre, à l'aide d'une inégalité de Carleman, que le problème inverse de la détermination du potentiel à partir de la mesure du flux de la solution à travers une partie du bord est un problème bien posé. Dans un deuxième temps, il est question de l'équation de Schrödinger considérée dans $\mathbb R^3$ avec un potentiel coulombien, localement singulier, et un potentiel électrique non borné, tous deux dépendant des variables d'espace et de temps. On montre successivement l'existence d'une unique solution régulière pour l'équation linéaire et pour l'équation avec non-linéarité de Hartree. Ce sont des étapes préliminaires à l'étude d'un système couplant à travers le potentiel coulombien, cette équation de Hartree-Fock et une équation issue de la dynamique newtonienne. Les résultats obtenus ici sont indispensables à l'étude finale des problèmes de contrôle optimal bilinéaire posés à partir de ces différentes équation, le contrôle de la solution étant effectué par le potentiel électrique. On démontre l'existence d'un contrôle optimal et on donne la condition d'optimalité correspondante dans les cas appropriés\vspace(0,5cm)
6

La cohérence conceptuelle d’étudiants collégiaux en mécanique newtonienne et en métrologie

Périard, Martin 12 1900 (has links)
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée. / This thesis evaluates the coherence of the conceptual network demonstrated by college students in life and applied sciences. This evaluation was based on the analysis of Burt tables issuing from multiple choice questionnaires, on the creation and careful examination of a novel tool, the matrix of specific discrimination coefficients, which will be described in the main text, and on the qualitative analysis of actual laboratory work of students doing an experimentation. At the completion of this project, four research axis have been explored. 1) What is the conceptual coherence demonstrated in Newtonian mechanics? 2) Is the mastery of uncertainty quantification related to the development of logical thinking or to mathematical competency? 3) What is the conceptual coherence demonstrated in the quantification of experimental uncertainty? 4) What are the concrete procedures utilized by students to quantify experimental uncertainty in a semi-directed laboratory context? The main conclusions that emerged from each axis of research can be summerized as follow. 1) The most prevalent erroneous conceptions are not solidly set in a rigid conceptual network. For example, a student successful in a question about Newton’s third law (the most difficult subject of the Force Concept Inventory) is just slightly more likely to succeed in another related question than the other participants. Many pairs of questions displays a negative specific discrimination coefficient demonstrating a weak conceptual coherence in pre-test and a somewhat ameliorated conceptual coherence in post-test. 2) If a small proportion of students has demonstrated marked deficiencies in questions related with control of variable and in those related to the relationship between the graphical display of experimental data and a mathematical model, the majority of students can be considered as adequately mastering those subjects. However, almost every student demonstrated a lack of mastery of concepts underlying the quantification of experimental uncertainty and the propagation of uncertainty (heretofore referred to as metrology). No statistically significant correlation has been observed between the three main topics suggesting that they are largely independent cognitive abilities. Burt table has demonstrated a greater degree of conceptual coherence between control of variables questions than suggested by Pearson correlation coefficients. Equivalent question in the topic of metrology did not permit to demonstrate a clear conceptual coherence. 3) Analysis of a questionnaire entirely devoted to metrology has shown erroneous conceptions caused by prior learning (didactical obstacles), erroneous conceptions based on intuitive models and a lack of global comprehension of metrological concepts although some appear to be almost acquired. 4) When doing real experiments in semi-directed laboratory, students demonstrated the same difficulty identified in the questionnaire of 3) which could interpreted as corroborating previously obtaine results. However, many unanticipated behaviors related to measurement were observed that could not have been anticipated solely by analyzing answers in the multiple-choice questionnaire. Interviews immediately following each semi-directed laboratory permitted the participants to detail certain aspects of their metrological methodology. Most notably, the use of repeated measurement strategies, their « spontaneous » strategies to quantify uncertainty, and their explanation of numerical estimates of reading uncertainties. Overall, uncertainty propagation algorithms were adequately employed. Many erroneous metrological conceptions seem to resist strongly to be modified by learning. Among others, assignation of the resolution of a digital scale as the uncertainty value and the lack of stacking strategies to diminish uncertainty. The conception that a numerical value cannot be more precise than the tolerance of an instrument seems firmly set.
7

Simulation à l’échelle microscopique et analyse macroscopique de l’imprégnation d’un matériau composite par un fluide chargé en particules / Microscopic simulation and macroscopic analysis of impregnation process of composite material by a concentrated suspension

Dugois, Kévin 13 February 2017 (has links)
Dans le but d’améliorer le comportement thermo-mécanique des aubes de turbine présentes dans les moteurs d’avion développés par SAFRAN, il est nécessaire de mettre au point un nouveau matériau composite. Le procédé de fabrication de ce matériau est complexe et requiert une densification par voie liquide divisée en deux étapes. Cette thèse s’intéresse à la modélisation numérique de la première étape appelée Slurry Cast/APS.Celle-ci consiste en l’injection et le confinement, dans la préforme fibreuse, de particules préalablement mises en suspension. Pour cela, nous avons développé à l’échelle des fibres,un modèle qui utilise les équations de Navier-Stokes incompressibles et monophasiques ,l’équation de Phillips [Phillips et al., 1992] et une loi rhéologique [Krieger, 1972]. Après validation des résultats numériques par comparaison avec des résultats expérimentaux [Hampton et al., 1997] et théoriques [Belfort et al., 1994], le modèle est utilisé pour simuler l’écoulement autour de géométries de tissage proches du matériau étudié. / In order to improve thermo-mechanical behavior of tubine blades in SAFRAN engines plane, a new composite material is necessary. The manufacturing process to obtain this composite is intricate and requires a two steps fluid densification process. This thesis focuses on numerical simulation of the first one called Slurry Cats/APS. In this step, suspended particles are introducted and captured in the reinforcement. For that purpose,we carry out a model at fiber scale, using Navier-Stokes equations in incompressible and monophasic formulation, Phillips equations [Phillips et al., 1992] and a rheological law [Krieger, 1972]. After validation step consisting in a comparison of computational results with experiments [Hampton et al., 1997] and theorical law [Belfort et al., 1994], this model has been used to simulate flow around geometries similar to those encountered in our composite material.

Page generated in 0.0597 seconds