• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 6
  • 2
  • Tagged with
  • 14
  • 14
  • 7
  • 7
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Développement et étude d'un viscosimètre absolu à chute de bille

Brizard, Matthieu 20 May 2005 (has links) (PDF)
L'augmentation de l'incertitude tout au long de l'échelle de viscosité étant le principal inconvénient de la viscosimétrie capillaire, un viscosimètre absolu à chute de bille a été développé, qui permet de couvrir une large gamme de viscosité tout en gardant une faible incertitude. La mesure de viscosité repose alors sur la mesure de la vitesse limite de chute de la bille. Un banc expérimental a été développé afin d'atteindre une incertitude relative de l'ordre de 10-3. Il permet d'observer la trajectoire de la bille à l'intérieur d'un tube cylindrique rempli du liquide étudié et d'obtenir l'évolution de la vitesse. La caractérisation métrologique de ce banc expérimental est présentée en utilisant tout d'abord la loi de propagation des incertitudes et ensuite la simulation numérique de Monte-Carlo. Enfin, les mesures de viscosité et les incertitudes obtenues avec le viscosimètre à chute de bille sont confrontées à celles obtenues avec un viscosimètre capillaire.
2

Random fields and associated statistical inverse problems for uncertainty quantification : application to railway track geometries for high-speed trains dynamical responses and risk assessment

Perrin, Guillaume 24 September 2013 (has links) (PDF)
Les nouvelles attentes vis-à-vis des nouveaux trains à grande vitesse sont nombreuses: on les voudrait plus rapides, plus confortables, plus stables, tout en étant moins consommateur d'énergie, moins agressif vis-à-vis des voies, moins bruyants... Afin d'optimiser la conception de ces trains du futur, il est alors nécessaire de pouvoir se baser sur une connaissance précise de l'ensemble des conditions de circulations qu'ils sont susceptibles de rencontrer au cours de leur cycle de vie. Afin de relever ces défis, la simulation a un très grand rôle à jouer. Pour que la simulation puisse être utilisée dans des perspectives de conception, de certification et d'optimisation de la maintenance, elle doit alors être tout à fait représentative de l'ensemble des comportements physiques mis en jeu. Le modèle du train, du contact entre les roues et le rail, doivent ainsi être validés avec attention, et les simulations doivent être lancées sur des ensembles d'excitations qui sont réalistes et représentatifs de ces défauts de géométrie. En ce qui concerne la dynamique, la géométrie de la voie, et plus particulièrement les défauts de géométrie, représentent une des principales sources d'excitation du train, qui est un système mécanique fortement non linéaire. A partir de mesures de la géométrie d'un réseau ferroviaire, un paramétrage complet de la géométrie de la voie et de sa variabilité semblent alors nécessaires, afin d'analyser au mieux le lien entre la réponse dynamique du train et les propriétés physiques et statistiques de la géométrie de la voie. Dans ce contexte, une approche pertinente pour modéliser cette géométrie de la voie, est de la considérer comme un champ aléatoire multivarié, dont les propriétés sont a priori inconnues. En raison des interactions spécifiques entre le train et la voie, il s'avère que ce champ aléatoire n'est ni Gaussien ni stationnaire. Ce travail de thèse s'est alors particulièrement concentré sur le développement de méthodes numériques permettant l'identification en inverse, à partir de mesures expérimentales, de champs aléatoires non Gaussiens et non stationnaires. Le comportement du train étant très non linéaire, ainsi que très sensible vis-à-vis de la géométrie de la voie, la caractérisation du champ aléatoire correspondant aux défauts de géométrie doit être extrêmement fine, tant du point de vue fréquentiel que statistique. La dimension des espaces statistiques considérés est alors très importante. De ce fait, une attention toute particulière a été portée dans ces travaux aux méthodes de réduction statistique, ainsi qu'aux méthodes pouvant être généralisées à la très grande dimension. Une fois la variabilité de la géométrie de la voie caractérisée à partir de données expérimentales, elle doit ensuite être propagée au sein du modèle numérique ferroviaire. A cette fin, les propriétés mécaniques d'un modèle numérique de train à grande vitesse ont été identifiées à partir de mesures expérimentales. La réponse dynamique stochastique de ce train, soumis à un très grand nombre de conditions de circulation réalistes et représentatives générées à partir du modèle stochastique de la voie ferrée, a été ainsi évaluée. Enfin, afin d'illustrer les possibilités apportées par un tel couplage entre la variabilité de la géométrie de la voie et la réponse dynamique du train, ce travail de thèse aborde trois applications
3

La cohérence conceptuelle d’étudiants collégiaux en mécanique newtonienne et en métrologie

Périard, Martin 12 1900 (has links)
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée. / This thesis evaluates the coherence of the conceptual network demonstrated by college students in life and applied sciences. This evaluation was based on the analysis of Burt tables issuing from multiple choice questionnaires, on the creation and careful examination of a novel tool, the matrix of specific discrimination coefficients, which will be described in the main text, and on the qualitative analysis of actual laboratory work of students doing an experimentation. At the completion of this project, four research axis have been explored. 1) What is the conceptual coherence demonstrated in Newtonian mechanics? 2) Is the mastery of uncertainty quantification related to the development of logical thinking or to mathematical competency? 3) What is the conceptual coherence demonstrated in the quantification of experimental uncertainty? 4) What are the concrete procedures utilized by students to quantify experimental uncertainty in a semi-directed laboratory context? The main conclusions that emerged from each axis of research can be summerized as follow. 1) The most prevalent erroneous conceptions are not solidly set in a rigid conceptual network. For example, a student successful in a question about Newton’s third law (the most difficult subject of the Force Concept Inventory) is just slightly more likely to succeed in another related question than the other participants. Many pairs of questions displays a negative specific discrimination coefficient demonstrating a weak conceptual coherence in pre-test and a somewhat ameliorated conceptual coherence in post-test. 2) If a small proportion of students has demonstrated marked deficiencies in questions related with control of variable and in those related to the relationship between the graphical display of experimental data and a mathematical model, the majority of students can be considered as adequately mastering those subjects. However, almost every student demonstrated a lack of mastery of concepts underlying the quantification of experimental uncertainty and the propagation of uncertainty (heretofore referred to as metrology). No statistically significant correlation has been observed between the three main topics suggesting that they are largely independent cognitive abilities. Burt table has demonstrated a greater degree of conceptual coherence between control of variables questions than suggested by Pearson correlation coefficients. Equivalent question in the topic of metrology did not permit to demonstrate a clear conceptual coherence. 3) Analysis of a questionnaire entirely devoted to metrology has shown erroneous conceptions caused by prior learning (didactical obstacles), erroneous conceptions based on intuitive models and a lack of global comprehension of metrological concepts although some appear to be almost acquired. 4) When doing real experiments in semi-directed laboratory, students demonstrated the same difficulty identified in the questionnaire of 3) which could interpreted as corroborating previously obtaine results. However, many unanticipated behaviors related to measurement were observed that could not have been anticipated solely by analyzing answers in the multiple-choice questionnaire. Interviews immediately following each semi-directed laboratory permitted the participants to detail certain aspects of their metrological methodology. Most notably, the use of repeated measurement strategies, their « spontaneous » strategies to quantify uncertainty, and their explanation of numerical estimates of reading uncertainties. Overall, uncertainty propagation algorithms were adequately employed. Many erroneous metrological conceptions seem to resist strongly to be modified by learning. Among others, assignation of the resolution of a digital scale as the uncertainty value and the lack of stacking strategies to diminish uncertainty. The conception that a numerical value cannot be more precise than the tolerance of an instrument seems firmly set.
4

Instrumentation optimale pour le suivi des performances énergétiques d’un procédé industriel / Optimal sensor network design to monitor the energy performances of a process plant

Rameh, Hala 07 November 2018 (has links)
L’efficacité énergétique devient un domaine de recherche incontournable dans la communauté scientifique vu son importance dans la lutte contre les crises énergétiques actuelles et futures. L'analyse des performances énergétiques, pour les procédés industriels, nécessite la connaissance des grandeurs physiques impliquées dans les équilibres de masse et d'énergie. D’où la problématique : comment choisir les points de mesure sur un site industriel de façon à trouver les valeurs de tous les indicateurs énergétiques sans avoir des redondances de mesure (respect des contraintes économiques), et en conservant un niveau de précision des résultats ? La première partie présente la formulation du problème d’instrumentation ayant pour but de garantir une observabilité minimale du système en faveur des variables clés. Ce problème est combinatoire. Une méthode de validation des différentes combinaisons de capteurs a été introduite. Elle est basée sur l’interprétation structurelle de la matrice représentant le procédé. Le verrou de long temps de calcul lors du traitement des procédés de moyenne et grande taille a été levé. Des méthodes séquentielles ont été développées pour trouver un ensemble de schémas de capteurs pouvant être employés, en moins de 1% du temps de calcul initialement requis. La deuxième partie traite le choix du schéma d’instrumentation optimal. Le verrou de propagation des incertitudes dans un problème de taille variable a été levé. Une modélisation du procédé basée sur des paramètres binaires a été proposée pour automatiser les calculs, et évaluer les incertitudes des schémas trouvés. Enfin la méthodologie complète a été appliquée sur un cas industriel et les résultats ont été présentés. / Energy efficiency is becoming an essential research area in the scientific community given its importance in the fight against current and future energy crises. The analysis of the energy performances of the industrial processes requires the determination of the quantities involved in the mass and energy balances. Hence: how to choose the placement of the measurement points in an industrial site to find the values of all the energy indicators, without engendering an excess of unnecessary information due to redundancies (reducing measurements costs) and while respecting an accepted level of accuracy of the results ? The first part presents the formulation of the instrumentation problem which aims to guaranteeing a minimal observability of the system in favor of the key variables. This problem is combinatory. A method of validation of the different sensors combinations has been introduced. It is based on the structural interpretation of the matrix representing the process. The issue of long computing times while addressing medium and large processes was tackled. Sequential methods were developed to find a set of different sensor networks to be used satisfying the observability requirements, in less than 1% of the initial required computation time. The second part deals with the choice of the optimal instrumentation scheme. The difficulty of uncertainty propagation in a problem of variable size was addressed. To automate the evaluation of the uncertainty for all the found sensor networks, the proposed method suggested modeling the process based on binary parameters. Finally, the complete methodology is applied to an industrial case and the results were presented.
5

La cohérence conceptuelle d’étudiants collégiaux en mécanique newtonienne et en métrologie

Périard, Martin 12 1900 (has links)
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée. / This thesis evaluates the coherence of the conceptual network demonstrated by college students in life and applied sciences. This evaluation was based on the analysis of Burt tables issuing from multiple choice questionnaires, on the creation and careful examination of a novel tool, the matrix of specific discrimination coefficients, which will be described in the main text, and on the qualitative analysis of actual laboratory work of students doing an experimentation. At the completion of this project, four research axis have been explored. 1) What is the conceptual coherence demonstrated in Newtonian mechanics? 2) Is the mastery of uncertainty quantification related to the development of logical thinking or to mathematical competency? 3) What is the conceptual coherence demonstrated in the quantification of experimental uncertainty? 4) What are the concrete procedures utilized by students to quantify experimental uncertainty in a semi-directed laboratory context? The main conclusions that emerged from each axis of research can be summerized as follow. 1) The most prevalent erroneous conceptions are not solidly set in a rigid conceptual network. For example, a student successful in a question about Newton’s third law (the most difficult subject of the Force Concept Inventory) is just slightly more likely to succeed in another related question than the other participants. Many pairs of questions displays a negative specific discrimination coefficient demonstrating a weak conceptual coherence in pre-test and a somewhat ameliorated conceptual coherence in post-test. 2) If a small proportion of students has demonstrated marked deficiencies in questions related with control of variable and in those related to the relationship between the graphical display of experimental data and a mathematical model, the majority of students can be considered as adequately mastering those subjects. However, almost every student demonstrated a lack of mastery of concepts underlying the quantification of experimental uncertainty and the propagation of uncertainty (heretofore referred to as metrology). No statistically significant correlation has been observed between the three main topics suggesting that they are largely independent cognitive abilities. Burt table has demonstrated a greater degree of conceptual coherence between control of variables questions than suggested by Pearson correlation coefficients. Equivalent question in the topic of metrology did not permit to demonstrate a clear conceptual coherence. 3) Analysis of a questionnaire entirely devoted to metrology has shown erroneous conceptions caused by prior learning (didactical obstacles), erroneous conceptions based on intuitive models and a lack of global comprehension of metrological concepts although some appear to be almost acquired. 4) When doing real experiments in semi-directed laboratory, students demonstrated the same difficulty identified in the questionnaire of 3) which could interpreted as corroborating previously obtaine results. However, many unanticipated behaviors related to measurement were observed that could not have been anticipated solely by analyzing answers in the multiple-choice questionnaire. Interviews immediately following each semi-directed laboratory permitted the participants to detail certain aspects of their metrological methodology. Most notably, the use of repeated measurement strategies, their « spontaneous » strategies to quantify uncertainty, and their explanation of numerical estimates of reading uncertainties. Overall, uncertainty propagation algorithms were adequately employed. Many erroneous metrological conceptions seem to resist strongly to be modified by learning. Among others, assignation of the resolution of a digital scale as the uncertainty value and the lack of stacking strategies to diminish uncertainty. The conception that a numerical value cannot be more precise than the tolerance of an instrument seems firmly set.
6

Approche probabiliste de la propagation des incertitudes dans le modèle mécano-numérique du système couplé "fémur-prothèse non cimentée"

Hu, Xiaosu, Hu, Xiaosu 15 November 2010 (has links) (PDF)
L' arthroplastie de la hanche par prothèse non cimentée est une solution couramment employée pour les patients rencontrant des problèmes du système locomoteur. Une telle solution présente toutefois un inconvénient majeur, souligné par tous les utilisateurs : le manque de stabilité primaire de la prothèse. Or, cette faiblesse peut provoquer des complications graves, voire l'échec de l'opération chirurgicale. Par conséquent, parvenir à une bonne fixation primaire est un point crucial de ce type d'opération chirurgicale pour assurer cliniquement une satisfaction à court et long terme.Dans le but de mieux appréhender cette problématique centrale, une piste préopératoire a été adoptée. Un modèle éléments finis permettant de décrire le comportement mécanique du système couplé " os-prothèse non cimentée : DePuy Corail® " a été développé et validé par des expérimentations in vitro. Puis, pour tenir compte de la forte variabilité des paramètres du modèle, inhérente à la nature même du problème, une modélisation stochastique de ces derniers a été introduite et une stratégie mécano-probabiliste proposée, destinée d'une part à quantifier en termes probabilistes l'effet sur la réponse des incertitudes affectant les paramètres du modèle, et d'autre part à évaluer la stabilité primaire du système os-prothèse en contexte fiabiliste. La mise en oeuvre pratique de cette approche a été réalisée à l'aide d'outils numériques basés sur la méthode de Monte-Carlo standard et une procédure de collocation stochastique.L'originalité du travail présenté réside avant tout dans la proposition d'une méthodologie probabiliste capable de prendre en compte les incertitudes dans la problématique de la stabilité primaire des prothèses de hanche non cimentées. Elle tient également dans la potentialité de cette méthodologie à être facilement transplantable en contexte industriel.
7

Application de la théorie des perturbations à la propagation des incertitudes des données nucléaires par la methode des probabilités de premiére collision

Sabouri, Pouya 28 October 2013 (has links) (PDF)
Dans cette thèse, nous présentons une étude rigoureuse des barres d'erreurs et des sensibilités de paramètres neutroniques (tels le k-eff) aux données nucléaires de base utilisées pour les calculer. Notre étude commence au niveau fondamental, i.e. les fichiers de données ENDF et leurs incertitudes, fournies sous la forme de matrices de variance/covariance, et leur traitement. Lorsqu'un calcul méthodique et consistant des sensibilités est consenti, nous montrons qu'une approche déterministe utilisant des formalismes bien connus est suffisante pour propager les incertitudes des bases de données avec un niveau de précision équivalent à celui des meilleurs outils disponibles sur le marché, comme les codes Monte-Carlo de référence. En appliquant notre méthodologie à trois exercices proposés par l'OCDE, dans le cadre des Benchmarks UACSA, nous donnons des informations, que nous espérons utiles, sur les processus physiques et les hypothèses sous-jacents aux formalismes déterministes utilisés dans cette étude.
8

Approche novatrice pour la conception et l’exploitation d’avions écologiques / Innovative and integrated approach for environmentally efficient aircraft design and operations

Prigent, Sylvain 17 September 2015 (has links)
L'objectif de ce travail de thèse est de poser, d'analyser et de résoudre le problème multidisciplinaire et multi-objectif de la conception d'avions plus écologiques et plus économiques. Dans ce but, les principaux drivers de l'optimisation des performances d'un avion seront: la géométrie de l'avion, son moteur ainsi que son profil de mission, autrement dit sa trajectoire. Les objectifs à minimiser considérés sont la consommation de carburant, l'impact climatique et le coût d'opération de l'avion. L'étude sera axée sur la stratégie de recherche de compromis entre ces objectifs, afin d'identifier les configurations d'avions optimales selon le critère sélectionné et de proposer une analyse de ces résultats. L'incertitude présente au niveau des modèles utilisés sera prise en compte par des méthodes rigoureusement sélectionnées. Une configuration d'avion hybride est proposée pour atteindre l'objectif de réduction d'impact climatique. / The objective of this PhD work is to pose, investigate, and solve the highly multidisciplinary and multiobjective problem of environmentally efficient aircraft design and operation. In this purpose, the main three drivers for optimizing the environmental performance of an aircraft are the airframe, the engine, and the mission profiles. The figures of merit, which will be considered for optimization, are fuel burn, local emissions, global emissions, and climate impact (noise excluded). The study will be focused on finding efficient compromise strategies and identifying the most powerful design architectures and design driver combinations for improvement of environmental performances. The modeling uncertainty will be considered thanks to rigorously selected methods. A hybrid aircraft configuration is proposed to reach the climatic impact reduction objective.
9

Approche probabiliste de la propagation des incertitudes dans le modèle mécano-numérique du système couplé "fémur-prothèse non cimentée" / Probabilistic approach to the propagation of uncertainties in the mechano-numerical model of the coupled "non-cemented femur-prothesis" system

Hu, XiaoSu 15 November 2010 (has links)
L' arthroplastie de la hanche par prothèse non cimentée est une solution couramment employée pour les patients rencontrant des problèmes du système locomoteur. Une telle solution présente toutefois un inconvénient majeur, souligné par tous les utilisateurs : le manque de stabilité primaire de la prothèse. Or, cette faiblesse peut provoquer des complications graves, voire l'échec de l'opération chirurgicale. Par conséquent, parvenir à une bonne fixation primaire est un point crucial de ce type d'opération chirurgicale pour assurer cliniquement une satisfaction à court et long terme.Dans le but de mieux appréhender cette problématique centrale, une piste préopératoire a été adoptée. Un modèle éléments finis permettant de décrire le comportement mécanique du système couplé « os-prothèse non cimentée : DePuy Corail® » a été développé et validé par des expérimentations in vitro. Puis, pour tenir compte de la forte variabilité des paramètres du modèle, inhérente à la nature même du problème, une modélisation stochastique de ces derniers a été introduite et une stratégie mécano-probabiliste proposée, destinée d'une part à quantifier en termes probabilistes l'effet sur la réponse des incertitudes affectant les paramètres du modèle, et d'autre part à évaluer la stabilité primaire du système os-prothèse en contexte fiabiliste. La mise en oeuvre pratique de cette approche a été réalisée à l'aide d'outils numériques basés sur la méthode de Monte-Carlo standard et une procédure de collocation stochastique.L'originalité du travail présenté réside avant tout dans la proposition d'une méthodologie probabiliste capable de prendre en compte les incertitudes dans la problématique de la stabilité primaire des prothèses de hanche non cimentées. Elle tient également dans la potentialité de cette méthodologie à être facilement transplantable en contexte industriel. / The hip arthroplasty with cementless hip prosthesis is a solution usually used for the patients suffering the problems of the musculoskeletal system. However, such a solution has a major disadvantage, pointed by all users : the lack of primary stability of the prosthesis. This weakness can cause serious complications or failure of the surgery. Therefore, to achieve a good primary fixation is a crucial point of this type of surgery to ensure a short and a long term clinical satisfaction. In order to better understand this central issue, a preoperative track is adopted. A finite element model to describe the mechanical behavior of the coupled system " femur-cementless prosthesis : DePuy Corail® "has been created and validated by the experiments in vitro. Then, in order to take into account the high variability of model parameters, inherent to the nature of the problem, the stochastic modeling of random input parameters has been introduced and a mechanical-probabilistic strategy has been proposed, on the one hand to quantify, in probabilistic terms, the effect, on the response, of the uncertainties affecting the input parameters of the model, and on the other hand to evaluate the primary stability of the bone-prosthesis system in reliability context. The practical implementation of this approach is realized by using the numerical tools based on the standard Monte Carlo method and the stochastic collocation procedure. The originality of the work presented is primarily in the proposition of a probabilistic methodology capable of taking into account the uncertainties in the problem of primary stability of cementless hip prostheses. It also lies in the potentiality of this methodology to be transplantable easily in industrial context.
10

Random fields and associated statistical inverse problems for uncertainty quantification : application to railway track geometries for high-speed trains dynamical responses and risk assessment / Champs aléatoires et problèmes statistiques inverses associés pour la quantification des incertitudes : application à la modélisation de la géométrie des voies ferrées pour l'évaluation de la réponse dynamique des trains à grande vitesse et l'analyse

Perrin, Guillaume 24 September 2013 (has links)
Les nouvelles attentes vis-à-vis des nouveaux trains à grande vitesse sont nombreuses: on les voudrait plus rapides, plus confortables, plus stables, tout en étant moins consommateur d'énergie, moins agressif vis-à-vis des voies, moins bruyants… Afin d'optimiser la conception de ces trains du futur, il est alors nécessaire de pouvoir se baser sur une connaissance précise de l'ensemble des conditions de circulations qu'ils sont susceptibles de rencontrer au cours de leur cycle de vie. Afin de relever ces défis, la simulation a un très grand rôle à jouer. Pour que la simulation puisse être utilisée dans des perspectives de conception, de certification et d'optimisation de la maintenance, elle doit alors être tout à fait représentative de l'ensemble des comportements physiques mis en jeu. Le modèle du train, du contact entre les roues et le rail, doivent ainsi être validés avec attention, et les simulations doivent être lancées sur des ensembles d'excitations qui sont réalistes et représentatifs de ces défauts de géométrie. En ce qui concerne la dynamique, la géométrie de la voie, et plus particulièrement les défauts de géométrie, représentent une des principales sources d'excitation du train, qui est un système mécanique fortement non linéaire. A partir de mesures de la géométrie d'un réseau ferroviaire, un paramétrage complet de la géométrie de la voie et de sa variabilité semblent alors nécessaires, afin d'analyser au mieux le lien entre la réponse dynamique du train et les propriétés physiques et statistiques de la géométrie de la voie. Dans ce contexte, une approche pertinente pour modéliser cette géométrie de la voie, est de la considérer comme un champ aléatoire multivarié, dont les propriétés sont a priori inconnues. En raison des interactions spécifiques entre le train et la voie, il s'avère que ce champ aléatoire n'est ni Gaussien ni stationnaire. Ce travail de thèse s'est alors particulièrement concentré sur le développement de méthodes numériques permettant l'identification en inverse, à partir de mesures expérimentales, de champs aléatoires non Gaussiens et non stationnaires. Le comportement du train étant très non linéaire, ainsi que très sensible vis-à-vis de la géométrie de la voie, la caractérisation du champ aléatoire correspondant aux défauts de géométrie doit être extrêmement fine, tant du point de vue fréquentiel que statistique. La dimension des espaces statistiques considérés est alors très importante. De ce fait, une attention toute particulière a été portée dans ces travaux aux méthodes de réduction statistique, ainsi qu'aux méthodes pouvant être généralisées à la très grande dimension. Une fois la variabilité de la géométrie de la voie caractérisée à partir de données expérimentales, elle doit ensuite être propagée au sein du modèle numérique ferroviaire. A cette fin, les propriétés mécaniques d'un modèle numérique de train à grande vitesse ont été identifiées à partir de mesures expérimentales. La réponse dynamique stochastique de ce train, soumis à un très grand nombre de conditions de circulation réalistes et représentatives générées à partir du modèle stochastique de la voie ferrée, a été ainsi évaluée. Enfin, afin d'illustrer les possibilités apportées par un tel couplage entre la variabilité de la géométrie de la voie et la réponse dynamique du train, ce travail de thèse aborde trois applications / High speed trains are currently meant to run faster and to carry heavier loads, while being less energy consuming and still ensuring the safety and comfort certification criteria. In order to optimize the conception of such innovative trains, a precise knowledge of the realm of possibilities of track conditions that the train is likely to be confronted to during its life cycle is necessary. Simulation has therefore a big to play in this context. However, to face these challenges, it has to be very representative of the physical behavior of the system. From a general point of view, a railway simulation can be seen as the dynamic response of a non-linear mechanical system, the train, which is excited by a complex multivariate spatial function, the track geometry. Therefore, the models of the train, of the wheel/rail contact forces have thus to be fully validated and the simulations have to be raised on sets of excitations that are realistic and representative of the track geometry. Based on experimental measurements, a complete parametrization of the track geometry and of its variability would be of great concern to analyze the complex link between the train dynamics and the physical and statistical properties of the track geometry. A good approach to characterize this variability is to model the track geometry as a multivariate random field, for which statistical properties are only known through a set of independent realizations. Due to the specific interactions between the train and the track, this random field is neither stationary nor Gaussian. In order to propagate the track geometry variability to the train response, methods to identify in inverse, from a finite set of experimental data, the statistical properties of non-stationary and non-Gaussian random fields were analyzed in this thesis. The train behavior being very non-linear and very sensitive to the track geometry, the random field has to be described very precisely from frequency and statistical points of view. As a result, the statistical dimension of this random field is very high. Hence, a particular attention is paid in this thesis to statistical reduction methods and to statistical identification methods that can be numerically applied to the high dimensional case. Once the track geometry variability has been characterized from experimental data, it has to be propagated through the model. To this end, a normalized multibody model of a high speed train, whose mechanical parameters have been carefully identified from experimental measurements, has been made run on sets of realistic and representative running conditions. The commercial software Vampire was used to solve these dynamic equations. At last, three applications are proposed to illustrate to what extent such a railway stochastic modeling opens new possibilities in terms of virtual certification, predictive maintenance and optimization of the railway system

Page generated in 0.5441 seconds