• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 223
  • 50
  • 19
  • 1
  • Tagged with
  • 291
  • 128
  • 73
  • 70
  • 57
  • 56
  • 42
  • 37
  • 32
  • 31
  • 28
  • 26
  • 25
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Rhéologie des bétons fluides

Hu, Chong 27 January 1995 (has links) (PDF)
Ce travail est consacré à l'étude de la rhéologie des bétons fluides. On relate le développement d'un rhéomètre à béton prototype de conception nouvelle, BT RHEOM. Le principe et la mise au point de l'appareil, ainsi que les différentes conduites des essais rhéologiques, sont décrits. Des études visant à estimer l'objectivité des mesures sont présentées. On envisage ensuite quelques études expérimentales avec le BT RHEOM. Les comportements des bétons frais, sans et avec vibration, sont étudiés. Dans la plage de gradient de vitesse étudiée, ils respectent en général le modèle de Bingham, sous réserve que la consistance des bétons satisfasse certaines conditions, et que l'homogénéité des bétons soit acceptable. Les phénomènes de thixotropie et de dilatance des bétons sont ensuite discutés. On s'intéresse également à l'influence des paramètres de composition du béton sur le comportement rhéologique de ce dernier. On établit ainsi un modèle ayant pour objet l'estimation de la viscosité plastique des bétons à hautes performances, fournissant une aide à la formulation du béton. Enfin, avec les caractéristiques intrinsèques d'un béton mesurées au BT RHEOM, on tente de modéliser un problème de chantier : le pompage du béton. On montre également une autre application de ce rhéomètre : la mise au point des formulations de BHP.
182

Métrologie instationnaire embarquée pour la modélisation du bruit à large bande dans les turbomachines.

Hurault, Jérémy 16 March 2010 (has links) (PDF)
Les nuisances sonores sont devenues une importante préoccupation environnementale. L'accroissement des exigences de confort et le durcissement des réglementations tant européennes que mondiales ont rendu la réduction du bruit aérodynamique des turbomachines un enjeu primordial pour de nombreuses industries. Ce travail a pour objectif principal le développement d'outils de modélisation de la composante à large bande du bruit des ventilateurs de façon à l'intégrer comme critère d'optimisation dès leur phase de conception. L'empilement (dévers) étant connu pour avoir une influence sur les émissions acoustiques des ventilateurs, trois ventilateurs à empilements différents seront comparés tout au long de ce mémoire. Un banc d'essai permettant l'acquisition des pressions moyennes et instationnaires sur les pales des ventilateurs est conçu puis fabriqué. Ces données sont nécessaires comme entrées d'un modèle de prévision du bruit de bord de fuite. Les spectres de pressions mesurés sont comparés à différents modèles puis utilisés pour obtenir le spectre acoustique en champ lointain à partir du modèle d'Amiet de bord de fuite. Ce modèle prévu pour un profil fixe est adapté pour un ventilateur. Puis une simulation numérique RANS avec modèle de turbulence du deuxième ordre, de ces trois ventilateurs, est réalisée afin d'obtenir : les performances globales des ventilateurs à différents débits, la morphologie de l'écoulement notamment les profils des vitesses aval, les composantes du tenseur des contraintes de Reynolds, les champs de pression sur les pales et les variables de la couche limite. Toutes ces données sont comparées avec différentes mesures sur un banc normalisé permettant la mesure du débit de fonctionnement
183

Spectroscopie de très haute sensibilité avec des molécules et métrologie des fréquences

Daussy, Christophe 20 November 2008 (has links) (PDF)
Les travaux présentés ont été menés au sein de l'équipe HOTES (Horloges optiques et tests fondamentaux par spectroscopie et interférométrie atomique et moléculaire) du Laboratoire de Physique de Lasers (LPL) à Villetaneuse. La philosophie générale de l'équipe est de développer des expériences de très haute précision en spectroscopie moléculaire appliquées à des problèmes originaux de physique fondamentale. La première partie de ce travail porte sur le développement d'une expérience de recherche d'un effet de non conservation de la parité dans des molécules chirales par spectroscopie laser. Cette expérience nous a conduit à un gain de près de 5 ordres de grandeur par rapport à la sensibilité de la précédente mesure publiée en 1977. Nous avons conclu au terme de ce travail à la nécessité de passer à une expérience en jet moléculaire pour aboutir à l'observation de l'effet. La sensibilité requise nécessite par ailleurs des sources lasers très bien contrôlées en terme de stabilité de fréquence et de reproductibilité. Nous avons donc développé un lien optique entre le LPL et le SYRTE (Paris) pour le transfert longue distance d'une fréquence d'horloge. Nous avons ensuite appliqué ce transfert à des expériences de métrologie au LPL au cours desquelles nous avons notamment démontré une amélioration significative du contrôle en fréquence de nos lasers à CO2. Enfin depuis 4 ans, nous développons une nouvelle expérience de spectroscopie moléculaire avec pour objectif la première mesure de la constante de Boltzmann par spectroscopie laser à un niveau de quelques ppm. Le travail mené devrait prochainement nous permettre d'atteindre notre objectif. Cette nouvelle thématique nous conduit également à nous intéresser à des problèmes très fondamentaux sur les profils de raies en absorption linéaire.
184

Caractérisation des propriétés mécaniques et électriques des matériaux composites par méthode holographique numérique 3D et analyse diélectrique

Karray, Mayssa 05 November 2012 (has links) (PDF)
Ce travail de thèse décrit l'application de méthodes d'analyse innovantes à la caractérisation des propriétésmécaniques et électriques de matériaux composites.Le Chapitre premier dresse un état de l'art des fondamentaux théoriques et pré requis nécessaires à lacompréhension du manuscrit. Un regard critique permet de dégager une stratégie pour l'analyse, basée d'une partsur des méthodes holographiques numériques et d'autre part sur des techniques de mesure diélectrique.Le Chapitre second est dédié au choix de la méthode d'holographie numérique. En particulier, la configurationimage montre quelques particularités qui sont analysées en détail : le rôle du diaphragme d'ouverture du systèmed'imagerie. Nous concluons que la méthode d'holographie de Fresnel présente des avantages d'achromatismepour les applications avec plusieurs longueurs d'onde.Le 3ème Chapitre présente deux applications de l'holographie numérique au contrôle de structures compositesincorporées avec des pastilles piézoélectriques dédiées à l'émission acoustique. Nous avons démontré en premiertemps, la possibilité d'analyser par holographie numérique de Fresnel en temps moyenné le comportementvibratoire des poutres composites excitées harmoniquement. Dans un second temps, on a montré que les pastillesutilisées influencent le comportement mécanique des matériaux en régime statique.Le Chapitre 4 présente l'analyse expérimentale et numérique des structures composites soumises à un essai decisaillement en flexion trois points rapprochés. Nous présentons les résultats obtenus pour des applications à deséchantillons lin/époxy et lin/carbone/époxy.Le 5ème Chapitre aborde l'analyse des propriétés diélectriques des composites renforcés par fibres de lin. Deuxtechniques expérimentales sont mises en oeuvre : la calorimétrie différentielle à balayage (DSC) et l'impédancemètre de type Novocontrol. Nous concluons que les fibres de lin seules dans le composite sont moinshydrophiles que celles incorporées avec des fibres de carbone, ce qui explique la meilleure adhérencefibres/matrice dans le premier cas.
185

Contrôle des collisions froides du césium 133, tests de la variation de la constante de structure fine à l'aide d'une fontaine atomique double rubidium - césium

Marion, Harold 11 March 2005 (has links) (PDF)
Nous avons mis au point une méthode de mesure du déplacement de fréquence dû aux collisions entre atomes froids, c'est l'effet systématique qui limite le plus l'exactitude des fontaines à 133Cs (~1E-15 en valeur relative), on peut le mesurer au niveau de 0.5%. Ceci ouvre des perspectives d'améliorations des performances des fontaines en terme d'exactitude jusqu'à 1E-16. La fontaine à aussi obtenu une stabilité de l'ordre de 1.6E-14 à 1s. Nous avons découvert, à champ magnétique très faible (5 +/- 1 mG), des résonances de Feshbach. Nous avons aussi effectué une nouvelle mesure absolue de la transition hyperfine du 87Rb, qui est la plus précise jamais réalisée et sert maintenant de définition pour l'étalon secondaire de fréquence 87Rb. En comparant cette valeur avec celles mesurées les années précédentes, nous avons pu tester la stabilité de la constante de structure fine au niveau de 1E-15/ an. Nous avons comparé localement notre fontaine avec les autres fontaines du laboratoire, avec dans le meilleur des cas une stabilité combinée de 5E-14 à 1s. La différence de fréquence des deux horloges se moyenne comme du bruit blanc de fréquence jusqu'à 3E-16. Le bilan d'exactitude de la fontaine double à été évalué à ~7E-16 pour la partie césium et ~8E-16 pour la partie rubidium. Nous avons contribué à la réalisation de l'échelle de Temps Atomique International, par des séries de calibrations de masers à hydrogène. Une comparaison de fontaines atomiques par liaisons satellitaires a été expérimenté entre notre laboratoire et nos homologues Allemands. Cette mesure a permis de déterminer le bon accord qu'il y a entre les deux horloges.
186

Définition analytique des surfaces de denture et comportement sous charge des engrenages spiro-coniques

Teixeira Alves, Joël 30 May 2012 (has links) (PDF)
La conception des engrenages spiro-coniques reste encore très complexe de nos jours car la géométrie des dentures, et donc les performances cinématiques, découle du mode de fabrication de ce type d'engrenage. Le taillage est lié à deux constructeurs principaux : Gleason et Klingelnberg. De nombreux paramètres de réglage des machines influencent directement les surfaces de denture, leur optimisation n'est donc pas intuitive. Avec les progrès réalisés cette dernière décennie par les machines d'usinage à commande numérique et la FAO (Fabrication Assistée par Ordinateur), il devient possible de fabriquer des engrenages spiro-coniques de bonne qualité sur une machine 5 axes. Un modèle numérique a été développé pour générer une géométrie simplifiée de type Gleason, usinée par la suite avec une machine 5 axes. Une étude de métrologie, permettant de comparer les dents usinées avec les modèles CAO, a ensuite été réalisée pour prouver que l'usinage par une machine 5 axes peut être une alternative aux méthodes de taillage classiques. De nouveaux types de géométrie peuvent donc être proposés, qui ne pouvaient pas être envisagés par les moyens de fabrication classiques. Une géométrie basée sur la théorie des développantes sphériques, combinée à une spirale logarithmique a été développée, puis usinée. De plus, des corrections de bombé ou de profil peuvent être définies afin d'éviter les contacts en bords de denture. Ce type de géométrie analytique offre des possibilités plus simples d'optimisation de l'engrènement. L'optimisation des surfaces peut être réalisée à l'aide du modèle d'engrènement quasi-statique sous charge développé dans le cadre de cette thèse. L'environnement de l'engrenage est pris en compte dans la simulation : déformation des arbres, des dentures et de leurs supports (jantes et voiles) ainsi que les déformations locales de contact. La méthode des coefficients d'influence est utilisée pour résoudre le partage des charges entre toutes les dents instantanément en contact. Une méthode originale, utilisant sur un seul calcul élément finis et la définition de bases de fonctions, permet de calculer rapidement les flexions de denture dans leur environnement. Les déformations de contacts sont, quant à elles, obtenues par une méthode analytique, basée sur les théories de Boussinesq. De plus, des défauts d'assemblage peuvent être intégrés entre le pignon et la roue spiro-conique. Afin de valider les modèles numériques développés, un banc d'essai a été mis en place, permettant la mesure de l'erreur de transmission et la visualisation des portées. Le banc d'essai est intégré dans une fraiseuse numérique 3 axes : le pignon est monté dans la broche de la fraiseuse, le reste du banc étant bridé sur son plateau. Ainsi, des défauts de montage peuvent être appliqués facilement et précisément.
187

Approche bayésienne de l'évaluation de l'incertitude de mesure : application aux comparaisons interlaboratoires

Demeyer, Séverine 04 March 2011 (has links) (PDF)
La modélisation par équations structurelles est très répandue dans des domaines très variés et nous l'appliquons pour la première fois en métrologie dans le traitement de données de comparaisons interlaboratoires. Les modèles à équations structurelles à variables latentes sont des modèles multivariés utilisés pour modéliser des relations de causalité entre des variables observées (les données). Le modèle s'applique dans le cas où les données peuvent être regroupées dans des blocs disjoints où chaque bloc définit un concept modélisé par une variable latente. La structure de corrélation des variables observées est ainsi résumée dans la structure de corrélation des variables latentes. Nous proposons une approche bayésienne des modèles à équations structurelles centrée sur l'analyse de la matrice de corrélation des variables latentes. Nous appliquons une expansion paramétrique à la matrice de corrélation des variables latentes afin de surmonter l'indétermination de l'échelle des variables latentes et d'améliorer la convergence de l'algorithme de Gibbs utilisé. La puissance de l'approche structurelle nous permet de proposer une modélisation riche et flexible des biais de mesure qui vient enrichir le calcul de la valeur de consensus et de son incertitude associée dans un cadre entièrement bayésien. Sous certaines hypothèses l'approche permet de manière innovante de calculer les contributions des variables de biais au biais des laboratoires. Plus généralement nous proposons un cadre bayésien pour l'amélioration de la qualité des mesures. Nous illustrons et montrons l'intérêt d'une modélisation structurelle des biais de mesure sur des comparaisons interlaboratoires en environnement.
188

La cohérence conceptuelle d’étudiants collégiaux en mécanique newtonienne et en métrologie

Périard, Martin 12 1900 (has links)
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée. / This thesis evaluates the coherence of the conceptual network demonstrated by college students in life and applied sciences. This evaluation was based on the analysis of Burt tables issuing from multiple choice questionnaires, on the creation and careful examination of a novel tool, the matrix of specific discrimination coefficients, which will be described in the main text, and on the qualitative analysis of actual laboratory work of students doing an experimentation. At the completion of this project, four research axis have been explored. 1) What is the conceptual coherence demonstrated in Newtonian mechanics? 2) Is the mastery of uncertainty quantification related to the development of logical thinking or to mathematical competency? 3) What is the conceptual coherence demonstrated in the quantification of experimental uncertainty? 4) What are the concrete procedures utilized by students to quantify experimental uncertainty in a semi-directed laboratory context? The main conclusions that emerged from each axis of research can be summerized as follow. 1) The most prevalent erroneous conceptions are not solidly set in a rigid conceptual network. For example, a student successful in a question about Newton’s third law (the most difficult subject of the Force Concept Inventory) is just slightly more likely to succeed in another related question than the other participants. Many pairs of questions displays a negative specific discrimination coefficient demonstrating a weak conceptual coherence in pre-test and a somewhat ameliorated conceptual coherence in post-test. 2) If a small proportion of students has demonstrated marked deficiencies in questions related with control of variable and in those related to the relationship between the graphical display of experimental data and a mathematical model, the majority of students can be considered as adequately mastering those subjects. However, almost every student demonstrated a lack of mastery of concepts underlying the quantification of experimental uncertainty and the propagation of uncertainty (heretofore referred to as metrology). No statistically significant correlation has been observed between the three main topics suggesting that they are largely independent cognitive abilities. Burt table has demonstrated a greater degree of conceptual coherence between control of variables questions than suggested by Pearson correlation coefficients. Equivalent question in the topic of metrology did not permit to demonstrate a clear conceptual coherence. 3) Analysis of a questionnaire entirely devoted to metrology has shown erroneous conceptions caused by prior learning (didactical obstacles), erroneous conceptions based on intuitive models and a lack of global comprehension of metrological concepts although some appear to be almost acquired. 4) When doing real experiments in semi-directed laboratory, students demonstrated the same difficulty identified in the questionnaire of 3) which could interpreted as corroborating previously obtaine results. However, many unanticipated behaviors related to measurement were observed that could not have been anticipated solely by analyzing answers in the multiple-choice questionnaire. Interviews immediately following each semi-directed laboratory permitted the participants to detail certain aspects of their metrological methodology. Most notably, the use of repeated measurement strategies, their « spontaneous » strategies to quantify uncertainty, and their explanation of numerical estimates of reading uncertainties. Overall, uncertainty propagation algorithms were adequately employed. Many erroneous metrological conceptions seem to resist strongly to be modified by learning. Among others, assignation of the resolution of a digital scale as the uncertainty value and the lack of stacking strategies to diminish uncertainty. The conception that a numerical value cannot be more precise than the tolerance of an instrument seems firmly set.
189

Métrologie 3D de pièces de formes complexes par moyens optiques : Une application à l'équilibrage de vilebrequins

Zuquete Guarato, Alexandre 11 December 2013 (has links) (PDF)
Les travaux de thèse ont pour objectif de proposer une méthode flexible de mesure de balourds des vilebrequins. A l'heure actuelle, la mesure des balourds des vilebrequins est réalisée à l'aide de machines d'équilibrage, qui sont très dépendantes de la géométrie et de la typologie des vilebrequins. De ce constat, il semble intéressant de remplacer ces moyens de mesure mécanique par des moyens de mesure de géométrie de la peau plus flexibles vis-à-vis des typologies de pièces. Ces travaux ont mis en évidence les deux problématiques majeures : le calcul des balourds sur données bruitées et incomplètes issues de la numérisation, le choix des systèmes de numérisation acceptables vis-à-vis de l'équilibrage, et la planification de trajectoires de mesure respectant des contraintes de qualité et de temps de cycle. Une méthode de calcul de balourds à partir de données discrètes et basée sur une voxélisation a été développée. Un protocole d'évaluation de capteurs a été mis en place. Celui-ci est constitué d'indicateurs de qualité préalablement développés au Lurpa et de nouveaux indicateurs permettant de prendre en compte la complexité géométrique des vilebrequins. La méthode de planification de trajectoires s'appuie sur une voxélisation adaptative dans laquelle la taille des voxels est réglée en fonction du besoin. Les caractéristiques de la fenêtre de mesure du capteur sont prises en compte. La démarche globale d'équilibrage par mesure de la géométrie externe a été validée grâce à la numérisation de 7 vilebrequins avec deux différents systèmes de numérisation.
190

Analyse des modèles résines pour la correction des effets de proximité en lithographie optique

Top, Mame kouna 12 January 2011 (has links) (PDF)
Les progrès réalisés dans la microélectronique répondent à la problématique de la réduction des coûts de production et celle de la recherche de nouveaux marchés. Ces progrès sont possibles notamment grâce à ceux effectués en lithographie optique par projection, le procédé lithographique principalement utilisé par les industriels. La miniaturisation des circuits intégrés n'a donc été possible qu'en poussant les limites d'impression lithographique. Cependant en réduisant les largeurs des transistors et l'espace entre eux, on augmente la sensibilité du transfert à ce que l'on appelle les effets de proximité optique au fur et à mesure des générations les plus avancées de 45 et 32 nm de dimension de grille de transistor.L'utilisation des modèles OPC est devenue incontournable en lithographie optique, pour les nœuds technologiques avancés. Les techniques de correction des effets de proximité (OPC) permettent de garantir la fidélité des motifs sur plaquette, par des corrections sur le masque. La précision des corrections apportées au masque dépend de la qualité des modèles OPC mis en œuvre. La qualité de ces modèles est donc primordiale. Cette thèse s'inscrit dans une démarche d'analyse et d'évaluation des modèles résine OPC qui simulent le comportement de la résine après exposition. La modélisation de données et l'analyse statistique ont été utilisées pour étudier ces modèles résine de plus en plus empiriques. Outre la fiabilisation des données de calibrage des modèles, l'utilisation des plateformes de création de modèles dédiées en milieu industriel et la méthodologie de création et de validation des modèles OPC ont également été étudié. Cette thèse expose le résultat de l'analyse des modèles résine OPC et propose une nouvelles méthodologie de création, d'analyse et de validation de ces modèles.

Page generated in 0.0401 seconds