• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 185
  • 69
  • 27
  • 1
  • Tagged with
  • 274
  • 101
  • 77
  • 62
  • 58
  • 46
  • 42
  • 37
  • 34
  • 30
  • 30
  • 27
  • 26
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Chimie et dépôt de l'aérosol minéral en zone océanique australe

Heimburger, Alexie 16 July 2013 (has links) (PDF)
Les apports atmosphériques sont suspectés de jouer un rôle important dans les processus biogéochimiques des régions océaniques HNLC. Des échantillons de dépôt atmosphérique total et d'aérosols ont été collectés en continu entre 2009 et 2010 dans l'océan austral indien, aux îles Kerguelen et de Crozet. Ils ont été mesurés par HR-ICP-MS. Les concentrations en surface des aérosols terrigènes sont basses et ne peuvent rendre compte des flux de dépôt de poussières qui sont plus élevés que ceux précédemment observés pour la région mais qui restent en adéquation avec les modèles atmosphériques. Le calcul des coefficients d'abattement suggère que l'aérosol mesuré en surface n'est pas représentatif de celui qui va générer le dépôt et qui est présent plus haut dans la colonne troposphérique, ce qui interdit ici l'estimation du flux à partir de ces mesures. Les flux de dépôt ont été établis pour une large gamme d'éléments identifiés comme venant de source terrigène ou marine. Pour certains d'entre eux (Pb, As, ...), une contribution anthropique a été observée pendant l'hiver austral. Les flux des éléments crustaux Al, Fe, Mn et Si sont similaires pour Kerguelen et Crozet ; ceux des autres éléments non marins sont différents d'un facteur deux à cinq avec un gradient décroissant de Crozet aux Kerguelen. Les rapports isotopiques de plomb montrent que le dépôt reçu aux Kerguelen provient principalement d'Amérique du sud ; le dépôt à Crozet semble fortement influencé par les apports africains. Les profils de REE pourraient confirmer ces observations. Les concentrations de métaux sont très basses dans les pluies avec une solubilité très élevée.
162

Diagnostic non invasif de piles à combustible par mesure du champ magnétique proche

Le Ny, Mathieu 10 December 2012 (has links) (PDF)
Cette thèse propose une technique innovante de diagnostic non invasive pour les systèmes piles à combustible. Cette technique s'appuie sur la mesure de la signature magnétique générée par ces systèmes. A l'aide de ces champs magnétiques externes, il est possible d'obtenir une cartographie de la densité de courant interne par résolution d'un problème inverse. Ce problème est néanmoins mal posé : la solution est non unique et est extrêmement sensible au bruit. Des techniques de régularisation ont ainsi été mises en place pour filtrer les erreurs de mesures et obtenir une solution physiquement acceptable. Afin d'augmenter la qualité de reconstruction des courants, nous avons conçu notre outil de diagnostic de manière à ce qu'il soit uniquement sensible aux défaillances de la pile (capteur de défauts). De plus, cette reconstruction se base sur un nombre extrêmement faible de mesures. Une telle approche facilite l'instrumentation du système et augmente la précision et la rapidité de celui-ci. La sensibilité de notre outil à certaines défaillances (assèchements, appauvrissement en réactifs, dégradations) est démontrée.
163

Evaluation de paramètres de sûreté de fonctionnement en présence d'incertitudes et aide à la conception : application aux Systèmes Instrumentés de Sécurité

Sallak, Mohamed 19 October 2007 (has links) (PDF)
L'introduction de systèmes instrumentés dédiés aux applications de sécurité impose l'évaluation de leur sûreté de fonctionnement. On utilise généralement pour cela les bases de données de fiabilité génériques. Cependant, le retour d'expérience pour ces systèmes qui présentent en général des défaillances rares est insuffisant pour valider les résultats obtenus. En outre, la collecte de données de fiabilité et leur extrapolation à d'autres composants introduisent des incertitudes.<br />Les travaux de cette thèse portent sur la problématique de la prise en compte des incertitudes relatives aux données de fiabilité des composants pour l'évaluation de la sûreté de fonctionnement des systèmes par le formalisme des sous ensembles flous. La méthodologie proposée est appliquée à l'évaluation des probabilités de défaillance des Systèmes Instrumentés de Sécurité (SIS) en présence de données de fiabilité imprécises. Nous introduisons deux nouveaux facteurs d'importance pour aider le concepteur. En outre, nous proposons une méthodologie d'aide à la conception des SIS basée sur la modélisation par réseaux de fiabilité et l'optimisation par des algorithmes génétiques de la structure des SIS pour le respect des niveaux d'intégrité de sécurité (SIL) exigés.
164

Étude des facteurs de perturbation de chambres d’ionisation sous conditions non standard

Bouchard, Hugo 08 1900 (has links)
Durant la dernière décennie, les développements technologiques en radiothérapie ont transformé considérablement les techniques de traitement. Les nouveaux faisceaux non standard améliorent la conformité de la dose aux volumes cibles, mais également complexifient les procédures dosimétriques. Puisque des études récentes ont démontré l’invalidité de ces protocoles actuels avec les faisceaux non standard, un nouveau protocole applicable à la dosimétrie de référence de ces faisceaux est en préparation par l’IAEA-AAPM. Le but premier de cette étude est de caractériser les facteurs responsables des corrections non unitaires en dosimétrie des faisceaux non standard, et ainsi fournir des solutions conceptuelles afin de minimiser l’ordre de grandeur des corrections proposées dans le nouveau formalisme de l’IAEA-AAPM. Le deuxième but de l’étude est de construire des méthodes servant à estimer les incertitudes d’une manière exacte en dosimétrie non standard, et d’évaluer les niveaux d’incertitudes réalistes pouvant être obtenus dans des situations cliniques. Les résultats de l’étude démontrent que de rapporter la dose au volume sensible de la chambre remplie d’eau réduit la correction d’environ la moitié sous de hauts gradients de dose. Une relation théorique entre le facteur de correction de champs non standard idéaux et le facteur de gradient du champ de référence est obtenue. En dosimétrie par film radiochromique, des niveaux d’incertitude de l’ordre de 0.3% sont obtenus par l’application d’une procédure stricte, ce qui démontre un intérêt potentiel pour les mesures de faisceaux non standard. Les résultats suggèrent également que les incertitudes expérimentales des faisceaux non standard doivent être considérées sérieusement, que ce soit durant les procédures quotidiennes de vérification ou durant les procédures de calibration. De plus, ces incertitudes pourraient être un facteur limitatif dans la nouvelle génération de protocoles. / During the past decade, technological developments in radiation therapy have considerably transformed treatment techniques. Novel nonstandard beams improve target dose conformity, but increase the complexity of dosimetry procedures. As recent studies demonstrated the invalidity of these protocols to nonstandard beams, a new protocol applicable to nonstandard beam reference dosimetry is in preparation by the IAEA-AAPM. The first goal of the study is to characterize the factors responsible for non-unity corrections in nonstandard beam dosimetry, and provide conceptual solutions to minimize the magnitude of the corrections. The second goal is to provide methods to estimate uncertainties accurately in nonstandard beam dosimetry, and estimate uncertainty levels achievable in typical clinical situations. Results of this study show that reporting dose to the sensitive volume of the chamber filled with water reduces the correction factor approximately by half under high gradients. A theoretical expression of correction factor is obtained for ideal nonstandard reference fields. In radiochromic film dosimetry, levels of uncertainty of the order of 0.3% are achieved with strict procedures and show great potential for nonstandard beam measurements. Results also suggest that experimental uncertainties in nonstandard beam are an important issue to consider both during daily QA routine and reference dosimetry, and could be a limiting factor in the new generation of protocols.
165

La cohérence conceptuelle d’étudiants collégiaux en mécanique newtonienne et en métrologie

Périard, Martin 12 1900 (has links)
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée. / This thesis evaluates the coherence of the conceptual network demonstrated by college students in life and applied sciences. This evaluation was based on the analysis of Burt tables issuing from multiple choice questionnaires, on the creation and careful examination of a novel tool, the matrix of specific discrimination coefficients, which will be described in the main text, and on the qualitative analysis of actual laboratory work of students doing an experimentation. At the completion of this project, four research axis have been explored. 1) What is the conceptual coherence demonstrated in Newtonian mechanics? 2) Is the mastery of uncertainty quantification related to the development of logical thinking or to mathematical competency? 3) What is the conceptual coherence demonstrated in the quantification of experimental uncertainty? 4) What are the concrete procedures utilized by students to quantify experimental uncertainty in a semi-directed laboratory context? The main conclusions that emerged from each axis of research can be summerized as follow. 1) The most prevalent erroneous conceptions are not solidly set in a rigid conceptual network. For example, a student successful in a question about Newton’s third law (the most difficult subject of the Force Concept Inventory) is just slightly more likely to succeed in another related question than the other participants. Many pairs of questions displays a negative specific discrimination coefficient demonstrating a weak conceptual coherence in pre-test and a somewhat ameliorated conceptual coherence in post-test. 2) If a small proportion of students has demonstrated marked deficiencies in questions related with control of variable and in those related to the relationship between the graphical display of experimental data and a mathematical model, the majority of students can be considered as adequately mastering those subjects. However, almost every student demonstrated a lack of mastery of concepts underlying the quantification of experimental uncertainty and the propagation of uncertainty (heretofore referred to as metrology). No statistically significant correlation has been observed between the three main topics suggesting that they are largely independent cognitive abilities. Burt table has demonstrated a greater degree of conceptual coherence between control of variables questions than suggested by Pearson correlation coefficients. Equivalent question in the topic of metrology did not permit to demonstrate a clear conceptual coherence. 3) Analysis of a questionnaire entirely devoted to metrology has shown erroneous conceptions caused by prior learning (didactical obstacles), erroneous conceptions based on intuitive models and a lack of global comprehension of metrological concepts although some appear to be almost acquired. 4) When doing real experiments in semi-directed laboratory, students demonstrated the same difficulty identified in the questionnaire of 3) which could interpreted as corroborating previously obtaine results. However, many unanticipated behaviors related to measurement were observed that could not have been anticipated solely by analyzing answers in the multiple-choice questionnaire. Interviews immediately following each semi-directed laboratory permitted the participants to detail certain aspects of their metrological methodology. Most notably, the use of repeated measurement strategies, their « spontaneous » strategies to quantify uncertainty, and their explanation of numerical estimates of reading uncertainties. Overall, uncertainty propagation algorithms were adequately employed. Many erroneous metrological conceptions seem to resist strongly to be modified by learning. Among others, assignation of the resolution of a digital scale as the uncertainty value and the lack of stacking strategies to diminish uncertainty. The conception that a numerical value cannot be more precise than the tolerance of an instrument seems firmly set.
166

Approche probabiliste de la propagation des incertitudes dans le modèle mécano-numérique du système couplé "fémur-prothèse non cimentée"

Hu, Xiaosu, Hu, Xiaosu 15 November 2010 (has links) (PDF)
L' arthroplastie de la hanche par prothèse non cimentée est une solution couramment employée pour les patients rencontrant des problèmes du système locomoteur. Une telle solution présente toutefois un inconvénient majeur, souligné par tous les utilisateurs : le manque de stabilité primaire de la prothèse. Or, cette faiblesse peut provoquer des complications graves, voire l'échec de l'opération chirurgicale. Par conséquent, parvenir à une bonne fixation primaire est un point crucial de ce type d'opération chirurgicale pour assurer cliniquement une satisfaction à court et long terme.Dans le but de mieux appréhender cette problématique centrale, une piste préopératoire a été adoptée. Un modèle éléments finis permettant de décrire le comportement mécanique du système couplé " os-prothèse non cimentée : DePuy Corail® " a été développé et validé par des expérimentations in vitro. Puis, pour tenir compte de la forte variabilité des paramètres du modèle, inhérente à la nature même du problème, une modélisation stochastique de ces derniers a été introduite et une stratégie mécano-probabiliste proposée, destinée d'une part à quantifier en termes probabilistes l'effet sur la réponse des incertitudes affectant les paramètres du modèle, et d'autre part à évaluer la stabilité primaire du système os-prothèse en contexte fiabiliste. La mise en oeuvre pratique de cette approche a été réalisée à l'aide d'outils numériques basés sur la méthode de Monte-Carlo standard et une procédure de collocation stochastique.L'originalité du travail présenté réside avant tout dans la proposition d'une méthodologie probabiliste capable de prendre en compte les incertitudes dans la problématique de la stabilité primaire des prothèses de hanche non cimentées. Elle tient également dans la potentialité de cette méthodologie à être facilement transplantable en contexte industriel.
167

Approches robustes du comportement dynamique des systèmes non linéaires : Application aux systèmes frottants

Nechak, Lyes 01 November 2011 (has links) (PDF)
Cette thèse traite de l'analyse robuste du comportement dynamique des systèmes frottants. Ces derniers constituent une classe particulière des systèmes non linéaires et sont caractérisés par des comportements dynamiques très sensibles aux variations des paramètres de conception en particulier aux dispersions des lois de frottement. Cette sensibilité se traduit par des variations qualitatives importantes du comportement dynamique (stabilité, niveaux vibratoire) qui peuvent alors affecter négativement les performances des systèmes frottants. Il est ainsi important, voire indispensable, de pouvoir tenir compte de la dispersion des lois de frottement dans l'étude et l'analyse du comportement dynamique des systèmes frottants afin d'en garantir la robustesse et, dans une perspective plus générale, d'asseoir une démarche de conception robuste des systèmes frottants. Des méthodes spectrales basées sur le concept du chaos polynomial sont proposées dans cette thèse pour traiter de l'analyse robuste du comportement dynamique des systèmes frottants. Pouvant modéliser les fonctions et processus stochastiques, ces méthodes sont adaptées au problème en particulier à l'analyse de la stabilité et à la prédiction des niveaux vibratoires en tenant compte de la dispersion des lois de frottement. Différentes procédures sont proposées et développées pour traiter de ces deux questions. Une efficacité importante a été illustrée à travers l'évaluation des différentes méthodes proposées (chaos polynomial généralisé, chaos polynomial multi-éléments, chaos de Wiener-Haar) en les appliquant sur un exemple de système frottant. En effet, il est montré que ces méthodes offrent une alternative très intéressante à la méthode prohibitive, mais référentielle, de Monte Carlo puisque, pour des niveaux de précision et de confiance similaires, le coût en nombre, en volume et nécessairement en temps de calcul occasionné par les méthodes spectrales sur les différentes analyses (de la stabilité et des niveaux vibratoire) est largement inférieur à celui requis par la technique de Monte Carlo.
168

Commande non linéaire et stabilisation des systèmes de transmission VSC-HVDC

Mohamed Ramadan, Haitham Saad 15 March 2012 (has links) (PDF)
L'intégration des liaisons à courant continu dans les systèmes électriques permet d'accroitre les possibilités de pilotage des réseaux, ce qui permet d'en améliorer la sûreté et de raccorder de nouveaux moyens de production. Pour cela la technologie VSC-HVDC est de plus en plus plébiscitée pour interconnecter des réseaux non synchrones, raccorder des parcs éoliens offshore, ou contrôler le flux d'énergie notamment sur des longues distances au travers de liaisons sous-marines (liaison NorNed). Les travaux de cette thèse portent sur la modélisation, la commande non-linéaire et la stabilisation des systèmes VSC-HVDC, avec deux axes de travail. Le premier se focalise sur la conception et la synthèse des lois de commandes non-linéaires avancées basées sur des systèmes de structures variables (VSS). Ainsi, les commandes par modes glissants (SMC) et le suivi asymptotique de trajectoire des sorties (AOT) ont été proposées afin d'assurer un degré désiré de stabilité en utilisant des fonctions de Lyapunov convenables. Ensuite, la robustesse de ces commandes face à des perturbations et/ou incertitudes paramétriques a été étudiée. Le compromis nécessaire entre la robustesse et le comportement dynamique requis dépend du choix approprié des gains. Ces approches robustes, qui sont facile à mettre en œuvre, ont été appliquées avec succès afin d'atteindre des performances dynamiques élevées et un niveau raisonnable de stabilité vis-à-vis des diverses conditions anormales de fonctionnement, pour des longueurs différentes de liaison DC. Le deuxième vise à étudier l'influence de la commande du convertisseur VSC-HVDC sur l'amélioration de la performance dynamique du réseau de courant alternatif en cas d'oscillations. Après une modélisation analytique d'un système de référence constitué d'un groupe connecté à un convertisseur VSC-HVDC via un transformateur et une ligne, un contrôleur conventionnel simple PI est appliqué au niveau du convertisseur du système pour agir sur les oscillations rotoriques de la machine synchrone. Cette commande classique garantie une amélioration acceptable des performances dynamiques du système; surtout pour l'amortissement des oscillations de l'angle de puissance de la machine synchrone lors de défauts.
169

Etude de la pertinence des paramètres stochastiques sur des modèles de Markov cachés

Robles, Bernard 18 December 2013 (has links) (PDF)
Le point de départ de ce travail est la thèse réalisée par Pascal Vrignat sur la modélisation de niveaux de dégradation d'un système dynamique à l'aide de Modèles de Markov Cachés (MMC), pour une application en maintenance industrielle. Quatre niveaux ont été définis : S1 pour un arrêt de production et S2 à S4 pour des dégradations graduelles. Recueillant un certain nombre d'observations sur le terrain dans divers entreprises de la région, nous avons réalisé un modèle de synthèse à base de MMC afin de simuler les différents niveaux de dégradation d'un système réel. Dans un premier temps, nous identifions la pertinence des différentes observations ou symboles utilisés dans la modélisation d'un processus industriel. Nous introduisons ainsi le filtre entropique. Ensuite, dans un but d'amélioration du modèle, nous essayons de répondre aux questions : Quel est l'échantillonnage le plus pertinent et combien de symboles sont ils nécessaires pour évaluer au mieux le modèle ? Nous étudions ensuite les caractéristiques de plusieurs modélisations possibles d'un processus industriel afin d'en déduire la meilleure architecture. Nous utilisons des critères de test comme les critères de l'entropie de Shannon, d'Akaike ainsi que des tests statistiques. Enfin, nous confrontons les résultats issus du modèle de synthèse avec ceux issus d'applications industrielles. Nous proposons un réajustement du modèle pour être plus proche de la réalité de terrain.
170

Formulation générique de problèmes en analyse et commande robuste par les fonctions de Lyapunov dependant des paramètres

Peaucelle, Dimitri 04 July 2000 (has links) (PDF)
Cette thèse porte sur la commande robuste des systèmes. La robustesse caractérise l'invariance de propriétés de stabilité et de performance vis à vis des inévitables incertitudes affectant le modèle. Le problème de commande est d'améliorer et/ou de garantir les propriétés robustes. Les modèles considérés sont linéaires à temps invariant. Les incertitudes sont paramétriques réelles structurées et interviennent sous forme rationnelle. Les classes d'incertitudes polytopiques et dissipatives sont plus particulièrement prises en compte. Les propriétés étudiées sont principalement la stabilité robuste, le rejet des perturbations (coût garanti robuste) et le comportement transitoire (localisation des pôles). Pour ces propriétés nous proposons dans un premier temps des méthodes d'analyse puis des méthodes de synthèse de correcteurs. Les outils théoriques utilisés sont issus de la théorie de Lyapunov et de la séparation topologique. De manière à garantir les performances avec le moins de pessimisme possible, nous proposons de faire appel à des fonctions de Lyapunov dépendant des paramètres. Comme on attache une importance à la mise en oeuvre numérique, des méthodes issues du cadre de la stabilité quadratique, plus pessimistes mais moins demandeuses en capacité de calcul sont également proposées. La formulation volontairement unifiée des différents problèmes met en évidence les sources de pessimisme. Toutes les méthodes proposées sont formulées en termes d'Inégalités Matricielles Linéaires (LMI) dont la mise en oeuvre numérique est désormais classique. Les résultats de recherche sont illustrés sur des exemples.

Page generated in 0.0392 seconds