• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 157
  • 46
  • 9
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 218
  • 96
  • 50
  • 31
  • 26
  • 26
  • 25
  • 24
  • 22
  • 21
  • 20
  • 20
  • 20
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Vers la modélisation et le recalage des liaisons sur les structures en vibrations moyennes fréquences.

Dorival, Olivier 06 December 2006 (has links) (PDF)
Dans les problèmes de calcul de structures, la simulation du comportement en vibrations moyennes fréquences soulève plusieurs difficultés. Parmi elles, on peut citer des problèmes liés l'hypersensibilité de la réponse de la structure, des difficultés tenant à la modélisation de la géométrie, de l'amortissement et des liaisons, et des difficultés sur le plan numérique, les méthodes éléments finis classiques devenant trop coûteuses lorsque la fréquence augmente. Ce travail de thèse se concentre sur le problème de la modélisation des liaisons et de l'identification des paramètres des modèles. La méthode proposée envisage de s'appuyer sur des travaux déjà développés au LMT. Nous adoptons une méthode de recalage initialement basée sur les travaux sur l'erreur en relation de comportement, qui a montré sa robustesse pour la correction de modèles éléments finis, et qui ici est utilisée pour le recalage des modèles de liaison. Sur le plan numérique, la théorie variationnelle des rayons complexes (TVRC), dédiée au calcul des vibrations en moyennes fréquences, sera l'approche privilégiée. Pour pouvoir utiliser conjointement ces deux approches, la contribution majeure de ce travail propose « une version sous structurée » de la TURC qui considère l'interface comme une sous structure à part entière, possédant ses propres inconnues et équations. La validation de cette variante, ainsi que la robustesse de la méthode de recalage sont étudiées en s'appuyant sur des essais simulés numériquement.
112

Une stratégie d'identification robuste pour la localisation et la rupture

Nguyen, Hong-Minh 15 December 2006 (has links) (PDF)
L'objectif de la thèse est de proposer une stratégie robuste permettant l'identification en dynamique transitoire de loi de comportement gouvernant la réponse du matériau jusqu'à la rupture. Il s'agit d'être à même d'identifier les paramètres matériaux supposés gouverner la rupture dans un contexte où les données expérimentales sont fortement incertaines. Faisant suite à un premier travail où la stratégie avait été élaborée dans un cadre élastique, le travail s'est concentré sur l'extension de la méthode d'identification pour les cas non linéaires tout d'abord la viscoplasticité puis les modéles d'endommagement à taux limités.<br />Les difficultés rencontrées dans ces cas résident dans la non-linéarité et le caractère instable du problème de minimisation sous contraintes non linéaires auquel la formulation nous amène. Une extension de la méthode LATIN aux problèmes mal posés a été proposée et développée afin de permettre la résolution itérative de ce type de problèmes d'optimisation. La résolution de ces derniers fait appel à une méthode de traitement robuste issue du contrôle optimal et basée sur l'équation de Riccati.<br />Une fois ces difficultés résolues et dans les cas simples unidimensionnels traités pour le moment, la stratégie d'identification proposée s'avère très robuste face aux perturbations des mesures même dans le cas très sévère de la localisation et de la rupture.
113

Estimation d'erreur de discrétisation dans les calculs par décomposition de domaine

Parret-fréaud, Augustin 28 June 2011 (has links) (PDF)
Le contrôle de la qualité des calculs de structure suscite un intérêt croissant dans les processus de conception et de certification. Il repose sur l'utilisation d'estimateurs d'erreur, dont la mise en pratique entraîne un sur-coût numérique souvent prohibitif sur des calculs de grande taille. Le présent travail propose une nouvelle procédure permettant l'obtention d'une estimation garantie de l'erreur de discrétisation dans le cadre de problèmes linéaires élastiques résolus au moyen d'approches par décomposition de domaine. La méthode repose sur l'extension du concept d'erreur en relation de comportement au cadre des décompositions de domaine sans recouvrement, en s'appuyant sur la construction de champs admissibles aux interfaces. Son développement dans le cadre des approches FETI et BDD permet d'accéder à une mesure pertinente de l'erreur de discrétisation bien avant convergence du solveur lié à la décomposition de domaine. Une extension de la procédure d'estimation aux problèmes hétérogènes est également proposée. Le comportement de la méthode est illustré et discuté sur plusieurs exemples numériques en dimension 2.
114

Erreurs arithmétiques des élèves et interventions de l'enseignant débutant : une analyse didactique en termes de schèmes

Normandeau, Marie-Pierre 01 1900 (has links)
Ancrée dans le domaine de la didactique des mathématiques, notre thèse cible le « travail de l’erreur » effectué par trois enseignants dans leur première année de carrière. Libérés des contraintes associées au système de formation initiale, ces sujets assument pleinement leur nouveau rôle au sein de la classe ordinaire. Ils se chargent, entre autres, de l’enseignement de l’arithmétique et, plus précisément, de la division euclidienne. Parmi leurs responsabilités se trouvent le repérage et l’intervention sur les procédures erronées. Le « travail de l’erreur » constitue l’expression spécifique désignant cette double tâche (Portugais 1995). À partir d’un dispositif de recherche combinant les méthodes d’observation et d’entrevue, nous documentons des séances d’enseignement afin de dégager les situations où nos maîtres du primaire identifient des erreurs dans les procédures algorithmiques des élèves et déploient, subséquemment, des stratégies d’intervention. Nous montrons comment ces deux activités sont coordonnées en décrivant les choix, décisions et actions mises en œuvre par nos sujets. Il nous est alors possible d’exposer l’organisation de la conduite de ces jeunes enseignants en fonction du traitement effectif de l’erreur arithmétique. En prenant appui sur la théorie de champs conceptuels (Vergnaud 1991), nous révélons l’implicite des connaissances mobilisées par nos sujets et mettons en relief les mécanismes cognitifs qui sous-tendent cette activité professionnelle. Nous pouvons ainsi témoigner, du moins en partie, du travail de conceptualisation réalisé in situ. Ce travail analytique permet de proposer l’existence d’un schème du travail de l’erreur chez ces maîtres débutants, mais aussi de spécifier sa nature et son fonctionnement. En explorant le versant cognitif de l’activité enseignante, notre thèse aborde une nouvelle perspective associée au thème du repérage et de l’intervention sur l’erreur de calcul de divisions en colonne. / Rooted in the Didactic of Mathematics’ field, this thesis looks into the practice of three new teachers. Free from the constraints and pressures associated with the teacher training context, these subjects take on a new role in their first year on the job. Among all of the affiliated responsibilities are those related to the teaching of arithmetic and, more specifically, the long division algorithm. “Le travail de l’erreur” is the expression used by Portugais (1995) to design error management by the teacher. It includes the diagnosis of errors and the strategies unfurled to help the pupil remedy his/her mistakes. This double task is the object of this study. Combining research methods of observation and interview, we aim to describe error management in a regular elementary class setting. We delineate situations where our subjects identify and intervene on errors made by students during the arithmetic procedure. We examine how these two activities are coordinated, by documenting the novice teachers choices, decisions and actions. We focus on the organization of their conduct throughout the different situations. A theoretical framework based on the “conceptual field theory” or “théorie des champs conceptuels” (Vergnaud, 1991) enables us to reveal the implicit teaching knowledge comprised in the behavior adopted by the young professionals. This analysis reveals the dynamics of piagetian assimilation/ accommodation mechanisms. It also gives us evidence of the conceptualizing process underlying teacher conduct. We utilize the concept of “scheme” to better understand this cognitive activity. We propose the existence of “le schème du travail de l’erreur” and aim to specify his nature and function. This allows us to describe the conceptual structure, which shapes and organizes the novice’s ability to manage errors in their pupil’s calculation of written divisions.
115

Chimères, données manquantes et congruence : validation de différentes méthodes par simulations et application à la phylogénie des mammifères

Campbell, Véronique January 2009 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
116

Approche cognitive en didactique des langues : analyse et interprétation d'erreurs écrites prototypiques en français langue étrangère par des apprenants chinois et remédiation

Ying, Xiaohua 14 June 2013 (has links) (PDF)
Notre thèse est une thèse de linguistique française. Elle a pour but d'analyser et d'interpréter les erreurs à l'écrit en FLE par des apprenants chinois aux niveaux débutant et intermédiaire, de proposer un processus de remédiation aux erreurs récurrentes ayant un certain degré de prototypie et de procurer une meilleure méthodologie en didactique du FLE en Chine. L'erreur n'est pas un item à corriger qui implique le remplacement par une forme correcte, mais un révélateur significatif qui nous permet d'entrevoir le processus d'apprentissage chez l'apprenant. Notre analyse d'erreurs adopte donc une dimension cognitive. Du point de vue théorique, elle porte sur l'analyse linguistique des erreurs ; du point de vue pratique, elle porte sur la remédiation envisageable comprenant à la fois une micro-remédiation qui recherche la motivation linguistique permettant de faciliter l'apprentissage des points langue et une macro-remédiation qui vise à promouvoir une approche cognitive en didactique du FLE afin de doter l'apprenant d'une compétence métacognitive et de le transformer en sujet de l'apprentissage.
117

Architectures pour des circuits fiables de hautes performances

Bonnoit, Thierry 18 October 2012 (has links) (PDF)
Les technologies nanométriques ont réduit la fiabilité des circuits électroniques, notamment en les rendant plus sensible aux phénomènes extérieurs. Cela peut provoquer une modification des composants de stockage, ou la perturbation de fonctions logiques. Ce problème est plus préoccupant pour les mémoires, plus sensibles aux perturbations extérieures. Les codes correcteurs d'erreurs constituent l'une des solutions les plus utilisées, mais les contraintes de fiabilité conduisent à utiliser des codes plus complexes, et qui ont une influence négative sur la bande passante du système. Nous proposons une méthode qui supprime la perte de temps due à ces codes lors de l'écriture des données en mémoire, et la limite aux seuls cas où une erreur est détectée lors de la lecture. Pour cela on procède à la décontamination du circuit après qu'une donnée erronée ait été propagée dans le circuit, ce qui nécessite de restaurer certains des états précédents de quelques composants de stockage par l'ajout de FIFO. Un algorithme identifiant leurs lieux d'implémentation a également été créé. Nous avons ensuite évalué l'impact de cette méthode dans le contexte plus large suivant : la restauration d'un état précédent de l'ensemble du circuit en vue de corriger une erreur transistoire susceptible de se produire n'importe où dans le circuit.
118

Développements d'indicateurs de qualité dans la modélisation des ouvrages géotechniques par la méthode des éléments finis : applications aux soutènements

Vulpe, Cristina 07 September 2011 (has links) (PDF)
Notre thèse propose d'étudier la précision des calculs par la méthode des éléments finis (MEF) au moyen "d'indicateurs de qualité". Les indicateurs de qualité représentent des formules simples qui permettent d'évaluer la qualité des calculs par éléments finis. La qualité de l'analyse numérique est évaluée par rapport à la discrétisation. Le modèle mathématique est considéré correct et les erreurs résultant du choix des propriétés des matériaux ne sont pas pris en compte. Nous avons défini les formulations mathématiques de ces indicateurs de qualité, ainsi que leurs limites inférieures et supérieures. Grâce au choix de formulations simples, il est facile de les introduire dans un logiciel de calcul par éléments finis. Ils ont été implémentés dans le code de calcul CESAR-LCPC, module Mécanique en Comportement Non Linéaire. Afin de démontrer qu'ils ont été correctement définis et de tester leur fiabilité, ces indicateurs de qualité sont testés sur un certain nombre de problèmes simples en 2D et en 3D. Après avoir prouvé leur capacité à caractériser la qualité de la discrétisation des modèles d'éléments finis, nous les avons testés sur le cas d'une excavation de palplanches butonnées (site expérimental de Hochstetten, près de Karlsruhe). La précision des résultats en termes de propriétés mécaniques choisies pour le sol et les structures n'a pas été étudiée. Nous avons également démontré que les résultats sont indépendants des propriétés mécaniques choisies pour le sol ou la structure
119

Enjeux politiques du rationalisme critique chez Karl Popper.

Abessolo Metogo, Christel-Donald 27 June 2013 (has links) (PDF)
L'intérêt de l'humanité pour la connaissance se joue sur deux fronts : celui de la réduction de l'ignorance, et celui de l'action tant individuelle que collective. Aussi la manière dont nous acquérons le savoir est-elle essentielle, parce qu'elle préjuge aussi bien de notre perception du monde que de notre conscience de nous-mêmes et de la société. Car si, avec la raison comme alliée, l'homme se découvre des potentialités illimitées, nous aurions pourtant tort de passe outre une stricte réalité, celle de notre ignorance infinie, celle, au fond, de notre incapacité à cerner, de façon sûre et certaine, quoi que ce soit de ce monde complexe et en évolution constante qui nous accueille. C'est pourquoi, pour Karl Popper, toute rationalité véritable doit être critique, c'est-à-dire pluraliste et débattante, seule façon de considérer objectivement l'écart qui nous sépare de la vérité et, par suite, d'agir avec prudence et discernement, dans l'intérêt de la science comme dans celui de la collectivité.
120

Modélisation et étude 3D des phénomènes adiabatiques dans les procédés de mise en forme à grande vitesse

Delalondre, Fabien 19 December 2008 (has links) (PDF)
Malgré des résultats prometteurs, les procédés de mise en forme à grande vitesse sont encore peu utilisés dans l'industrie du fait d'un manque de compréhension du phénomène de Bande de Cisaillement Adiabatique (BCA).Ce travail présente le développement d'outils numériques permettant la simulation adaptative et l'analyse de BCA dans des procédés 3D de mise en forme à grande vitesse. L'utilisation du modèle ALE-adaptatif séquentiel développé dans le logiciel Forge3 permet pour la première fois la simulation automatique de BCA 3D. L'étude des résultats numériques permet de proposer une description innovante du processus de formation de BCA. Les moyens de calcul requis s'avérant très importants, un nouveau code éléments finis hautement parallèle appelé Forge++ est développé. Ce dernier inclut de nouveaux algorithmes tels que le couplage thermomécanique implicite, la méthode de stabilisation RFB et un recouvrement par patch parallèle pour une meilleure simulation de BCA.

Page generated in 0.0466 seconds