• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 689
  • 334
  • 67
  • 2
  • Tagged with
  • 1109
  • 510
  • 292
  • 197
  • 166
  • 141
  • 121
  • 110
  • 103
  • 98
  • 97
  • 97
  • 89
  • 81
  • 75
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
561

CARACTERISATION DES IMPACTS SUR UNE GALERIE « PARE-BLOCS STRUCTURELLEMENT DISSIPANT »

Boukria, Zoheir 08 December 2009 (has links) (PDF)
Cette thèse a pour objectif de quantifier l'aléa rocheux de type chute de blocs sur une galerie pare-blocs et ainsi pouvoir intégrer cette structure dans un système de détection et d'alerte de l'activité d'un versant rocheux. Pour ce type de problème, les méthodes inverses peuvent permettre une caractérisation (identification et localisation) de l'effort subi par la structure. Ces méthodes sont largement utilisées pour des structures de type poutre et plaques sous charges dynamiques inconnues. Pour résoudre ce genre de problème, l'une des approches les plus utilisées est de créer les fonctions de transfert entre des points d'impact et de mesure sur la structure expérimentalement ou numériquement, de mesurer les réponses, et de trouver la force par déconvolution du signal. Il est connu que ce type de problème est « mal posé ». Afin d'obtenir une solution stable ayant un sens physique, il faut généralement avoir recours à la régularisation soit par filtrage du bruit, soit par des méthodes de régularisation classique, telle que celle de Tikhonov. Le problème de caractérisation des impacts sur une structure devient plus complexe lorsque la localisation du point d'impact est inconnu. Pour résoudre ce problème, on peut utiliser une approche basée sur la minimisation d'une fonctionnelle représentant l'erreur entre les réponses mesurées et estimées en plusieurs points formant un quadrillage sur la structure. Dans le cas d'une structure en situation réelle avec des conditions aux limites complexes, Il est préférable d'opter pour une approche expérimentale. Une série d'essai sur des structures simples de type poutre et plaque permet de contrôler les paramètres influants sur la qualité de reconstruction de l'effort. Afin de recréer les caractéristiques de la structure et son comportement, une application de la démarche sur une dalle en béton armé s'avère la plus appropriée. En utilisant les fonctions de transfert obtenues expérimentalement et validées numériquement, la localisation des efforts et l'identification de leurs historiques devient possible. Cette étude ouvre les perspectives d'étendre l'application des méthodes inverses à la caractérisation des efforts de type souffle générés par une avalanche ou par une explosion.
562

Contribution à l'étude des interactions fluide-structure pour l'analyse de l'impact hydrodynamique d'un système de flottabilité d'hélicoptère

Malleron, Nicolas 07 April 2009 (has links) (PDF)
Les travaux réalisés au cours de cette thèse portent sur l'étude du phénomène d'impact hydrodynamique et sa modélisation. Une revue bibliographique des modèles pouvant être utilisés pour rendre compte de ce phénomène est proposée. Un modèle, dit modèle de Wagner généralisé, est ensuite développé. Proposé originellement par Zhao et Faltinsen en 1996 pour traiter de l'impact de formes 2D symétriques, il est ici étendu à des formes asymétriques et analysé de manière approfondie. Ce modèle est ensuite utilisé dans une approche couplée, pour rendre compte du comportement élastique de structures simples, se déformant au cours de l'impact. Enfin, les résultats de deux campagnes expérimentales sont présentés. La première campagne porte sur l'étude de l'impact d'une sphère élastique de taille réduite. La seconde traite de l'impact sur l'eau d'un système de flottabilité réel d'hélicoptère. Dans les deux cas, des modèles numériques sont utilisés pour tenter de reproduire au mieux l'évolution de chacun des systèmes.
563

Nouvelles approximations numériques pour les équations de Stokes et l'équation Level Set

Malcom, Djenno Ngomanda 14 December 2007 (has links) (PDF)
Ce travail de thèse est consacré à deux thèmes de recherche en Calcul Scientifique liés par l'approximation numérique de problèmes en mécanique des fluides. Le premier thème concerne l'approximation numérique des équations de Stokes, modélisant les écoulements de fluides incompressibles à vitesse faible. Ce thème est présent dans plusieurs travaux en Calcul Scientifique. La discrétisation en temps est réalisée à l'aide de la méthode de projection. La discrétisation en espace utilise la méthode des éléments finis mixtes hybrides qui permet d'imposer de façon exacte la contrainte d'incompressibilité. Cette approche est originale: la méthode des éléments mixtes hybrides est couplée avec une méthode d'éléments finis standards. L'ordre de convergence des deux méthodes est préservé. Le second thème concerne la mise au point de méthodes numériques de type volumes finis pour la résolution de l'équation Level Set. Ces équations interviennent de manière essentielle dans la résolution des problèmes de propagation d'interfaces. Dans cette partie, nous avons développé une nouvelle méthode d'ordre 2 de type MUSCL pour résoudre le système hyperbolique résultant de l'équation Level Set. Nous illustrons ces propriétés par des applications numériques. En particulier nous avons regardé le cas du problème des deux demi-plans pour lequel notre schéma donne une approximation pour le gradient de la fonction Level Set. Par ailleurs, l'ordre de précision attendu est obtenu avec les normes $L_1$ et $L_{\infty}$ pour des fonctions régulières. Pour finir, il est à noter que notre méthode peut être facilement étendue aux problèmes d'Hamilton-Jacobi du premier et du second ordre.
564

Caractérisation de systèmes particulaires par inversion des diagrammes de diffusion critique de la lumière

Krzysiek, Mariusz 08 December 2009 (has links) (PDF)
Ce travail de thèse de doctorat étudie la diffusion de la lumière par des nuages de bulles au voisinage de l'angle de diffusion critique. Les bulles sont définies comme des particules dont l'indice de réfraction relatif est inférieur à l'unité. Dans l'hypothèse d'un régime de diffusion simple, le diagramme de diffusion critique produit par un ensemble de bulles peut être modélisé à l'aide de la théorie de Lorenz-Mie et d'une intégrale de Fredholm du premier type. Fondamentalement, ces diagrammes sont composés d'arcs (ou franges circulaires) qui présentent de grandes similarités avec ceux observés dans la zone de diffraction vers l'avant ou la région de l'angle d'arc-en-ciel. Il existe un lien clair entre l'étalement angulaire, la visibilité et la position globale de ces arcs avec le diamètre moyen, la dispersion et l'indice de réfraction (c.-à-d. composition) des bulles diffusantes. Différents effets particuliers ont été étudiés, comme ceux liés au profil d'intensité gaussien du faisceau laser incident, les effets de filtrage spatial de l'optique de Fourier, la non sphéricité des bulles, la possibilité de produire l'équivalent d'un arc-en-ciel sous-marin. Des simulations numériques, ainsi que la mise au point de différentes méthodes d'inversion et expériences ont permis de démontrer la validité et la fiabilité de ce que nous avons appelé la « Critical-Angle Refractometry and Sizing (CARS) technique ». Au delà des aspects fondamentaux, cette nouvelle méthode optique de caractérisation de particules s'avère prometteuse pour l'étude des écoulements à bulles et plus particulièrement quand la composition des bulles est recherchée.
565

Estimation des paramètres de transport en milieu hydro-géologique et analyse d'incertitudes

Migliore, Thomas 07 December 2009 (has links) (PDF)
Dans cette thèse, nous nous sommes intéressés à l'estimation des paramètres de transport de solutés dans un milieu poreux peu perméable, d'un point de vue théorique et appliqué, en lien avec le stockage des déchets nucléaires à vie longue en couche géologique profonde. La problématique de la gestion des déchets nucléaires est devenue durant ces dernières années une préoccupation importante de la société. Les modèles mathématiques utilisés pour le stockage des déchets en site profond sont basés sur les équations d'écoulement et de transport en milieu poreux. Ces modèles nécessitent de connaître les paramètres physiques des différentes couches géologiques. Ces paramètres (porosité et diffusion) n'étant pas accessibles directement, nous avons dans un premier temps étudié l'aspect identification de paramètres à zones fixées. Pour résoudre notre problème inverse, nous avons utilisé des méthodes déterministes (ou variationnelles) basées sur la minimisation d'un critère (ou fonction coût) quadratique, l'objectif étant de trouver l'ensemble des paramètres qui minimisent le critère. Nous avons décomposé le milieu en zones homogènes dans lesquelles les coefficients ont été identifiés (technique de zonation). Pour cela, nous avons différentié le code de convection-diffusion Traces avec le logiciel de différentiation automatique Tapenade afin d'obtenir le code adjoint de Traces. Dans un second temps, nous avons utilisé ce travail pour résoudre le problème d'identification de zones. On a cherché, partant d'une configuration géologique modifiée, à retrouver la configuration géologique réelle en identifiant les paramètres qui ont pour support ces zones. En regroupant ensuite par isovaleurs les coefficients identifiés, nous avons obtenu la configuration recherchée.
566

Localisation et suivi d'activité fonctionnelle cérébrale en électro et magnétoencéphalographie: Méthodes et applications au système visuel humain

Gramfort, Alexandre 12 October 2009 (has links) (PDF)
Cette thèse est consacrée à l'étude des signaux mesurés par Electroencéphalographie (EEG) et Magnétoencéphalographie (MEG) afin d'améliorer notre compréhension du cerveau humain. La MEG et l'EEG sont des modalités d'imagerie cérébrale non invasives. Elles permettent de mesurer, hors de la tête, respectivement le potentiel électrique et le champ magnétique induits par l'activité neuronale. Le principal objectif lié à l'exploitation de ces données est la localisation dans l'espace et dans le temps des sources de courant ayant généré les mesures. Pour ce faire, il est nécessaire de résoudre un certain nombre de problèmes mathématiques et informatiques difficiles. La première partie de cette thèse part de la présentation des fondements biologiques à l'origine des données M/EEG, jusqu'à la résolution du problème direct. Le problème direct permet de prédire les mesures générées pour une configuration de sources de courant donnée. La résolution de ce problème à l'aide des équations de Maxwell dans l'approximation quasi-statique passe par la modélisation des générateurs de courants, ainsi que de la géométrie du milieu conducteur, dans notre cas la tête. Cette modélisation aboutit à un problème direct linéaire qui n'admet pas de solution analytique lorsque l'on considère des modèles de tête réalistes. Notre première contribution porte sur l'implémentation d'une résolution numérique à base d'éléments finis surfaciques dont nous montrons l'excellente précision comparativement aux autres implémentations disponibles. Une fois le problème direct calculé, l'étape suivante consiste à estimer les positions et les amplitudes des sources ayant généré les mesures. Il s'agit de résoudre le problème inverse. Pour ce faire, trois méthodes existent: les méthodes paramétriques, les méthodes dites de "scanning", et les méthodes distribuées. Cette dernière approche fournit un cadre rigoureux à la résolution de problème inverse tout en évitant de faire de trop importantes approximations dans la modélisation. Toutefois, elle impose de résoudre un problème fortement sous-contraint qui nécessite de fait d'imposer des a priori sur les solutions. Ainsi la deuxième partie de cette thèse est consacrée aux différents types d'a priori pouvant être utilisés dans le problème inverse. Leur présentation part des méthodes de résolution mathématiques jusqu'aux détails d'implémentation et à leur utilisation en pratique sur des tailles de problèmes réalistes. Un intérêt particulier est porté aux a priori induisant de la parcimonie et conduisant à l'optimisation de problèmes convexes non différentiables pour lesquels sont présentées des méthodes d'optimisation efficaces à base d'itérations proximales. La troisième partie porte sur l'utilisation des méthodes exposées précédemment afin d'estimer des cartes rétinotopiques dans le système visuel à l'aide de données MEG. La présentation porte à la fois sur les aspects expérimentaux liés au protocole d'acquisition jusqu'à la mise en oeuvre du problème inverse en exploitant des propriétés sur le spectre du signal mesuré. La contribution suivante ambitionne d'aller plus loin que la simple localisation d'activités par le problème inverse afin de donner accès à la dynamique de l'activité corticale. Partant des estimations de sources sur le maillage cortical, la méthode proposée utilise des méthodes d'optimisation combinatoires à base de coupes de graphes afin d'effectuer de façon robuste le suivi de l'activité au cours du temps. La dernière contribution de cette thèse porte sur l'estimation de paramètres sur des données M/EEG brutes non moyennées. Compte tenu du faible rapport signal à bruit, l'analyse de données M/EEG dites "simple essai" est un problème particulièrement difficile dont l'intérêt est fondamental afin d'aller plus loin que l'analyse de données moyennées en explorant la variabilité inter-essais. La méthode proposée utilise des outils récents à base de graphes. Elle garantit des optimisations globales et s'affranchit de problèmes classiques tels que l'initialisation des paramètres ou l'utilisation du signal moyenné dans l'estimation. L'ensemble des méthodes développées durant cette thèse ont été utilisées sur des données M/EEG réels afin de garantir leur pertinence dans le contexte expérimental parfois complexe des signaux réelles M/EEG. Les implémentations et les données nécessaires à la reproductibilité des résultats sont disponibles. Le projet de rétinotopie par l'exploitation de données de MEG a été mené en collaboration avec l'équipe du LENA au sein de l'hôpital de La Pitié-Salpêtrière (Paris).
567

Contraintes microscopiques et au-delà du champ moyen pour une nouvelle génération de fonctionnelles de la densité nucléaires

Lesinski, Thomas 24 September 2008 (has links) (PDF)
La structure nucléaire connaît une véritable renaissance liée au développement des faisceaux d'ions radioactifs (tels les faisceaux SPIRAL 1 et 2 au GANIL). Les méthodes de champ moyen et/ou de fonctionnelle de la densité sont parmi les outils les plus généraux et les mieux adaptés pour étudier les noyaux qui sont produits auprès de tels instruments. Le but du travail présenté est de montrer comment les fonctionnelles existantes peuvent être améliorées afin d'avoir un meilleur pouvoir prédictif dans les régions encore peu explorées de la carte des noyaux. Il est en particulier proposé de mieux modéliser la dépendance en isospin de l'interaction effective, et l'intérêt d'y ajouter un couplage de type tensoriel est étudié. Nous mesurons également l'apport de calculs au-delà de l'approximation du champ moyen lors de la construction de la fonctionnelle. Finalement, nous tentons d'établir le lien avec l'interaction nue entre nucléons pour la description de l'appariement, participant ainsi au développement d'une fonctionnelle non-empirique.
568

Potentialités d'une mesure télédétectée du dioxyde de carbone atmosphérique par spectrométrie par transformation de Fourier statique

Lacan, Antoine 03 April 2009 (has links) (PDF)
L'amélioration de la prédiction de l'ampleur du réchauffement climatique requiert une mesure de la concentration en CO2 dans l'atmosphère à l'échelle globale. Une mesure satellitale pourrait combler ce besoin. Le CNES a développé un instrument de nouvelle génération adapté aux applications de sondage atmosphérique. Cet instrument, un spectromètre par transformation de Fourier statique, présente une masse et des dimensions réduites par rapport aux spectromètres classiques. On étudie l'application du concept à la mesure du CO2, à l'aide d'une maquette au sol représentative d'un instrument embarqué. Celle-ci mesure le spectre solaire à travers l'atmosphère dans une bande d'absorption du CO2 autour de 1,6 µm. La concentration en CO2 est déduite de la profondeur des raies d'absorption. On présente le concept ainsi que sa mise en oeuvre expérimentale, tant pour la conception de l'instrument que pour son étalonnage et le traitement des données. Le contenu en information de la mesure est évalué. On présente la procédure d'inversion des mesures. On estime par simulation que l'erreur d'inversion est de l'ordre de ±0,6 ppm pour un objectif de ±1 ppm. Les résultats d'une campagne de mesures atmosphériques sont enfin donnés. Ils mettent en évidence les bonnes performances de l'instrument : on atteint des précisions de mesure compatibles avec l'objectif. La campagne révèle également une sensibilité de l'instrument à des paramètres autres que le CO2. Les déformations du spectromètre, dues aux variations thermiques du laboratoire, pourraient par exemple être à l'origine d'erreurs de mesure significatives. Des améliorations simples permettant d'augmenter la précision de mesure sont proposées.
569

Etude épistémologique et didactique de la preuve en mathématiques et de son enseignement. Une ingénierie de formation

Gandit, Michèle 28 October 2008 (has links) (PDF)
L'étude réalisée montre un décalage important entre la preuve en mathématiques et la preuve telle qu'elle vit en classe, surtout au collège : actuellement la transposition didactique dénature son sens, réduisant son apprentissage à celui de savoir faire des exercices d'écriture formelle. Il s'avère nécessaire de changer les pratiques, pour que la preuve soit enseignée de manière plus satisfaisante sur les plans épistémologique et didactique. Nous montrons qu'il est pertinent, et possible, d'amorcer ce changement par un travail sur les conceptions des enseignants. Pour cela nous proposons une ingénierie de formation fondée sur trois problèmes : tout d'abord est montré le rapport existant des élèves à la preuve ; ensuite, les enseignants, mis en situation de recherche de problèmes, produisent des preuves. Les résultats obtenus à partir des problèmes choisis permettent à la fois de préciser le rapport des enseignants à la preuve et d'amorcer avec eux une réflexion sur leurs pratiques.
570

INVERSION DES MODELES STOCHASTIQUES DE MILIEUX HETEROGENES

Romary, Thomas 19 December 2008 (has links) (PDF)
La problématique du calage d'historique en ingénierie de réservoir, c'est-à-dire le calage des modèles géostatistiques aux données de production, est un problème inverse mal posé. Dans un cadre bayésien, sa résolution suppose l'inférence de la distribution de probabilité du modèle géostatistique conditionné aux données dynamiques, rendant compte à la fois de l'a priori géologique, exprimé dans le modèle géostatistique, et de l'adéquation aux données de production. Typiquement, la résolution de ce problème passe par la génération d'un ensemble de réalisations calées aux données, échantillon représentatif de cette distribution. Les modèles géostatistiques sont en général discrétisés sur des grilles de plusieurs centaines de milliers, voire des millions de blocs ; les approches classiques tentent de résoudre le problème inverse en considérant l'ensemble des blocs comme paramètres du modèle. Sa dimension est alors considérable et les méthodes d'échantillonnages deviennent impraticables sur un cas réel. Il convient alors de choisir une paramétrisation susceptible de réduire la dimension du problème. Dans la première partie de cette thèse, nous présentons une méthode de paramétrisation optimale des modèles géostatistiques basés sur les champs aléatoires gaussiens, à partir de leur décomposition de Karhunen-Loève (KL). Nous en décrivons les fondements théo- riques, puis, sur des applications aux modèles de champs aléatoires gaussiens courants en géostatistique, selon des critères d'abord statistiques puis hydrodynamiques, nous quantifions la réduction de la dimension du problème offerte par cette paramétrisation. Dans la seconde partie, nous présentons les principes des méthodes de Monte-Carlo par Chaînes de Markov (MCMC) et les défauts des méthodes classiques pour la résolution du problème inverse dans le cadre bayésien. Nous développons alors l'approche par chaînes de Markov en interaction dont nous exposons les avantages. Enfin, les résultats obtenus par l'emploi conjoint de ces deux méthodes sont présentés dans deux articles. Une approche différente, passant par l'emploi de méthodes d'analyse de sensibilité, est également décrite dans un troisième article.

Page generated in 0.0224 seconds