• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 364
  • 85
  • 25
  • 11
  • 4
  • 4
  • 4
  • 1
  • 1
  • Tagged with
  • 515
  • 152
  • 116
  • 108
  • 81
  • 64
  • 55
  • 47
  • 43
  • 42
  • 41
  • 36
  • 36
  • 35
  • 35
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Étude de différents aspects des EDP hyperboliques : persistance d'onde de choc dans la dynamique des fluides compressibles, modélisation du trafic routier, stabilité des lois de conservation scalaires.

Lécureux-Mercier, Magali 07 December 2009 (has links) (PDF)
On étudie dans ce travail des systèmes de lois de conservation hyperboliques. La première partie étudie le temps d'existence des solutions régulières et régulières par morceaux de la dynamique des fluides compressibles. Après avoir présenté l'état de l'art en matière de solutions régulières, on montre une extension d'un théorème de Grassin à des gaz de Van der Waals. On étudie ensuite les solutions ondes de chocs : on poursuit l'approche de T. T. Li pour estimer leur temps d'existence dans le cas isentropique à symétrie sphérique, et l'approche de Whitham afin d'obtenir une équation approchée vérifiée par la surface de discontinuité. Dans une deuxième partie, motivée par la modélisation d'un rond-point en trafic routier, on étudie une extension multi-classe du modèle macroscopique de Lighthill-Whitham-Richards sur une route infinie avec des jonctions. On différencie les véhicules selon leur origine et leur destination et on introduit des conditions aux bord adaptées au niveau des jonctions. On obtient existence et unicité d'une solution au problème de Riemann pour ce modèle. Des simulations numériques attestent que les solutions obtenues existent en temps long. On aborde enfin le problème de Cauchy par la méthode de front tracking. La dernière partie concerne les lois de conservation scalaires. La première question abordée est le contrôle de la variation totale de la solution et la stabilité des solutions faibles entropiques par rapport au flux et à la source. Ce résultat nous permet d'étudier des équations avec flux non-local. Une fois établi leur caractère bien posé, on montre la Gâteaux-différentiabilité du semi-groupe obtenu par rapport aux conditions initiales.
272

Histoire et Enseignement de la Physique : Lumière, Planètes, Relativité et Quanta

Bracco, Christian 15 March 2010 (has links) (PDF)
Il est possible de concevoir un enseignement de la physique qui incorpore l'histoire de la physique sur un mode qui n'est ni anecdotique, ni autonome et qui peut être décliné à différents niveaux de la formation, des élèves de lycée aux enseignants à l'université. L'introduction du manuscrit porte sur une mise en perspective de la démarche proposée avec des recherches antérieures. Le manuscrit est composé de quatre parties. Dans la partie I, après avoir rappelé les objectifs qui ont prévalu à la réalisation du cédérom « Histoire des idées sur la lumière - de l'Antiquité au début du XXe siècle », qui aborde la lumière à travers une approche historique, expérimentale et philosophique, je propose une utilisation de ce cédérom pour l'enseignement de la diffraction par une approche historique (la disparition des franges intérieures dans l'ombre d'un fil). Dans la partie II, je précise l'enjeu que constitue l'utilisation de la figure géométrique de Newton (1684), accompagnée des coordonnées polaires et des vecteurs, pour mettre à la portée d'un large public l'un des grands succès de la pensée scientifique : la détermination des trajectoires elliptiques des planètes (sans utilisation du calcul différentiel). Dans cette partie, je reviens également sur le modèle d'équant de Kepler, souvent assimilé à un échec, alors qu'il peut ouvrir la voie, dans le cadre de la formation des enseignants, à une discussion renouvelée des dynamiques aristotélicienne et newtonienne. La partie III est une analyse historique de "La Dynamique de l'électron" de Henri Poincaré. Après avoir rappelé le point de vue général de Poincaré sur les sciences et leur enseignement, et avoir situé son travail dans la lignée de Lorentz et des connaissances des géomètres, je reviens sur quatre clés que nous avons proposées (avec Jean-Pierre Provost) pour comprendre la logique du Mémoire : l'utilisation de transformations de Lorentz actives, le rôle de l'action et de son invariance, l'origine de la condition de groupe pour éliminer les dilatations (à travers les lettres à Lorentz de mai 1905) et le rôle des modèles d'électron comme théorème d'existence de la nouvelle dynamique. Dans la quatrième et dernière partie, je donne un historique des travaux de Planck et d'Einstein sur les quanta, afin de comparer leurs approches (étude des dépendances énergétique ou volumique de l'entropie du corps noir) et de les replacer dans une perspective moderne où la notion de mode quantique est la notion fondamentale. Je reviens ensuite sur deux questions naturelles que posent les quanta d'Einstein de mars 1905 pour des étudiants abordant la relativité et le quantique : leur vitesse (à laquelle répond le second postulat de la relativité) et leur indépendance (assujettie au retour à loi de Wien de 1896).
273

Développement de méthodes statistiques et probabilistes en corrosion par piqûres pour l'estimation de la profondeur maximale : application à l'aluminium A5

Jarrah, Adil 08 December 2009 (has links) (PDF)
La corrosion par piqûres est l'une des formes de corrosion les plus répandues. Elle touche tous les matériaux et se place dans un contexte économique très important. Elle peut se manifester à des endroits spécifiques de la structure et mener à sa détérioration en particulier en présence de sollicitations mécaniques. L'aspect stochastique du phénomène a conduit au développement de méthodes statistiques pour le caractériser. Cette caractérisation est souvent faite via l'estimation de la profondeur maximale des piqûres afin d'évaluer le risque de perforation de la structure. Pour cela, la méthode de Gumbel est l'approche la plus utilisée. L'objectif de ce travail est de revenir sur la vérification des conditions d'application de cette méthode notamment l'indépendance et de la comparer avec les autres approches basées sur la loi des valeurs extrêmes généralisée et la loi de dépassement de seuil. La condition d'indépendance est vérifiée à l'aide des processus spatiaux. Une adaptation de l'analyse spectrale en corrosion par piqûres est aussi proposée. La comparaison entre les approches est basée sur des simulations numériques dont les paramètres sont issus de l'expérimentation.
274

Sur l'identification des paramètres des lois de comportement des roches argileuses.

Lecampion, Brice 13 September 2002 (has links) (PDF)
Ce travail a pour but de mettre au point des méthodes d'identification des paramètres constitutifs des roches argileuses. Dans le cadre du projet de laboratoire de recherche souterrain de l'ANDRA, il est nécessaire de développer ce type de méthodes en vue de l'interprétation des nombreuses mesures qui seront pratiquées sur site. On s'est focalisé sur deux aspects rhéologiques majeurs du comportement de ce type de roche: le comportement poroélastique d'une part et le comportement élasto-viscoplastique d'autre part. La première partie se focalise sur l'identification des paramètresporoélastiques. Le chapitre 2 rappelle le problème direct et discute un certain nombre de points importants concernant le problème inverse d'identification. Le troisième chapitre est dédié à la formulation des techniques de calcul de gradient pour le cas poroélastique linéaire. La résolution numérique par éléments finis est discutée. Les méthodes de Différentiation directe et de l'état adjoint sont validées sur un exemple numérique bidimensionnel à l'aide du code de calcul par éléments finis Cast3M. Uidentificationdes coefficients poroélastiques des roches argileuses de Meuse Haute-Marne à partir d'essais de laboratoire est discutée en détail dans le chapitre 4. L'utilisation de solutions semi-explicites approchées des problèmes directs permet d'obtenir une méthode d'identification rapide. La deuxième partie du mémoire porte sur l'identification des paramètres élasto-viscoplastiques. Les traits ducomportementviscoplastiques des roches argileuses de Meuse Haute-Marne sont discutés dans le chapitre 5 sur la base des résultats expérimentaux. La modélisation de ce comportement est envisagée. On propose notamment un modèle viscoplastique avececrouissage isotrope non linéaire permettant de reproduire les essais. Les paramètres de cette loi de comportement sont identifiés sur un essai de fluage unîdîmensionnelen conditions drainées. Les déformations différées proviennent alors du comportement poroélastique et viscoplastique de la roche. On montre qu'il est possible de séparer ces deux phénomènes. Tous les paramètres poro-elastoviscoplastiques sont identifiés,une solution semi-explicite de l'essai de fluage est utilisée. Le chapitre 6 présente une méthode d'identification des paramètres élasto-viscoplastiques dans le cas général. Comme déjà présenté au cours du présent chapitre, l'identification se ramène à la minimisation d'une fonctionnelle coût. Le gradient de la fonctionnelle est calculé par Différentiation Directe. La méthode de Différentiation directe est développée dans Cast3M pour la loi élasto-visco-plastique de Norton-Hoff. L'identification des paramètres de cette loi sur des configurations unidimensionelleset bidimensionnelles d'ouvrages souterrains revêtus ou non est ensuite présentée. Les mesures sont simulées par un premier calcul direct puis éventuellement perturbées. L'unicité et la stabilité de ce problèmed'identification sont discutées. La méthode est ensuite appliquée dans le chapitre 7 à un cas réel : le tunnel de la Chamoise. Des modélisations unidimensionnelles et bidimensionnelles en déformation plane sont utilisées pour résoudre le problème direct. Les hypothèses de modélisation sont justifiées. Les paramètres obtenus permettent de reproduire convenablement les données. L'étude de ce cas réel permet également d'émettre un certain nombre de recommandations sur les dispositifs de mesure in situ en vue de l'identification des paramètres des lois de comportement.
275

Problèmes de contrôle optimal du type bilinéaire gouvernés par des équations aux dérivées partielles d'évolution

Clérin, Jean-Marc 18 November 2009 (has links) (PDF)
Cette thèse est une contribution à l'étude de problèmes de contrôle optimal dont le caractère non linéaire se traduit par la présence, dans les équations d'état, d'un terme bilinéaire relativement à l'état et au contrôle. Malgré les difficultés liées à la non linéarité, nous obtenons des propriétés spécifiques au cas bilinéaire. L'introduction générale constitue la première partie. La seconde partie est consacrée à l'étude des équations d'état ; ce sont des équations aux dérivées partielles d'évolution. Nous établissons des estimations a priori sur les solutions à partir des inégalités de Willett et Wong et nous démontrons que les équations d'états sont bien posées. Dans le cas où les contrôles subissent une contrainte liée aux états, ces estimations permettent de déduire l'existence de solutions dans le cadre des inclusions différentielles. Les troisième et quatrième parties de ce mémoire sont dévolues à la démonstration de l'existence de contrôles optimaux, puis à l'analyse de la sensibilité relative à une perturbation qui intervient de façon additive dans l'équation d'état. Le caractère bilinéaire permet de vérifier des conditions suffisantes d'optimalité du second ordre. Nous fournissons sur des exemples, une formule explicite des dérivées directionnelles de la fonction valeur optimale
276

Lois limites fonctionnelles pour le processus empirique et applications

Ouadah, Sarah 05 December 2012 (has links) (PDF)
Nous nous intéressons dans cette thèse à l'estimation non paramétrique de la densité à partir d'un échantillon aléatoire. Nous établissons des propriétés limites d'estimateurs de densité en les déduisant de lois limites fonctionnelles pour le processus empirique local, qui sont démontrées dans un contexte général. L'exposé de thèse, comprenant deux parties, est construit de la manière suivante. La première partie porte sur des lois limites fonctionnelles locales. Elles sont établies pour trois ensembles de suites de fonctions aléatoires, construites à partir: du processus empirique uniforme, du processus empirique de quantiles uniforme et du processus empirique de Kaplan-Meier. Ces lois sont uniformes relativement à la taille des incréments de ces processus empiriques locaux et décrivent le comportement asymptotique de la distance de Hausdorff entre chacun de ces trois ensembles et un ensemble de type Strassen. La deuxième partie porte sur l'estimation non paramétrique de la densité. Nous présentons plusieurs applications des lois limites fonctionnelles locales établies précédemment. Ces résultats comportent, d'une part, la description de lois limites pour des estimateurs non paramétriques de la densité, comprenant les estimateurs à noyau et les estimateurs de la densité par la méthode des plus proches voisins, et d'autre part, des lois limites pour les estimateurs à noyau de la densité des temps de survie et du taux de panne dans un modèle de censure à droite. Ces lois limites ont la particularité d'être établies, dans le cadre de la convergence en probabilité, uniformément relativement aux paramètres de lissage des estimateurs considérés.
277

Etude expérimentale du frottement glace-structure à l'échelle centimétrique

Fiorio, Bruno 28 January 2000 (has links) (PDF)
Dans les régions polaires, les ouvrages de génie civil subissent l'effet de la dérive des glaces. Celle-ci génère des sollicitations dynamiques contrôlées en partie par le frottement glace-structure. Des essais de frottement cycliques glace-béton ont été réalisés à -10°C, avec une boîte de cisaillement direct, pour différentes conditions de contact (contraintes normales de 25 à 800 kPa ; vitesses de 0,1 à 10 mm.mim-1; rugosité de la surface de béton de 0 à 0,55 mm). Des observations optiques de la glace et des mesures de suivi de la topographie de la surface de béton complètent ces essais. Ceux-ci montrent une augmentation du coefficient de frottement glace-béton au cours du temps, conséquence de la maturation du contact gouvernée par la déformation viscoplastique de la glace. Les résultats ont permis de formuler des lois d'interfaces définissant le coefficient de frottement en fonction des conditions de contact. Les observations optiques ont permis de caractériser les mécanismes physiques mis en jeu dans la glace au niveau de l'interface: déformation viscoplastique, adhérence, recristallisation, glissement aux joints de grains, micro et macrofissuration. La déformation viscoplastique et l'adhérence apparaissent comme les principaux responsables du comportement au frottement observé. Le suivi de la topographie de la surface de béton a permis de mettre en évidence l'usure du béton et d'en quantifier le taux. Une étude théorique du frottement complète ce travail expérimental. Elle prend en compte la déformation viscoplastique de la glace et l'adhérence glace-béton dans un modèle bidimensionnel de l'interface. Ce modèle rend compte convenablement des observations expérimentales et confirme le rôle de la déformation viscoplastique de la glace, qui crée un phénomène de portance limitant la pénétration des aspérités dans la glace, et celui de l'adhérence glace-béton. Il montre par ailleurs l'influence de la topographie de la plaque sur le frottement.
278

Analyse par ondelettes du mouvement multifractionnaire stable linéaire

Hamonier, Julien 07 November 2012 (has links) (PDF)
Le mouvement brownien fractionnaire (mbf) constitue un important outil de modélisation utilisé dans plusieurs domaines (biologie, économie, finance, géologie, hydrologie, télécommunications, etc.) ; toutefois, ce modèle ne parvient pas toujours à donner une description suffisamment fidèle de la réalité, à cause, entre autres, des deux limitations suivantes : d'une part le mbf est un processus gaussien, et d'autre part, sa rugosité locale (mesurée par un exposant de Hölder) reste la même tout le long de sa trajectoire, puisque cette rugosité est partout égale au paramètre de Hurst H qui est une constante. En vue d'y remédier, S. Stoev et M.S. Taqqu (2004 et 2005) ont introduit le mouvement multifractionnaire stable linéaire (mmsl) ; ce processus stochastique strictement α-stable (StαS), désigné par {Y(t)}, est obtenu en remplaçant la mesure brownienne par une mesure StαS et le paramètre de Hurst H par une fonction H(.) dépendant de t. On se place systématiquement dans le cas où cette fonction est continue et à valeurs dans l'intervalle ouvert ]1/α,1[. Il convient aussi de noter que l'on a pour tout t, Y(t)=X(t,H(t)), où {X(u,v)} est le champ stochastique StαS, tel que pour tout v fixé, le processus {X(u,v)} est un mouvement fractionnaire stable linéaire. L'objectif de la thèse est de mener une étude approfondie du mmsl, au moyen de méthodes d'ondelettes ; elle consiste principalement en trois parties. (1) On détermine de fins modules de continuité, globaux et locaux de {Y(t)} ; cela repose essentiellement sur une nouvelle représentation de {X(u,v)}, sous la forme d'une série aléatoire, dont on montre la convergence presque sûre dans certains espaces de Hölder. (2) On introduit, via la base de Haar, une autre représentation de {X(u,v)} en série aléatoire ; cette dernière permet la mise en place d'une méthode de simulation efficace du mmsl, ainsi que de ses parties hautes et basses fréquences. (3) On construit des estimateurs par ondelettes du paramètre fonctionnel H(.) du mmsl, ainsi que de son paramètre de stabilité α.
279

Discrétisation en maillage non structuré général et applications LES

Haider, Florian 29 May 2009 (has links) (PDF)
L'objectif est d'améliorer la stabilité et la précision de la discrétisation spatiale de type volumes finis sur des maillages non structurés. La thèse fournit une analyse générale de la reconstruction des polynômes de degré k en maillage non structuré et présente plusieurs algorithmes permettant de reconstruire des polynômes sur de petits voisinages compacts. Une étude théorique de la stabilité établit des principes pour concevoir des méthodes de reconstruction stables. Une étude théorique de la précision caractérise les erreurs induites par le maillage non structuré à l'aide de l'approche de l'équation modifiée. L'étude formule également des algorithmes de limitation en maillage non structuré basés sur une approche géométrique. Toutes les études théoriques sont complétées par des expériences numériques. Les calculs LES d'un écoulement subsonique au-dessus d'une cavité et d'un jet supersonique permettent de valider et comparer plusieurs options de discrétisation spatiale.
280

Modélisation et traitement statistiques d'images d'ultrasons de haute fréquence. Application à l'oncologie dermatologique

Pereyra, Marcelo 04 July 2012 (has links) (PDF)
Cette thèse étudie le traitement statistique des images d'ultrasons de haute fréquence, avec application à l'exploration in-vivo de la peau humaine et l'évaluation non invasive de lésions. Des méthodes Bayésiennes sont considérées pour la segmentation d'images échographiques de la peau. On y établit que les ultrasons rétrodiffusés par la peau convergent vers un processus aléatoire complexe de type Levy-Flight, avec des statistiques non Gaussiennes alpha-stables. L'enveloppe du signal suit une distribution Rayleigh généralisée à queue lourde. A partir de ces résultats, il est proposé de modéliser l'image d'ultrasons de multiples tissus comme un mélange spatialement cohérent de lois Rayleigh à queues lourdes. La cohérence spatiale inhérente aux tissus biologiques est modélisée par un champ aléatoire de Potts-Markov pour représenter la dépendance locale entre les composantes du mélange. Un algorithme Bayésien original combiné à une méthode Monte Carlo par chaine de Markov (MCMC) est proposé pour conjointement estimer les paramètres du modèle et classifier chaque voxel dans un tissu. L'approche proposée est appliquée avec succès à la segmentation de tumeurs de la peau in-vivo dans des images d'ultrasons de haute fréquence en 2D et 3D. Cette méthode est ensuite étendue en incluant l'estimation du paramètre de régularisation du champ de Potts dans la chaine MCMC. Les méthodes MCMC classiques ne sont pas directement applicables à ce problème car la vraisemblance du champ de Potts ne peut pas être évaluée. Ce problème difficile est traité en adoptant un algorithme Metropolis-Hastings ''sans vraisemblance'' fondé sur la statistique suffisante du Potts. La méthode de segmentation non supervisée, ainsi développée, est appliquée avec succès à des images échographiques 3D. Finalement, le problème du calcul de la borne de Cramer-Rao (CRB) du paramètre de régularisation du champ de Potts est étudié. Cette borne dépend des dérivées de la constante de normalisation du modèle de Potts, dont le calcul est infaisable. Ce problème est résolu en proposant un algorithme Monte Carlo original, qui est appliqué avec succès au calcul de la borne CRB des modèles d'Ising et de Potts.

Page generated in 0.0743 seconds