• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 126
  • 54
  • 14
  • 1
  • Tagged with
  • 200
  • 65
  • 45
  • 39
  • 33
  • 31
  • 29
  • 28
  • 25
  • 24
  • 24
  • 21
  • 20
  • 19
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Systèmes désordonnés et frustrés: modèles champ moyen et problèmes d'optimisation combinatoire

Schreiber, Georg R. 13 November 1997 (has links) (PDF)
Dans la présente thèse de doctorat je présente des résultats concernant des modèles désordonnés et frustrés venant de la physique statistique et de l'optimisation combinatoire. Comme application de la théorie des verres de spins, j'étudie le modèle de Blume, Emery et Griffiths désordonné et frustré. Ce modèle est traité dans l'approximation de champ moyen dans le cadre de la méthode des répliques A l'aide de l'Ansatz symétrique dans les répliques je présente une solution numérique complète puis je discute des effets de brisure de cette symétrie La stabilité de la solution symétrique a été Rudik et les régions instables identifiées Le diagramme de phase exhibe des transitions de premier et de second ordre. Le point tricritique persiste dans le modèle frustré, Ce qui est en accord avec des travaux antérieurs une version du modèle BEG avec un potentiel chimique désordonné a également été étudiée. les calculs confirment que le point tricritique apparaît à plus basse température quand il y a du désordre. Ensuite je considère le problème de la bipartition d'un graphe. Ce problème correspond du point de vue de la physique statistique h un verre de spins soumis h une contrainte d'aimantation totale nulle. je considère les propriétés statistiques des solutions de faible énergie engendrées par des algorithmes heuristiques. de tels algorithme sont en général conçus pour résoudre des problèmes d'optimisation combinatoire qui sont NP- difficiles. Plusieurs heuristiques ont 60 implémentées pour le problème de la bipartition de graphe. des lois d'échelle ont été obtenues : en particulier la moyenne et la variance du coût obéissent A une loi linéaire en N. Par conséquent le coût obtenu par des heuristiques est une quantité auto-moyennante. je suggère que cette propriété est générale valable aussi pour les solutions aléatoires pour les solutions quasi-optimales et pour les solutions optimales. En outre je propose une procédure pour comparer des algorithmes heuristiques. Cette procédure tient compte de la qualité de la solution aussi bien que du temps de calcul utilisé. Dans la troisième partie de ma thèse j'ai étudié en détail les propriétés h température nulle des verres de spins sur des graphes aléatoires lacunaires avec une coordination fixe. les verres de spins sur de tels graphes peuvent être considérés comme une approximation aux vrais verres de spins qui est plus réaliste que le modèle de Sherrington et Kirkpatrick. J'ai conçu un nouvel algorithme pour trouver les états fondamentaux. Aussi je teste numériquement une conjecture de Banavar, Sherrington et Sourlas qui donne la densité d'énergie du fondamental dans la limite de grande taille en fonction de la coordination. La distribution du paramètre d'ordre se révèle être non triviale et les données présentent une forte indication de la présence d'ultramétricité pour toutes les valeur de la coordination. Ces résultats confirment que les propriétés particulières des verres de spin, déduites an niveau de l'approximation de champ moyen dans le cadre du modèle de Sherrington et Kirkpatrick, sont aussi présentes pour des modèles plus réalistes comme les verres de spins sur des graphes aléatoires lacunaires avec une coordination fixe.
162

EXPERIMENTAL STUDY AND NUMERICAL ANALYSIS OF CRACK OPENING IN CONCRETE

Alam, Syed Yasir 10 May 2011 (has links) (PDF)
Il est communément admis l'existence d'un effet d'échelle sur les résistances nominales des matériaux quasi-fragiles tels que les matériaux cimentaires. Cet effet doit être pris en compte dans le dimensionnement vis-à-vis du comportement ultime des structures en béton afin de limiter les dommages et les ouvertures de fissures. Celles-ci sont de plus en plus utilisées pour étudier le comportement du béton et caractériser la durabilité des structures. Différentes théories existent dans la littérature pour décrire l'effet d'échelle. Parmi celles-ci on trouve la théorie déterministe de Bazant où l'énergie de fissuration est considérée comme indépendante de la taille et il est supposé qu'à charge maximale, la longueur de fissure est proportionnelle à la taille de l'échantillon. Dans le cadre de ce travail, on s'est attaché à étudier expérimentalement et numériquement les relations entre la longueur de fissure et la taille des éprouvettes. Sur le plan expérimental, l'effet d'échelle est caractérisé par des essais de flexion trois points sur des poutres de béton entaillées de tailles géométriquement similaires. L'influence de la taille des agrégats sur le comportement à la rupture a aussi été étudiée. La technique de Corrélation d'Images Numériques (DIC) est adoptée dans cette étude pour déterminer à la fois la longueur et l'ouverture de la fissure à différentes étapes de chargement. Cette méthode s'est révélée comme un outil robuste et de haute précision pour la mesure des paramètres caractérisant les fissures. Les résultats ont montré un effet de taille significatif sur le processus de propagation des fissures. En outre, l'effet d'échelle diminue lorsque la taille des agrégats augmente. Une étude sur poutres en béton armé est aussi réalisée pour étudier l'effet d'échelle sur l'ouverture et l'espacement des fissures. De point de vue réglementaire, il a été observé que l'Eurocode 2 sous estime les ouvertures de fissures. Sur le plan numérique, le comportement à la rupture des poutres en béton est simulé en utilisant un modèle d'endommagement non local. La longueur interne et d'autres paramètres du modèle sont calibrés par une technique de calibration inverse qui utilise une procédure automatique. Les profils d'ouverture de fissures sont déterminés par des procédures de post-traitement. L'analyse du comportement mécanique et de la propagation des fissures indiquent un effet d'échelle similaire à celui détecté par les résultats expérimentaux.
163

Transport multi-échelle en milieu poreux : vers un couplage de l'hydrodynamique aux processus biophysico-chimiques

Golfier, Fabrice 01 December 2011 (has links) (PDF)
Mes différentes activités de recherche qui s'insèrent dans une problématique axée autour du transport multi-échelle en milieu poreux sont détaillées ici au travers de 3 volets: (1) Influence des hétérogénéités sur les processus de transfert (2) Prise en compte des effets de couplage en transport réactif (3) Impact des processus biologiques sur l'hydrodynamique et le transport Un survol des défis qui restent à surmonter et des perspectives à venir de ce travail de recherche concluent le document.
164

Test des modèles d'Energie Noire et propriétés physiques des amas de galaxies

Delsart, Pierre 26 October 2011 (has links) (PDF)
Les amas de galaxies sont les objets les plus massifs de l'Univers. Leur population étant directement liée au taux de croissance des perturbations de matière, l'évolution de leur abondance dans le temps permet de poser des contraintes sur l'évolution de l'Univers. La découverte d'un rayonnement X dans ces objets a permis de mettre en évidence les propriétés du gaz intra-amas ainsi que les différents processus responsable de l'émission X. Grâce à la capacité de spectro-imagerie haute résolution des instruments de dernière génération comme XMM-Newton ou Chandra, les observations ont permis de mieux comprendre l'évolution des amas de galaxies et d'utiliser leur abondance comme un test cosmologique. L'étude statistique optimale de cette population nécessite une bonne détermination de la masse des amas. Cette quantité n'étant cependant pas mesurable directement, des méthodes indirectes ont été développées notamment en utilisant des relations d'échelle ce qui permet de relier la masse aux propriétés du gaz intra-amas. Cependant la physique de ce gaz peut engendrer des biais dans la détermination de la masse qui se répercutent sur la détermination des paramètres cosmologiques. Cette thèse présente une étude du gaz intra-amas à travers la relation d'échelle masse-température à partir des contraintes obtenues grâce à différentes sondes cosmologiques ainsi que la distribution en température des amas X. Avec la publication des futurs résultats des expériences Planck, South Pole Telescope ou bien Atacama Cosmology Telescope, une prédiction de la population des amas observés par effet Sunyaev-Zel'dovich est détaillée en prenant en compte les propriétés X du gaz intra-amas de façon auto-consistante. Enfin, une étude qualitative du spectre de puissance des anisotropies secondaires du CMB induites par l'effet SZ est proposée afin de montrer les différences observées dans le spectre en prenant en comptes les propriétés du gaz des amas.
165

Économie industrielle et organisation des marchés de transport public routier de marchandises

Tyroyanni, Hélène 01 October 1990 (has links) (PDF)
L'objet de cette thèse est de déterminer la structure de l'offre dans l'industrie du transport public routier de marchandises et d'éclairer le contexte de la concurrence dans les différents marchés de cette industrie, en appliquant des concepts développés par la théorie des marchés contestables. L'analyse économétrique des coûts suggère que les rendements d'échelle sont pratiquement constants pour une large région de la production et que les caractéristiques technologiques de la production du transport, telles que la longueur moyenne du trajet, et le mixage du transport utilisant des véhicules de technologies différentes influencent les coûts. Cependant, malgré le caractère globalement concurrentiel de l'offre, des marchés oligopolistiques tendent à se former à l'intérieur de cette industrie. Des barrières à l'entrée (et à la sortie) existent donc, qui résultent non seulement du caractère technique de l'offre, mais aussi de la stratégie des firmes face à la demande.
166

Analyse temps-fréquence et modèles d'invariance d'échelle: Contribution à l'étude de systèmes complexes

Gonçalves, Paulo 29 March 2010 (has links) (PDF)
Manifeste depuis longtemps dans les sciences du vivant, le traitement du signal, apparaît plus tardivement dans la communauté réseaux. On est alors surpris de voir que deux systèmes complexes, aussi distants que le coeur et un réseau informatique, présentent du point de vue des lois d'échelle, des invariances très semblables. Sans dire qu'elles sont les signatures de structures comparables, ces propriétés font néanmoins appel aux mêmes outils d'analyse, d'estimation ou de modélisation, et c'est dans la conception de ceux-ci que se situe le travail présenté. Cette "unité méthodologique" est le fil conducteur qui m'a permis de décloisonner les différents domaines de recherche abordés. Dans une première partie je trace un bilan de mes différentes contributions aux sciences de l'information, classées selon deux grandes catégories: - Les représentations temps-fréquence dont l'objectif est un meilleur redéploiement de l'information contenue dans le signal pour mettre en évidence certaines organisations ou propriétés difficiles à identifier autrement; - Les outils statistiques qui, stimulés par les progrès accomplis sur les représentations en général et les ondelettes en particulier, augmentent en retour les possibilités d'exploitation de ces objets. Dans un deuxième temps, j'illustre avec les deux applications qui sont au centre de mon activité - étude des systèmes de communication et analyse du système cardiovasculaire - des résultats originaux et concrets issus de l'application de ces outils théoriques. Enfin, ces exemples me donnent l'occasion de conclure en défendant la vision d'une approche coopérative et globale de la complexité en vue d'une meilleure compréhension des mécanismes à l'origine des systèmes.
167

TRANSITIONS DE PHASE EN DIMENSIONS FRACTALES

Monceau, Pascal 16 December 2004 (has links) (PDF)
Parmi les méthodes de la théorie du groupe de renormalisation, les développements en epsilon sont basés sur des calculs dans l'espace réciproque et permettent de calculer les exposants critiques associés aux transitions magnétiques du second ordre pour des valeurs non entières de la dimension d'espace. Une interprétation physique naturelle consiste à se demander comment se comporte un système de spins en interaction dans un espace de dimension fractale. Or les structures fractales sont construites par itération d'une cellule génératrice dont les détails sont donc présents à plusieurs échelles ; la question qui se pose alors est de savoir ce qui se passe lorsque l'invariance par translation est remplacée par une invariance d'échelle géométrique. La convergence vers la limite thermodynamique se produit en même temps que le processus d'itération construit la structure. De ce fait, des simulations Monte Carlo fiables de ces transitions de phase n'ont pu être menées à bien que récemment, puisqu'elles nécessitent la simulation de très grandes tailles, lesquelles varient comme des séries géométriques avec l'étape d'itération. C'est en utilisant des algorithmes non locaux dits “d'amas” (Wolff, Swendsen-Wang), capables de réduire le ralentissement critique de manière significative, et des méthodes d'histogrammes pour traiter les données des simulationsMonte-Carlo que j'ai tout d'abord réalisé ces études. Il s'avère que le calcul précis des exposants critiques est rendu encore plus difficile par le fait que l'analyse en tailles finies du modèle d'Ising souffre de corrections d'échelle qui peuvent affecter fortement le comportement de certaines grandeurs thermodynamiques, en particulier lorsque la dimension fractale tend vers 1. J'ai montré que ces corrections d'échelle sont en partie liées à la très forte inhomogénéité du réseau sous jacent (due à l'existence de trous sur plusieurs ordres de grandeurs) et à la concomitance de la construction du fractal avec la convergence vers la limite thermodynamique. Les résultats que j'ai obtenus pour les exposants critiques, ou leurs bornes, sont toujours compatibles avec la relation d'hyperscaling dans laquelle on substitue la dimension de Hausdorff à la dimension d'espace. Le comportement critique en dimension non entière se décrit dans le cadre de l'universalité faible. Cela se manifeste par un désaccord net entre les exposants que j'ai obtenus par les méthodes Monte Carlo et les développements en epsilon. Les exposants critiques ne dépendent pas seulement de la dimension d'espace, des propriétés de symétrie du paramètre d'ordre et de la portée des interactions, mais aussi des propriétés géométriques de la structure fractale : Très récemment des calculs précis d'exposants critiques m'ont permis de montrer que des classes d'universalité différentes sont en général nécessaires pour décrire le comportement du modèle d'Ising sur des fractals de même dimension et de lacunarités différentes. Un tel résultat généralise le concept d'universalité faible proposé par Masuo Suzuki. L'hypothèse d'homogénéité qui sous-tend les lois d'échelle permettant de décrire un comportement critique se dérive par renormalisation. La procédure de renormalisation dans l'espace direct est naturelle dans les fractals, puisqu'elle suit exactement le processus inverse de construction de la structure. Avec mon étudiant Pai-Yi Hsiao, nous avons mené à bien l'étude du modèle d'Ising par une méthode de renormalisation Monte-Carlo sur une structure fractale de dimension voisine de 1, 89 ; il s'avère que l'exposant associé à l'une des directions propres peut être calculé avec une très bonne précision et est en accord avec les résultats de l'analyse en tailles finies. En revanche, la convergence est très lente dans l'autre direction, ce qui est lié aux corrections d'échelle mises en évidence lors de cette analyse. La cinétique stochastique associée à la formation des amas construits par l'algorithme de Wolff sous tend la compréhension du phénomène de ralentissement critique. J'ai montré que les distributions des tailles des amas de Wolff ont une propriété d'homogénéité qui fait intervenir l'un des exposants associé à une des directions propres du processus de renormalisation. Par ailleurs, les distributions des tensions de surface des amas vérifient une propriété analogue dans laquelle intervient un nouvel exposant critique. L'étude des fonctions d'autocorrélation m'a permis de calculer précisément les exposants dynamiques de Wolff lorsque la température critique est connue, et d'éclaircir l'évolution du ralentissement critique avec la dimension et la connectivité. Dans le cas de systèmes invariants par translation, l'ordre de la transition ferromagnétique du modèle de Potts est lié au nombre d'états de spin ; le passage du premier au second ordre est attendu pour des dimensions non entières. Par ailleurs, la présence de désordre peut, dans certaines conditions, induire une transition du second ordre à partir d'un système qui en présente une du premier. L'étude du comportement critique du modèle de Potts sur des fractals est donc particulièrement intéressante, puisque deux des paramètres qui le déterminent (dimensionnalité et désordre structurel) sont liés. Avec mon étudiant Pai-Yi Hsiao, nous avons montré que la transition associée au modèle de Potts à trois états sur une structure fractale de dimension voisine de 1, 89 est du second ordre. Les difficultés attendues lorsqu'on augmente le nombre d'états de spins se font déjà nettement sentir : Les corrections d'échelle empêchent de calculer la température critique avec une très bonne précision. Nous n'avons donc pu donner que des bornes pour certains exposants ; nous avons cependant clairement mis en évidence la différence entre les classes d'universalité de Potts à 2 et 3 états. L'étude de la percolation en dimension non entière est liée à la fois à celle du modèle de Potts et aux algorithmes d'amas. Elle est basée sur l'étude des moments de la distribution de taille des amas, ce qui nécessite la localisation de pics en fonction de la probabilité d'occupation. J'ai pu montrer que les corrections d'échelle n'affectent pratiquement pas le comportement des pics avec la taille des structures, et proposé de les interpréter en termes de "seuil effectif".
168

L'isotope cosmogénique Cl-36 dans les minéraux riches en Ca et en K : développements analytiques, calibrations des taux de production et inter-calibration avec le He-3 et le Ne-21

Schimmelpfennig, Irene 08 December 2009 (has links) (PDF)
Les taux de production du nucléide cosmogénique 36Cl par spallation du Ca et du K (SLHL) proposés actuellement dans la littérature montrent des divergences allant jusqu'à 50% (Gosse and Phillips, 2001). Nous avons pu montrer que des fortes teneurs en Cl dans les roches utilisées pour les calibrations précédentes entraînent une surestimation de ces taux de production, lié à la production de 36Cl à partir du 35Cl qui est peu contrainte. Nous avons entrepris une nouvelle calibration à partir de laves datées indépendamment entre 0.4 et 32 ka situées au Mt. Etna (38°N, Italie) et au Payun Matru (36°S, Argentine). Le 36Cl a été mesuré dans des feldspaths riches en Ca et en K, mais faibles en Cl. A partir d'une approche bayesienne incluant toutes les incertitudes, les taux de production obtenus sont de 42.2 ± 4.8 atomes 36Cl (g Ca)-1 an-1 pour la spallation du Ca et de 124.9 ± 8.1 atomes 36Cl (g K)-1 an-1 pour la spallation du K, avec les facteurs d'échelle calculés selon Stone (2000). Quatre autres modèles de facteurs d'échelle sont également proposés avec des résultats très semblables. Ces nouveaux taux de production sont en accord avec les valeurs précédemment obtenues par d'autres auteurs avec des échantillons faibles en Cl. Finalement, les concentrations en 36Cl, 3He et 21Ne ont été mesurées dans des pyroxènes prélevés entre 1000 et 4300 m dans des laves du Kilimandjaro (3°S). Les rapports entre ces nucléides ne montrent pas de dépendance altitudinale, ce qui suggère que les taux de production ne varient pas d'un nucléide à l'autre avec l'altitude.
169

Processus aléatoires invariants d'échelle et analyse multirésolution pour la modélisation d'observations de systèmes physiques

Chainais, Pierre 28 September 2009 (has links) (PDF)
Habilitation à Diriger des Recherches : Processus aléatoires invariants d'échelle et analyse multirésolution pour la modélisation d'observations de systèmes physiques
170

Comportement en temps long des fluides visqueux bidimensionnels.

Rodrigues, Luis Miguel 07 December 2007 (has links) (PDF)
Ce mémoire se propose d'examiner le comportement asymptotique en temps long des fluides visqueux bidimensionnels, homogènes ou faiblement inhomogènes. On y examine souvent la dynamique des écoulements en fonction de l'évolution de la densité et, plutôt que de la vitesse, du vecteur de rotation instantanée appelé tourbillon ou vorticité. Les travaux de Thierry Gallay et C. Eugene Wayne ont mis en relief le rôle primordial d'une famille de solutions auto-similaires --- les tourbillons d'Oseen ou vortex --- pour décrire l'asymptotique des écoulements à densité constante. Toute solution de l'équation de Navier-Stokes, ayant une mesure finie comme tourbillon initial et de circulation non nulle, est asymptotique en temps long à un tourbillon d'Oseen. Le résultat de Gallay et Wayne ne présente que l'inconvénient de ne pas être explicite, la première tâche de ce mémoire est de l'expliciter, ce qui fournit ainsi une borne sur le temps de vie de la turbulence bidimensionnelle. On montre ensuite que les tourbillons d'Oseen sont asymptotiquement stables en tant que fluides à densité variable, retrouvant également, par là-même, le résultat de Gallay et Wayne pour des écoulements incompressibles faiblement inhomogènes et lents. Quant aux fluides compressibles faiblement inhomogènes, on établit qu'ils se comportent essentiellement comme des fluides à densité constante dès lors que l'on considère des écoulements lents et de circulation nulle.

Page generated in 0.0464 seconds