51 |
Couplage Spin-Orbite et Interaction de Coulomb dans l'Iridate de Strontium Sr2IrO4Martins, Cyril 26 November 2010 (has links) (PDF)
Cette thèse s'intéresse à l'interaction entre le couplage spin-orbite et les corrélations électroniques dans la matière condensée. En effet, de plus en plus de matériaux - tels que les isolants topologiques ou les oxydes de métaux de transition 5d à base d'iridium - présentent des propriétés pour lesquels l'interaction spin-orbite joue un rôle essentiel. Parmi eux, l'iridate de strontium (Sr2IrO4) a récemment été décrit comme un "isolant de Mott régi par les effets spin-orbite": dans cette image, l'interaction de Coulomb entre les électrons et le couplage spin-orbite se combinent pour rendre le composé isolant. Nous avons étudié la phase isolante paramagnétique de ce matériau avec l'approche LDA+DMFT, une méthode qui combine la théorie de la fonctionnelle de la densité dans l'approximation de la densité locale (LDA) avec la théorie du champ moyen dynamique (DMFT). Sr2IrO4 s'est avéré être un isolant de Mott pour une valeur raisonnable des corrélations électroniques une fois que le couplage spin-orbite et les distorsions structurales du cristal ont été pris en compte. En outre, nos résultats mettent en évidence les rôles respectifs joués par ces deux éléments dans l'obtention d'un état isolant et montrent que seule leur action conjointe permet d'ouvrir un gap de Mott dans un tel composé. Afin de réaliser cette étude, le couplage spin-orbite a dû être inclus au sein du formalisme LDA+DMFT. L'intérêt d'un tel développement technique dépasse le cas de Sr2IrO4, cette implémentation, dite "LDA+SO+DMFT", pouvant être aussi utilisée pour prendre en compte les corrélations électroniques dans d'autres oxydes de métaux de transition 5d ou même au sein des isolants topologiques.
|
52 |
Croissance électrochimique : un modèle de gaz sur réseau en champ moyen ; suivi de : Croissance laplacienne d'aiguilles parallèlesBernard, Marc-Olivier 23 November 2001 (has links) (PDF)
Le premier sujet d'étude est l'application des méthodes de dynamique de gaz sur réseau en champ moyen à l'électrochimie, en particulier à l'électrocristallisation.<br /><br />Le présent modèle, issu de la physique statistique, utilise des équations cinétiques microscopiques en champ moyen, pour décrire l'évolution des cinq espèces en présence~: métal, cation, anion, solvant et espèce électronique. En établissant ces équations à partir de considérations microscopiques, nous cherchons à modéliser la croissance de structures arborescentes sur la cathode, en tenant compte des effets d'anisotropie cristalline et de la mobilité des espèces, du potentiel appliqué et du taux de transfert électronique.<br /><br />Pour valider le modèle numériquement, nous commençons par étudier des systèmes unidimensionnels simplifiés, puis montrons qu'il est possible d'obtenir des croissances arborescentes bidimensionnelles.<br /><br />Le deuxième sujet est une approche analytique de la DLA dans un modèle plus limité de croissance d'aiguilles, par la méthode classique de transformation conforme. Le point nouveau est de modifier le modèle, en supposant que la croissance est discrète et probabiliste. Ceci permet d'obtenir une équation discrète de Fokker-Planck sur la probabilité de trouver au temps t une distribution donnée des longueurs d'aiguilles.<br /><br />En supposant un scénario de croissance hiérarchique, avec doublements de période successifs, on retrouve analytiquement la distribution d'aiguilles en fonction de la hauteur, prévue numériquement par des études antérieures.
|
53 |
L'Analyse et l'Optimisation des Systèmes de Stockage de Données dans les Réseaux Pair-à-PairDandoush, Abdulhalim 29 March 2010 (has links) (PDF)
Cette thèse évalue les performances de systèmes de stockage de données sur des réseaux de pairs. Ces systèmes reposent sur trois piliers: la fragmentation des données et leur dissémination chez les pairs, la redondance des données afin de faire face aux éventuelles indisponibilités des pairs et l'existence d'un mécanisme de recouvrement des données perdues ou temporairement indisponibles. Nous modélisons deux mécanismes de recouvrement des données par des chaînes de Markov absorbantes. Plus précisément, nous évaluons la qualité du service rendu aux utilisateurs en terme de longévité et de disponibilité des données de chaque mécanisme. Le premier mécanisme est centralisé et repose sur l'utilisation d'un serveur pour la reconstruction des donnée perdus. Le second est distribué : la reconstruction des fragments perdus met en oeuvre, séquentiellement, plusieurs pairs et s'arrête dès que le niveau de redondance requis est atteint. Les principales hypothèses faites dans nos modèles sont validées soit par des simulations soit par des traces réelles recueillies dans différents environnements distribués. Pour les processus de téléchargement et de recouvrement des données nous proposons un modèle de simulation réaliste qui est capable de prédire avec précision le comportement de ces processus mais le temps de simulation est long pour de grands réseaux. Pour surmonter cette restriction nous proposons et analysons un algorithme efficace au niveau flux. L'algorithme est simple et utilise le concept de (min-max). Il permet de caractériser le temps de réponse des téléchargements en parallèle dans un système de stockage distribué.
|
54 |
Du nanofil bimétallique isolé à la distribution de nanofils codéposés : une vision d'ensemble(s)Maras, Emile 19 November 2012 (has links) (PDF)
Les nano-objets unidimensionnels alliés présentent des propriétés physiques spécifiques qui résultent à la fois de leur morphologie, de leur taille et de la répartition chimique des atomes. Nous exploitons un modèle d'Ising sur réseau qui rend compte en particulier des effets de ségrégation au sein de nanofils bimétalliques pour obtenir une compréhension fine des effets gouvernant cette répartition à l'équilibre.Dans une première section, nous détaillons l'équilibre d'un nanofil en fonction de sa taille et de sa composition, de manière à mettre en évidence le rôle des effets de taille finie sur la thermodynamique d'équilibre d'objets bimétalliques 1D. Contrairement aux systèmes infinis, l'équilibre dépend de l'ensemble statistique considéré. Ainsi la ségrégation est plus marquée dans l'ensemble canonique, où la concentration du nanofil est imposée, que dans l'ensemble pseudo-Grand Canonique (p-GC) où le nanofil est en équilibre avec un réservoir qui fixe la différence de potentiel chimique entre les espèces. De même, la contrainte de composition dans l'ensemble canonique induit des corrélations chimiques d'occupation des sites qui favorisent davantage les paires hétéroatomiques. Nous montrons que l'écart observé entre les isothermes des deux ensembles croît avec la courbure de l'isotherme canonique et avec l'amplitude des fluctuations de la concentration nominale dans l'ensemble p-GC. Ces fluctuations diminuant avec la taille du nanofil considéré, l'écart entre les ensembles s'annule à la limite thermodynamique. Les effets de taille finie se traduisent par ailleurs par l'apparition, à basse température et pour de petits nanofils, d'une coexistence d'un mode pur en l'espèce ségrégeante et d'un mode de faible concentration nominale constitué principalement de configurations de type cœur-coquille et Janus. Nous développons alors un formalisme permettant de caractériser cette bimodalité.Alors que les résultats évoqués précédemment concernent un nanofil considéré seul, nous étudions dans la deuxième section l'équilibre de l'ensemble des nanofils formant un co-dépôt unidimensionnel inférieur à la mono-couche. Nous montrons que la distribution en taille de ces nanofils varie globalement selon une loi de puissance, quelle que soit la composition du codépôt, de sorte que la ségrégation n'a que peu d'influence sur la microstructure observée. Par contre, en raison du rapport surface/volume et des corrélations chimiques dans ces objets, la composition des nanofils du co-dépôt varie très fortement selon leur taille, les petits nanofils étant plus riches en l'espèce ségrégeante que les plus grands. Enfin, nous étendons le diagramme de bimodalité d'un nanofil seul à l'ensemble des nanofils du co-dépôt et montrons que cette bimodalité est difficilement observable car elle ne concerne que des amas de petite taille qui sont très minoritaires du fait de la cohésion atomique.
|
55 |
Modèles markoviens graphiques pour la fusion de données individuelles et d'interactions : application à la classification de gènesVignes, Matthieu 30 October 2007 (has links) (PDF)
Les recherches que nous présentons dans ce mémoire s'inscrivent dans le cadre de l'intégration statistique de données post-génomiques hétérogènes. La classification non supervisée de gènes vise à regrouper en ensembles significatifs les gènes d'un organisme, vu comme un système complexe, conformément aux données expérimentales afin de dégager des actions concertées de ces gènes dans les mécanismes biologiques mis en jeu. <br /><br />Nous basons notre approche sur des modèles probabilistes graphiques. Plus spécifiquement, nous utilisons l'outil de champs de Markov cachés qui permet la prise en compte simultanée de données propres à chacun des gènes grâce a des distributions de probabilités et de données traduisant un réseau d'interaction au sein de l'organisme à l'aide d'un graphe non-orienté entre les gènes. <br /><br />Apres avoir présenté la problématique et le contexte biologique, nous décrivons le modèle utilisé ainsi que les stratégies algorithmiques d'estimation des paramètres (i.e. approximations de type champ moyen). Puis nous nous intéresserons à deux particularités des données auxquelles nous avons été confrontés et qui amènent des développements du modèle utilisé, notamment la prise en compte de l'absence de certaines observations et la haute dimensionnalité de celles-ci. Enfin nous présenterons des expériences sur données simulées ainsi que sur données réelles sur la levure qui évaluent le gain apporté par notre travail. Notamment, nous avons voulu mettre l'accent sur des interprétations biologiques plausibles des résultats obtenus.
|
56 |
Modèles markoviens et extensions pour la classification de données complexesBlanchet, Juliette 10 October 2007 (has links) (PDF)
Nous abordons le problème de la classification d'individus à partir d'observations dites " complexes " en ce sens qu'elles ne vérifient pas certaines des hypothèses simplificatrices classiquement adoptées. Dans ce travail, les individus à classer sont supposés dépendants les uns des autres. L'approche adoptée est une approche probabiliste fondée sur une modélisation markovienne. Trois problèmes de classification sont abordés.<br />Le premier concerne la classification de données lorsque celles-ci sont de grande dimension. Pour un tel problème, nous adoptons un modèle markovien gaussien non diagonal tirant partie du fait que la plupart des observations de grande dimension vivent en réalité dans des sous-espaces propres à chacune des classes et dont les dimensions intrinsèques sont faibles. De ce fait, le nombre de paramètres libres du modèle reste raisonnable.<br />Le deuxième point abordé s'attache à relâcher l'hypothèse simplificatrice de bruit indépendant unimodal, et en particulier gaussien. Nous considérons pour cela le modèle récent de champ de Markov triplet et proposons une nouvelle famille de Markov triplet adaptée au cadre d'une classification supervisée. Nous illustrons la flexibilité et les performances de nos modèles sur une application à la reconnaissance d'images réelles de textures.<br />Enfin, nous nous intéressons au problème de la classification d'observations dites incomplètes, c'est-à-dire pour lesquelles certaines valeurs sont manquantes. Nous développons pour cela une méthode markovienne ne nécessitant pas le remplacement préalable des observations manquantes. Nous présentons une application de cette méthodologie à un problème réel de classification de gènes.
|
57 |
Équations différentielles stochastiques : résolubilité forte d'équations singulières dégénérées ; analyse numérique de systèmes progressifs-rétrogrades de McKean-VlasovChaudru de Raynal, Paul Éric 06 December 2013 (has links) (PDF)
Cette thèse traite de deux sujets: la résolubilité forte d'équations différentielles stochastiques à dérive hölderienne et bruit hypoelliptique et la simulation de processus progressifs-rétrogrades découplés de McKean-Vlasov. Dans le premier cas, on montre qu'un système hypoelliptique, composé d'une composante diffusive et d'une composante totalement dégénérée, est fortement résoluble lorsque l'exposant de la régularité Hölder de la dérive par rapport à la composante dégénérée est strictement supérieur à 2/3. Ce travail étend au cadre dégénéré les travaux antérieurs de Zvonkin (1974), Veretennikov (1980) et Krylov et Röckner (2005). L'apparition d'un seuil critique pour l'exposant peut-être vue comme le prix à payer pour la dégénérescence. La preuve repose sur des résultats de régularité de la solution de l'EDP associée, qui est dégénérée, et est basée sur une méthode parametrix. Dans le second cas, on propose un algorithme basé sur les méthodes de cubature pour la simulation de processus progessifs-rétrogrades découplés de McKean-Vlasov apparaissant dans des problèmes de contrôle dans un environnement de type champ moyen. Cet algorithme se divise en deux parties. Une première étape de construction d'un arbre de particules, à dynamique déterministe, approchant la loi de la composante progressive. Cet arbre peut être paramétré de manière à obtenir n'importe quel ordre d'approximation (en terme de pas de discrétisation de l'intervalle). Une seconde étape, conditionnelle à l'arbre, permettant l'approximation de la composante rétrograde. Deux schémas explicites sont proposés permettant un ordre d'approximation de 1 et 2.
|
58 |
Équations différentielles stochastiques : résolubilité forte d'équations singulières dégénérées ; analyse numérique de systèmes progressifs-rétrogrades de McKean-VlasovChaudru de Raynal, Paul Éric 06 December 2013 (has links) (PDF)
Cette thèse traite de deux sujets: la résolubilité forte d'équations différentielles stochastiques à dérive hölderienne et bruit hypoelliptique et la simulation de processus progressifs-rétrogrades découplés de McKean-Vlasov. Dans le premier cas, on montre qu'un système hypoelliptique, composé d'une composante diffusive et d'une composante totalement dégénérée, est fortement résoluble lorsque l'exposant de la régularité Hölder de la dérive par rapport à la composante dégénérée est strictement supérieur à 2/3. Ce travail étend au cadre dégénéré les travaux antérieurs de Zvonkin (1974), Veretennikov (1980) et Krylov et Röckner (2005). L'apparition d'un seuil critique pour l'exposant peut-être vue comme le prix à payer pour la dégénérescence. La preuve repose sur des résultats de régularité de la solution de l'EDP associée, qui est dégénérée, et est basée sur une méthode parametrix. Dans le second cas, on propose un algorithme basé sur les méthodes de cubature pour la simulation de processus progessifs-rétrogrades découplés de McKean-Vlasov apparaissant dans des problèmes de contrôle dans un environnement de type champ moyen. Cet algorithme se divise en deux parties. Une première étape de construction d'un arbre de particules, à dynamique déterministe, approchant la loi de la composante progressive. Cet arbre peut être paramétré de manière à obtenir n'importe quel ordre d'approximation (en terme de pas de discrétisation de l'intervalle). Une seconde étape, conditionnelle à l'arbre, permettant l'approximation de la composante rétrograde. Deux schémas explicites sont proposés permettant un ordre d'approximation de 1 et 2.
|
59 |
Champs aléatoires de Markov cachés pour la cartographie du risque en épidémiologieAzizi, Lamiae 13 December 2011 (has links) (PDF)
La cartographie du risque en épidémiologie permet de mettre en évidence des régionshomogènes en terme du risque afin de mieux comprendre l'étiologie des maladies. Nousabordons la cartographie automatique d'unités géographiques en classes de risque commeun problème de classification à l'aide de modèles de Markov cachés discrets et de modèlesde mélange de Poisson. Le modèle de Markov caché proposé est une variante du modèle dePotts, où le paramètre d'interaction dépend des classes de risque.Afin d'estimer les paramètres du modèle, nous utilisons l'algorithme EM combiné à une approche variationnelle champ-moyen. Cette approche nous permet d'appliquer l'algorithmeEM dans un cadre spatial et présente une alternative efficace aux méthodes d'estimation deMonte Carlo par chaîne de Markov (MCMC).Nous abordons également les problèmes d'initialisation, spécialement quand les taux de risquesont petits (cas des maladies animales). Nous proposons une nouvelle stratégie d'initialisationappropriée aux modèles de mélange de Poisson quand les classes sont mal séparées. Pourillustrer ces solutions proposées, nous présentons des résultats d'application sur des jeux dedonnées épidémiologiques animales fournis par l'INRA.
|
60 |
Modèles et inférence pour des systèmes stochastiques structurésForbes, Florence 07 December 2010 (has links) (PDF)
Le contexte de mon travail est la mise au point d'outils statistiques pour le dévelopement et l'analyse de modèles stochastiques structurés. L'idée sous-jacente à la notion de structure est qu'il est souvent possible à l'aide d'hypothèses locales simples combinées de manière cohérente de rendre compte de phénomènes globaux potentiellement complexes. Cette idée de construction du local vers le global guide ainsi la modélisation, l'estimation et l'interprétation. Cette approche se révèle utile dans des domaines variés tels que le traitement du signal et de l'image, les neurosciences, la génomique, l'épidémiologie, etc. Inversement les besoins de ces domaines ont pu susciter en retour des développements théoriques importants. Par ailleurs, beaucoup de techniques statistiques sont encore limitées par des d'hypothèses restrictives pouvant conduire à des analyses imprécises voire erronées. Différentes sources de complexité peuvent mettre en défaut les approches classiques. Souvent les données exhibent une structure de dépendance non triviale, due par exemple à des répétitions, des groupements, des méthodes d'échantillonnage particulières, des associations dans l'espace ou le temps. Une seconde source de complexité est liée au processus de mesure qui peut impliquer l'utilisation d'instruments physiquement très différents, qui produisent des données hétérogènes, en grandes dimensions et potentiellement de manière défaillante de sorte qu'une partie des données peut être manquante. La plupart de mes objectifs de recherche sont centrés sur la mise au point de modèles et d'outils d'inférence pouvant faire face à ce genre de complications fréquentes dans les données modernes et contribuer ainsi au développement de nouvelles méthodes statistiques. En ce qui concerne la notion de dépendance et de localité, un concept central est celui d'indépendance conditionnelle. Les propriétés de Markov et les modèles markoviens permettent d'énoncer de telles indépendances conditionnelles et ce thème est central dans ma recherche. Pour ce qui est des données manquantes ou incomplètes, les modèles de mélanges sont une approche classique. Ces modèles conduisent plus généralement à la notion de modèles à structure manquantes. Ces derniers sont également utiles pour rendre compte d'hétérogénéités dans les données. Ils trouvent de nombreux échos en statistique: modèles de mélanges finis, modèles de Markov cachés, modèles à effet aléatoire, etc. La présence de données incomplètes induit cependant généralement des difficultés pour ce qui est de l'estimation des paramètres et de l'évaluation des performances. Modèles markoviens et modèles de mélanges sont mes deux principaux thèmes de recherche avec cette idée unificatrice de structure dans les modèles mais aussi dans les données. J'ai pu montrer que ces deux thèmes pouvaient être reliés utilement en traitant des problèmes difficiles dans diverses applications. Plus précisément, j'ai developpé des modèles à structure cachée essentiellement dans le but de résoudre des problèmes de classifications inhérents à certaines questions. J'ai souvent abordé le problème de l'estimation de ces modèles à partir de l'algorithme EM et développé des variantes permettant d'apporter des solutions satisfaisantes lorsque les outils classiques faisaient défaut. J'ai tenté également d'apporter des résultats sur les propriétés théoriques, e.g. convergence et vitesse, de ces algorithmes. Enfin, j'ai abordé la question de la sélection de modèles essentiellement en cherchant à proposer des critères de sélection dans les cas où les critères classiques n'étaient pas calculables.
|
Page generated in 0.0214 seconds