• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1801
  • 762
  • 168
  • 9
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 2799
  • 1023
  • 573
  • 318
  • 301
  • 278
  • 263
  • 220
  • 212
  • 202
  • 197
  • 194
  • 192
  • 176
  • 175
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Traitement des congestions dans les réseaux de transport et dans un environnement dérégulé

Manzo, Vincent 22 October 2004 (has links) (PDF)
La restructuration du secteur de l'électricité occasionne des transferts de puissance importants guidés par une logique essentiellement économique,engendrant à leur tour de nouvelles contraintes sur les réseaux de transport appelées congestions. Une congestion dénote l'incapacité du réseau de transport à conduire les programmes du marché de l'énergie, et le traitement des congestions est le procédé assurant que les réseaux sont exploités dans leurs limites de sécurité imposées. Le contexte actuel nécessite donc de définir une méthodologie de traitement des congestions fiable, optimale du point de vue économique, et qui donne de bonnes incitations sur le long terme en vue de réduire les contraintes et de favoriser le développement du réseau. A cet effet, nous proposons dans le cadre de cette Thèse un modèle de traitement des congestions qui définit celui-ci comme un service système séparé du marché de l'énergie. Le traitement repose sur l'usage d'offres d'ajustements venant des producteurs sur une base volontaire, et dont le coût total est minimisé via un algorithme d'optimisation. Ensuite, ce coût est redistribué aux usagers du réseau suivant de nouvelles stratégies d'allocation basées sur la traçabilité de l'énergie. Enfin, cette méthodologie a été adaptée en vue de répondre au problème de la coordination supranationale du traitement des congestions. Les résultats ont montré que cette coordination facilite le traitement de contraintes difficiles, et permet d'espérer des réductions appréciables de coût de congestion, tout en assurant la confidentialité de données économiques sensibles. Les essais ont notamment été effectués sur le réseau RTS 96 comportant 72 nœuds.
162

Introduction et stockage des hydrocarbures et des éléments métalliques au sein du réseau d'assainissement unitaire parisien

Rocher, Vincent 18 December 2003 (has links) (PDF)
Dans les réseaux d'assainissement unitaires, les volumes d'effluents transportés par temps de pluie vers les stations d'épuration sont très importants et ne peuvent être totalement traités. Des déversements, appelés Rejets Urbains de Temps de Pluie (RUTP), ont alors lieu dans le milieu naturel (rivières, lacs, etc.). Ces derniers introduisent dans les milieux récepteurs de grandes quantités de matière organique, d'agents pathogènes et de micropolluants organiques et minéraux. De nombreux travaux ont souligné l'importance de la contribution des dépôts, accumulés dans le réseau d'assainissement par temps sec, à la pollution de ces RUTP. La diminution de la pollution apportée par les RUTP suppose donc que l'on dispose d'informations précises sur la pollution stockée au sein des réseaux d'assainissement. Ce travail a amélioré les connaissances sur le stockage des hydrocarbures et des métaux dans le réseau d'assainissement parisien. Il a été montré que la majorité des micropolluants (87-98 %) est stockée dans le dépôt grossier, une faible proportion dans la couche organique (2-13 %) et une part négligeable dans le biofilm (< 1 %). Ces informations nous ont permis de conclure sur la très faible contribution du biofilm à la pollution de temps de pluie. L'étude qualitative de la pollution a apporté des éléments sur l'origine des contaminations et sur la dynamique des dépôts en réseau. Ainsi, les signatures aliphatiques indiquent une pollution d'origine pétrolière dans le dépôt grossier (huiles et graisses automobiles) et une combinaison des apports biologiques (végétaux, résidus alimentaires) et pétroliers dans la couche organique. Les distributions aromatiques soulignent, quant à elles, l'importance de la contamination pyrolytique (trafic automobile, chauffage résidentiel, etc.) dans l'ensemble des dépôts. Enfin, l'étude des signatures a montré que la couche organique et le biofilm sont majoritairement constitués des matières en suspension transitant dans les collecteurs et que leurs temps de résidence dans le réseau d'assainissement sont inférieurs à celui du dépôt grossier. De plus, il a été montré que les teneurs en métaux fluctuent sur l'ensemble du réseau et qu'il n'existe pas de signatures métalliques typiques du dépôt de réseau. Une variabilité spatiale des teneurs fut également observée pour les hydrocarbures mais, contrairement aux métaux, il existe une pollution de fond en HAP qualitativement homogène sur l'ensemble du réseau d'assainissement. Cette distribution, caractérisée par la prédominance de phénanthrène, fluoranthène et pyrène témoigne de l'impact des sources pyrolytiques. La seconde partie de ce doctorat a été consacrée à la caractérisation des 3 voies d'introduction de polluants dans le réseau d'assainissement (VIRA) : les ruissellements de toitures, de chaussées et les apports directs (effluents domestiques, de restauration, etc.). La comparaison de la pollution véhiculée par les eaux de toitures avec celle des retombées atmosphériques a montré que les hydrocarbures proviennent exclusivement du compartiment atmosphérique alors que certains métaux lourds (Cu, Pb, Ti et Zn) sont largement émis par les toitures (couvertures et accessoires). La seconde VIRA considérée est le ruissellement de chaussées qui comprend le ruissellement de temps de pluie et le lavage de la voirie. La caractérisation des sédiments extraits de stations de relevage, situées le long d'axes routiers majeurs, a permis d'estimer les niveaux de contamination des ruissellements de chaussées à 80 et 24 µg.g-1, pour les hydrocarbures aliphatiques et aromatiques, et à 27800, 1630, 770, 790 et 2,7 µg.g-1 respectivement pour le Fe, Zn, Pb, Cu et Cd. Notre étude des eaux de lavage a, quant à elle, souligné l'importance des quantités de micropolluants générées par le lavage quotidien de la voirie. Le bilan massique, réalisé à l'échelle du bassin versant du Marais (Paris, 4ème arrondissement), a permis de constater que, pour la plupart des micropolluants, la contribution des eaux de lavage à la pollution du réseau est supérieure à celle des eaux de toitures. Enfin, la pollution en hydrocarbures associée aux effluents domestiques, de restauration et de garages a été étudiée. A l'échelle du bassin versant du Marais, les flux d'hydrocarbures aliphatiques résolus et non résolus apportés par ces effluents, respectivement estimés à 840 et 1230 g.j-1, sont largement supérieurs à ceux apportés par les ruissellements de toitures et les eaux de lavage de la voirie et soulignent donc la contribution majeure de ces effluents à la pollution aliphatique du réseau d'assainissement.
163

Evaluation et optimisation du mécanisme de Handhover dans un Réseau Local Sans Fil dédié aux applications à trafic contraint par le temps

Hernandez, Sébastien 20 October 2006 (has links) (PDF)
Ce travail a pour contexte des applications industrielles où des mobiles communiquent via un réseau local sans fil. Nous avons élaboré une plate-forme où des mobiles collaborent via un réseau IEEE802.11 en mode infrastructure, les communications s'effectuent via des points d'accès (AP) auxquels les mobiles sont affiliés. Chaque AP gère une zone appelée cellule, les mobiles vont être à passer d'une cellule à une autre et s'affilier à différents AP. Ce mécanisme, appelé Handover génère un trafic de gestion, qui va perturber le trafic de collaboration des mobiles, et a un coût en temps pendant lequel le mobile va être isolé du réseau. Ces effets peuvent être désastreux dans des applications où le temps est un facteur critique. Nous proposons des solutions efficaces qui agissent sur la phase de recherche d'un nouvel AP, qui réduisent le trafic de gestion du handover et qui peuvent complétées par l'ajout d'une deuxième interface réseau sur chaque mobile
164

ROSA: Un Réseau de Recouvrement Adaptable, Auto-Organisant et Extensible

Loic, Baud 09 April 2010 (has links) (PDF)
Les réseaux de recouvrement ont été popularisés avec l'expension des réseaux pair-à-pair (peer-to-peer networks) dans les années 2000. Il existe de nombreux types de réseaux de recouvrement, certains sont extensibles d'autres non, certains ont pour rôle d'assurer une topologie résiliente, certain offre un service de routage fiable, etc. Mais aucun des réseaux de recouvrement n'est adaptables à différents types de réseaux recouvert et ne proposer un large éventail de services. Tout réseau de recouvrement existant est uniquement dédié à une tâche particulière. On peut imaginer un réseau qui pourrait être déployé à cheval sur de nombreux types différents de réseau et ne se consacrant pas seulement à une tâche particulière. Cette thèse a pour objectif de définir les bases et de développer un tel réseau de recouvrement. Dans ces travaux de recherches, nous proposons un nouveau réseau de recouvrement appelé ROSA. ROSA est conçu de façon à pouvoir facilement être adapté aux différents réseaux physiques et d'être en mesure de fournir un large éventail de services différents. Les nœuds de ROSA sont organisés en cluster appelé grumeaux (lump) et ROSA peut être considéré comme un enchevêtrement de grumeaux. Les nœuds organisent leurs ensembles de voisin en fonction des densités associées à ces grumeaux. ROSA est extensible car le nombre maximal de voisins qu'un noeud peut avoir est borné, et cette limite ne dépend pas du nombre total de nœuds participant au réseau. ROSA est adaptable car la définition de la densité des grumeaux peuvent être modifies et adaptés aux propriétés du réseau recouvert. La densité définit le comportement de ROSA
165

MODELISATION DES EQUIVALENTS DYNAMIQUES DES RESEAUX ELECTRIQUES

Craciun, Diana 15 December 2010 (has links) (PDF)
Aujourd'hui, les réseaux de distribution sont de plus en plus complexes à cause de composants non linéaires (nouveaux types de sources, production décentralisée (PD) à taux de pénétration significatif, charges contrôlables, convertisseurs d'électronique de puissance) qui ont un comportement dynamique de plus en plus prépondérant, ce qui amène à de nouveaux besoins en terme de modélisation et de simulation, notamment vu des réseaux de transport. En effet, les réseaux de distribution sont les charges des réseaux de transport et leur impact dynamique sur ces mêmes réseaux de transport devient de plus en plus important. Il est donc nécessaire de développer des équivalents dynamiques des réseaux de distribution afin de pouvoir effectuer des simulations de grands réseaux de transport utilisant des modèles de taille raisonnable. Dans ce contexte, l'objectif de la thèse est de développer des équivalents dynamiques des réseaux de distribution en utilisant des méthodes d'estimation de paramètres basées sur des mesures prises à la frontière entre le réseau de transport et le réseau de distribution à réduire. Cette estimation de paramètres consiste en une minimisation d'une erreur quadratique entre la mesure et le résultat de la simulation avec modèle équivalent. Pour cette minimisation, on utilise des méthodes évolutionnaires (AG " Algorithme Génétique ", PSO " Particle Swarm Optimization "). L'originalité principale de la thèse par rapport aux travaux déjà effectués sur le même thème réside dans le développement d'une méthodologie de calcul systématique et adaptée des régulations des modèles équivalents. Il a en effet été montré dans la thèse qu'un calcul précis et méthodologique de ces régulateurs permet d'obtenir une meilleure précision des équivalents qu'un choix plus ou moins arbitraire ou par similitude des régulations et de leurs paramètres comme cela se pratique usuellement. Des validations de la méthodologie proposée ont été faites sur le réseau de transport test IEEE New-England 39 noeuds et sur ce même réseau test couplé à un réseau de distribution.
166

Vers l'élaboration d'un matériau holographique de dimension centimétrique pour l'enregistrement de réseaux de phase en volume à pas variable (réseaux de Bragg chirpés) : Application à l'étirement d'impulsions laser ultra-courtes.

Laux, Sébastien 20 April 2010 (has links) (PDF)
Dès sa première réalisation expérimentale par Théodore Maiman en 1960, le laser a fonctionné en régime impulsionnel. Même si les puissances mises en jeu à cette époque étaient très faibles, la brillance de cette source rivalisait déjà avec un million de soleils. De ce fait, il était facile de voir l'intérêt de pouvoir placer une fraction d'énergie lumineuse dans des impulsions de durée les plus courtes possibles. Avec la technique d'amplification à dérive de fréquence, l'exploration des système d'étirement et de compression commence. Malgré une diversité de solutions pour les étireurs et les compresseurs, le système de Treacy va dominer complètement les architectures lasers en raison de son très haut niveau de dommage essentiel pour les applications de très haute énergie. Pourtant, cette solution est loin d'être facile à mettre en oeuvre et le système est associé à de nombreux défauts. Le coût des optiques (réseaux de diffraction et optiques réflectrices du triplet de Öffner) est très élevé en raison des très grandes dimensions et des qualités de surface nécessaires pour l'obtention d'impulsion de 20-fs. C'est dans ce contexte que s'inscrit cette thèse. Les systèmes d'étirement et de compression ont été clairement identifiés comme verrous technologiques pour le développement des lasers femtosecondes tant dans le cadre scientifique, qu'industriel. A cet effet, nous avons mené une étude pour la réalisation d'un système étireur compact utilisant des réseaux de Bragg à pas variable enregistrés via des méthodes holographiques, proposant une rupture technologique. Pour la réalisation de cet étireur un nouveau matériau holographique a été développé et mis en oeuvre pour la réalisation d'un composant de test. Son utilisation dans une chaîne d'amplification classique conduit à une démonstration de faisabilité claire d'un tel système.
167

De la surveillance à la détection des problèmes de santé au travail potentiellement émergents dans un contexte de multi-exposition : développement de méthodes appliquées au réseau national de vigilance et de prévention des pathologies professionnelles RNV3P

Faisandier, Laurie 17 February 2011 (has links) (PDF)
L'environnement professionnel est une source multifactorielle d'expositions où des nuisances d'origine industrielle, chimique ou toxique interagissent pour produire des effets néfastes sur la santé. Le Réseau National de Vigilance et de Prévention des Pathologies Professionnelles (RNV3P) est une base de données où des médecins spécialistes enregistrent des Problèmes de Santé au Travail (PST) à la suite d'un interrogatoire professionnel avec le patient. Un PST est défini comme l'association entre une pathologie et des expositions professionnelles multiples (1 à 5 nuisances, un métier et un secteur d'activité). Les objectifs consistent à développer une approche prenant en compte la multi-exposition professionnelle pour surveiller et détecter les PST potentiellement émergents. Ce travail débute par l'investigation des méthodes et outils statistiques existants pour la surveillance et la détection des événements sanitaires émergents. Nous décrivons ensuite la base de données du RNV3P, son activité et les travaux de recherche déjà réalisés, puis définissons le concept d'émergence au sens des données du RNV3P. Dans un premier temps, nous avons développé une approche basée sur les réseaux relationnels, appelée "Exposomes", qui permet de caractériser et surveiller les expositions professionnelles simples ou multiples potentiellement en cause dans la survenue de la pathologie. A partir du processus d'enregistrement des PST, nous avons dans un deuxième temps développé des travaux de modélisation, appelés "Fonctions Expertes", et construit une stratégie pour détecter des Problèmes de Santé au Travail potentiellement émergents.
168

Réseaux bayésiens et filtres particulaires pour l'égalisation adaptative et le décodage conjoints

Cheung-Mon-Chan, Pascal 12 1900 (has links) (PDF)
Cette thèse s'intéresse aux réseaux bayésiens, aux filtres particulaires et à leur application aux communications numériques. Tout d'abord, nous donnons une construction rigoureuse et très générale des réseaux bayésiens et nous présentons l'algorithme de propagation de croyance dans ce contexte. Puis, nous introduisons un nouveau type de filtre particulaire, appelé "filtre particulaire à échantillonnage global", et nous constatons en effectuant des simulations numériques que ce nouvel algorithme se compare favorablement à l'état de l'art. Nous utilisons ensuite le filtrage particulaire pour calculer de façon approchée certains messages de l'algorithme de propagation de croyance. Nous obtenons ainsi un nouvel algorithme, combinant propagation de croyance et filtrage particulaire, que nous avons appelé "algorithme de turbo-filtrage particulaire». Enfin, nous utilisons ces différentes techniques afin de concevoir de façon méthodique un récepteur de communications numériques.
169

Enrichissement de réseaux sémantiques par la proximité de concepts

Shetty, Reena 12 November 2008 (has links) (PDF)
Ces dernières années ont vu le déferlement d'une vague d'information sous forme électronique liée à l'usage croissant du World Wide Web (WWW). Pour beaucoup, le World Wide Web est devenu un moyen essentiel pour mettre à disposition ou rechercher de l'information, conduisant à une forte accumulation de données. La recherche sur Internet dans sa forme présente devient vite exaspérante car les données disponibles peuvent être superficielles et de formes très diverses. Les utilisateurs du Web en ont assez d'obtenir des ensembles gigantesques de réponses à leurs requêtes simples, ce qui les oblige à investir de plus en plus de temps pour analyser les résultats. De nombreux résultats s'avèrent non pertinents et les liens les plus intéressants restent souvent en dehors de l'ensemble des résultats. Le chapitre1 introduit la motivation de notre travail de recherche. L'une des principales explications concernant la difficulté à effectuer une recherche d'information efficace est que les ressources existantes sur le web sont exprimées sous une forme destinée à la compréhension humaine. En d'autres termes, ces données sont difficilement utilisables par la machine et l'intervention humaine s'avère indispensable. Ainsi, l'un des principaux challenges est d'imaginer des outils intelligents fondés sur les concepts et méthodes autour de la représentation et du traitement des connaissances pour créer des données exploitables par la machine et obtenir de meilleurs résultats. Le chapitre 2 évalue et étudie les méthodes existantes et leurs limitations. De nombreux chercheurs ont travaillé sur la problématique de la compréhension des données par la machine et certaines des solutions les plus intéressantes sont les ontologies basées sur le « web sémantique ». Les ontologies permettent une meilleure « compréhension » des documents et facilitent à l'aide d'outils appropriés la qualité des recherches dans l'information existante. L'accent est mis sur la réflexion nécessaire à la construction de la signification du concept relié aux réseaux pour la représentation des connaissances. L'idée est de tendre vers la production semi-automatique voire complètement automatique de résultats de grande qualité. Autrement dit, l'objectif est de minimiser l'intervention humaine est de maximiser la qualité des résultats obtenus. Le chapitre 3 présente la plate-forme ToxNuc-E et le positionnement de notre recherche autour de cette plate-forme. Etant donné l'importance pratique et théorique du développement d'ontologies, il n'est pas surprenant de retrouver un grand nombre de chercheurs, fervents et engagés dans ce domaine de recherche. Dans le cadre de notre travail de recherche nous proposons une approche nouvelle, dite ESN (« Extended Semantic Network »), qui contrairement aux approches classiques, basées sur les mots clés, fonde la construction d'ontologie sur la convergence d'associations entre concepts ou nœuds sémantiques sur un ensemble de thèmes et la proximité des termes dans un ensemble de documents. Notre terrain d'application est le programme de toxicologie nucléaire environnementale français : ToxNuc-E. Le chapitre 4 précise le concept de « réseau de proximité », généré par des modèles mathématiques. L'idée de base de notre approche ESN est de construire efficacement une ontologie adaptée à la recherche d'information dans de larges corpus. La première phase consiste à traiter une grande quantité d'information textuelle en utilisant des modèles mathématiques pour automatiser la construction d'un embryon d'ontologie. L'objectif est d'obtenir un réseau de mots qui peut être assez volumineux. Celui-ci est calculé en utilisant des outils mathématiques venant de l'analyse de données et la classification automatique. Ainsi, la création d'un réseau de proximité repose alors sur la proximité des mots dans un document. Le chapitre 5 présente la construction des « réseaux sémantiques » et introduit notre modèle de conception pour gagner en efficacité. Le réseau sémantique est essentiellement un graphe orienté étiqueté permettant l'utilisation de règles génériques, de l'héritage, et de la représentation orientée objet. Il est souvent utilisé comme une forme de représentation des connaissances, où les concepts représentés par les nœuds sont connectés l'un à l'autre en utilisant les liens relationnels représentés par des arcs. Le réseau sémantique est construit de façon manuelle avec l'aide d'experts de la connaissance possédants la compréhension d'un domaine. Il est donc principalement construit par les hommes, dans notre approche de taille assez réduite, et d'une très bonne précision. Le chapitre 6 détaille le « réseau sémantique étendu ». La deuxième phase de traitement consiste à examiner attentivement et de manière efficace les différentes possibilités d'intégrer les informations issues du modèle mathématique (réseau de proximité) et du modèle cognitif développé manuellement (réseau sémantique). Cette phase se base sur une méthode heuristique développée dans l'extension des réseaux et utilisant les résultats de la méthode mathématique. Cette phase se termine en considérant le modèle humain (développé manuellement) comme le point d'entrée de notre réseau de concepts. L'idée principale est de développer une approche novatrice combinant les caractéristiques humaines et la théorie des concepts utilisée par la machine. Les résultats peuvent présenter un grand intérêt dans différents champs de recherche tels que la représentation des connaissances, la classification, l'extraction, ainsi que le filtrage des données. Le chapitre 7 illustre quelques expérimentations réalisées à l'aide de notre réseau sémantique étendu et ouvre des orientations pour les perspectives d'avenir. Les questions concernant la représentation des connaissances, la gestion, le partage et l'extraction d'information sont passionnantes et complexes. Cet attrait est en toute évidence essentiellement du aux rapports entre l'homme et la machine. Le fait que nous essayons de combiner les résultats de deux aspects différents constitue l'une des caractéristiques les plus intéressantes de notre recherche actuelle. Notre proposition peut faciliter la construction d'ontologies de manière plus rapide et plus simple. Le réseau sémantique étendu peut être utilisé, à la place d'une ontologie plus classique, par des outils comme par exemple : un classificateur de documents. Nous considérons notre résultat comme étant structuré par l'esprit et calculé par la machine. L'une des principales perspectives pour le travail à suivre est de trouver un bon compromis entre concepts du réseau sémantique et graphes de mot issus du réseau de proximité. D'autres perspectives à ce travail consistent à mettre en place des benchmarks dans différents contextes pour mesurer l'efficacité de notre prototype.
170

Atomes froids fortement corrélés dans un réseau optique.

Dao, Tung-Lam 09 October 2008 (has links) (PDF)
Cette thèse est consacrée à l'étude théorique des états quantiques fortement corrélés de ultra-froids piégés atomes fermioniques dans les réseaux optiques. Ce champ a considérablement augmenté Ces dernières années, suite aux progrès expérimentaux réalisés dans le refroidissement et le contrôle des gaz atomiques, qui a conduit à l'observation de la première condensation de Bose-Einstein (en 1995 [4]). Le le piégeage de ces gaz dans les réseaux optiques a ouvert un nouveau champ de recherche à l'interface entre la physique atomique et physique de la matière condensée. L'observation de la transition à partir d'un superfluide à un isolant de Mott d'atomes bosoniques [46] a ouvert la voie pour l'étude de fortement corrélée phases et transitions de phase quantique dans ces systèmes. Très récemment, le enquête sur l'état isolant de Mott d'atomes fermioniques [63] fournit une motivation supplémentaire de procéder à ces études théoriques. Cette thèse peut être divisée en deux grandes catégories de travail: • D'une part, nous avons proposé un nouveau type de spectroscopie pour mesurer une particule observables corrélateurs et physiques associés à ces états fortement corrélés. • D'autre part, nous avons étudié l'état fondamental du modèle Hubbard fermionique dans des conditions différentes (déséquilibre de masse déséquilibre de population), à l'aide d'analyse techniques et des simulations numériques. En collaboration avec J. Dalibard et C. Salomon (LKB à l'ENS Paris) et I. Carusotto (Trento, Italie), nous avons proposé et étudié une nouvelle méthode de spectroscopie de la mesure et la caractérisation des excitations particule unique (en particulier, la faible excitations de l'énergie, à savoir la quasi-particules) dans les systèmes d'atomes froids fermioniques, avec l'énergie résolution en impulsion et. Ce type de spectroscopie est un analogue de la cinétique résolue photoémission en physique des solides (ARPES). Nous avons montré, via des modèles simples, que ce méthode de mesure permet de caractériser les quasiparticules non seulement dans les "classiques" phases tels que le gaz interagissent faiblement dans le réseau ou dans des liquides de Fermi, mais aussi dans les phases inhabituelles tels que l'état normal de la supraconductivité à haute température avec un pseudogap (leader à une différenciation entre les nœuds et anti-nœuds) ont observé en physique mater condensé. Le première expérience d'application d'un type de spectroscopie (spectroscopie RF) très étroitement liés à notre proposition a été récemment réalisée à Boulder dans le groupe DS Jin, tout comme cette thèse était en cours de rédaction. Dans la deuxième partie de cette thèse, nous avons effectué des études théoriques de plusieurs phases de fermions fortement corrélés dans les réseaux optiques dans le cadre de modèles théoriques tels que le modèle de Hubbard. Nous avons mis en place et développé des méthodes d'analyse (Hartree-Fock théorie du champ moyen à faible couplage, la cartographie sur un modèle de spin effectif à couplage fort) et des méthodes numériques (approche de la dynamique signifie la théorie des champs). Ce travail a conduit à deux certains types d'études. Le premier étudie la concurrence entre une phase superfluide et une onde de densité (ou la séparation de phase) pour des fermions à un déséquilibre de masse et attrayant interaction. Nous avons montré que la phase superfluide est instable au-delà d'une certaine valeur du rapport de masse, qui dépend de l'interaction. La seconde étude traite d'un gaz à déséquilibrée des populations (polarisée gaz) avec une interaction attractive en trois dimensions réseau optique. Le résultat principal est un diagramme de phase montrant la stabilité d'un superfluide uniforme phase avec la polarisation (phase Sarma ou violé deux phases) dans un certain paramètre régime. Via un argument énergétique, nous avons conclu que la stabilité du superfluide polarisé phase est due à la réduction de la polarisabilité et le champ critique de la non-polarisée phase superfluide. Dans le régime de couplage fort du modèle de Hubbard, au sein de l'indice CAOD méthode, nous avons montré que la formation de la paire préformé à l'état normal réduit la polarisabilité et favorise la stabilité de la phase deux violée. Bien que certains aspects ont été abordés dans cette thèse, beaucoup de questions intéressantes restent ouvertes pour les travaux futurs. Dans la première partie, le cadre de la spectroscopie roman méthode établie dans le chapitre 2 peut permettre de différentes études concrètes de la nature de vivement les États de corrélation. Par exemple, il devrait être très intéressante pour comprendre les spectres d'excitation à une particule dans les phases non triviales comme l'isolant de Mott, la préformées ou des paires de phases avec ordre à longue portée. Dans la deuxième partie, la construction de la améliorée (BCS-Slater) la théorie du champ moyen, y compris la correction Hartree permet une meilleure Comparaison des méthodes modernes (CAOD et Slave bosons). Pour le système avec la même population pour les deux espèces, la région proche du modèle Falicov-Kimball n'est pas encore bien compris dans notre analyse CAOD en raison de problèmes de la convergence numérique au sein de la méthode exacte-diagonalisation. Toutefois, au sein de l'analyse de la théorie du champ moyen, nous voyons qu'un nouvelle phase uniforme de la vague de densité de charge (CDW-dopé) peut être stabilisé Merci à la haute asymétrie des sauts. Afin de clarifier cette question, une étude réalisée par l'esclave Boson de champ moyen la théorie pourrait être très utile. Cette méthode a deux avantages: d'abord, il contient la forte Physique corrélation (y compris les fluctuations quantiques), d'autre part, dans certains cas simples que nous pouvons extraire le comportement analytique de la solution. En outre, un traitement complet au sein de MFT pour les deux paramètres d'ordre, le superfluide et de la CEP, devrait être utile pour comprendre la nature de la transition de phase dans cette limite. Une autre perspective de cette thèse est l' compréhension de la nature de la phase superfluide polarisé. L'inadéquation de l'Fermi surfaces considérées dans cette thèse est dû au déséquilibre de la population. Nous pouvons toujours contrôler ce décalage en introduisant en outre un déséquilibre de masse. Dans la région, avec la grand-messe déséquilibre, il est probable que la stabilité de la phase superfluide polarisé uniforme peut être encore renforcée. Dans cette thèse, les effets du potentiel de confinement ont été inclus par le biais du local approximation de la densité. Pour un faible potentiel et lisse, ce rapprochement devrait être précis. Toutefois, pour renforcer l'accouchement, il peut devenir plus discutable. En effet, Cette question a récemment été débattu dans la littérature, dans le cadre de l'interprétation d'expériences avec la population déséquilibre [92, 126]. Dynamiques de champ moyen théorie peut être mis en œuvre dans un cadre homogène, au-delà de LDA [53, 95, 102], ce qui pourrait être utilisés pour évaluer la validité de l'approximation LDA pour des problèmes tels que ceux étudiés dans cette thèse. Cela pourrait être pertinent, en particulier pour le débat actuel sur les phases de la systèmes fermioniques à un déséquilibre de la population.

Page generated in 0.0348 seconds