• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5991
  • 1673
  • 724
  • 10
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 8341
  • 2694
  • 2691
  • 1642
  • 1359
  • 1225
  • 866
  • 847
  • 823
  • 646
  • 587
  • 528
  • 514
  • 498
  • 478
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
351

Modélisation systémique de la digestion dans le rumen : comparaison des modèles existants, modélisation des flux d'amidon, approche thermodynamique des fermentations

Offner, Anne 22 October 2003 (has links) (PDF)
Les réponses nutritionnelles et zootechniques des ruminants aux variations de régime sont largement conditionnées par leurs effets au niveau du rumen. L'objectif de ce travail était d'apporter de nouvelles perspectives pour progresser dans la démarche de modélisation de cet organe, qui a débuté dans les années 1970. Pour l'aborder, nous avons privilégié une approche par modélisation systémique à différents niveaux organisationnels: de l'organe, aux flux de nutriments et jusqu'aux mécanismes de régulation cellulaire. La première partie du travail était consacrée à une étude comparative des modèles actuels. Peu de validations comparées des modèles avaient été entreprises jusqu'à présent. Les résultats rendent compte des principes communs appliqués mais aussi des spécificités de chacun des modèles. Leur plus grande faiblesse réside dans leur incapacité à prédire de façon satisfaisante les équilibres des produits terminaux des fermentations (acides gras volatils, gaz et matières microbiennes). Pour progresser dans ce domaine, nous avons exploré deux voies. La première concerne la représentation de la digestion de l'amidon, substrat glucidique expliquant la majeure partie des variations de la vitesse de digestibilité ruminale des rations. Nous avons développé un modèle de prédiction des flux d'amidon pour mieux quantifier et expliquer les variations observées. Cette étude a été réalisée à partir de bases de données quantitatives portant sur ces flux mesurés in sacco et in vivo. Les résultats obtenus expliquent assez précisément les variations observées intra-essai. Par contre, les variations inter-essais demeurent importantes et difficiles à apprécier. La seconde voie est basée sur l'application des lois de la thermodynamique au métabolisme microbien. L'objectif est d'améliorer la prédiction des produits terminaux des fermentations. Cette approche originale des aspects fermentaires a comporté un volet modélisation et un volet expérimental. Les résultats permettent de dégager certaines propriétés comme résultant des principes de la thermodynamique et nous confortent dans l'intérêt de cette approche. Ce travail de thèse contribue aux avancées en matière de modélisation du rumen, notamment pour la modélisation des flux d'amidon. Il propose aussi de nouveaux champs de recherche encore peu explorés.
352

La théorie de la viabilité au service de la modélisation mathématique du développement durable. Application au cas de la forêt humide de Madagascar

Bernard, Claire 19 September 2011 (has links) (PDF)
Le développement durable, défini à l'origine comme un mode de développement qui répond aux besoins du présent sans compromettre la capacité des générations futures à répondre aux leurs, souffre aujourd'hui des limites de cette définition. On dénombre en effet des centaines de définitions rendant le concept flou au point que mesures politiques et économiques les plus diverses se revendiquent durables.L'objectif de cette thèse est de modéliser le développement durable à l'aide des outils mathématiques de la théorie de la viabilité et de rendre sa définition opérationnelle. La théorie de la viabilité permet en effet d'intégrer les principales caractéristiques d'un développement durable : l'approche multi-objectifs, la prise en compte d'un horizon temporel infini, la possibilité de déterminer plusieurs politiques d'actions viables et le respect de l'équité intergénérationnelle. Le principe de la viabilité est l'étude de systèmes dynamiques contrôlés soumis à un ensemble de contraintes. Le concept central est celui de noyau de viabilité, ensemble regroupant tous les états initiaux à partir desquels il existe une évolution restant dans l'ensemble de contraintes. Après avoir mis en évidence les limites des méthodes utilisées dans la modélisation du développement durable telles que l'analyse multicritères, notre démarche scientifique s'appuie sur le développement de deux modèles mathématiques appliqués à la gestion durable du corridor forestier de Fianarantsoa (Madagascar). L'enjeu est alors de déterminer des politiques d'actions permettant de satisfaire un double objectif : la conservation de la forêt et la satisfaction des besoins de la population locale. Nous démontrons alors l'utilité de la théorie de la viabilité pour atteindre ces objectifs en définissant les contraintes adaptées et en calculant des noyaux de viabilité.
353

Modélisation et conception optimale d'un moteur linéaire à induction pour système de traction ferroviaire

Gong, Jinlin 21 October 2011 (has links) (PDF)
Cette thèse porte sur l'étude des performances du moteur linéaire de référence par la méthode d'analyse éléments finis, et la conception optimale sur un modèle lourd en temps de calcul. La méthode éléments finis est utilisée pour étudier les performances du moteur linéaire de référence, car le modèle analytique d'un moteur linéaire est difficile à construire dû aux effets d'extrémités. Le modèle éléments finis (MEF) 2D permet de prendre en compte l'effet d'extrémité de longueur finie. L'effet d'extrémité de largeur finie est intégré au modèle 2D en faisant varier la conductivité du secondaire et en ajoutant une inductance de tête de bobines. Ensuite, le couplage entre le MEF 3D magnétique et thermique permet de prendre en compte tous les effets d'extrémité et de l'influence de la température. Un banc d'essais est construit pour valider les modélisations éléments finis. La comparaison entre les différents modèles montre l'importance du modèle couplé. L'optimisation directe sur un MEF est très couteuse en temps de calcul. Les stratégies d'intégrer un modèle de substitution au lieu d'un MEF sont étudiées. L'optimisation directe sur un modèle de substitution et l'algorithme Efficient Global Optimisation (EGO) sont comparés. Un algorithme Space Mapping (SM) 3 niveaux est proposé. Les résultats des cas tests montrent que le SM 3 niveaux est plus efficace par rapport à l'algorithme SM 2 niveaux. Une nouvelle stratégie d'optimisation avec un faible budget d'évaluation du MEF est proposée et testée dans le contexte d'une modélisation difficile. La stratégie proposée permet d'évaluer les MEF en parallèle, ainsi permet un gain considérable de réduction du temps d'optimisation.
354

Étude du polissage mécano-chimique du cuivre et modélisation du processus d'enlèvement de matière

Bernard, Pierre 19 December 2006 (has links) (PDF)
Le polissage mécano chimique est très largement utilisé dans l'industrie des semiconducteurs pour aplanir des surfaces de divers matériaux. Sa grande capacité d'aplanissement et le grand nombre de paramètres sur lequel on peut jouer font de lui à la fois un procédé très utile et efficace, mais également un procédé difficile à maîtriser. De par justement le très grand nombre de paramètres, la modélisation de ce procédé a été difficile et s'est longtemps appuyée sur une loi proposée en 1927 par Preston et décrivant le polissage de lentilles de verres. Elle relie linéairement la pression et la vitesse à la vitesse d'enlèvement de matière. L'introduction de ce procédé dans l'univers des semiconducteurs a pris place dans les années 1980. Depuis, les matériaux polis ont énormément évolué, répondant aux besoins de l'industrie quant à la diminution de tailles et l'amélioration des propriétés (électriques surtout). Cette loi est empirique, et n'explique pas les phénomènes physicochimiques sous-jacents. Le principe du CMP (Chemical Mechanical Polishing, polissage mécano chimique) est de venir transformer par une action chimique la surface qu'on veut polir, et ensuite enlever cette surface transformée par abrasion mécanique. Notre étude porte sur la compréhension du phénomène d'enlèvement de matière et sur sa modélisation, dans le polissage mécano chimique de surface de cuivre. Pour cela, nous avons mis en place un dispositif expérimental plus simple et moins coûteux que les machines de polissage utilisées en ligne de production. Nos échantillons sont des carrés de 5cm2 découpés dans les tranches de 20 cm de diamètre. Ils sont placés sur le tissu de polissage (pad) qui est en rotation sur lui-même, et sur lequel sont amenés les liquides de polissages (slurries) contenant de l'oxydant, du BTA, du surfactant, de l'eau et des particules abrasives. On applique une pression sur le porte-échantillon. La couche superficielle de cuivre est transformée sous l'action des oxydants présents dans les slurries. Le cuivre se transforme en oxyde de cuivre (Cu2O), qui a des propriétés mécaniques et physiques différentes. C'est justement ces différences qui vont rendre plus facile l'enlèvement de la couche d'oxyde par rapport à la couche de cuivre. Les particules abrasives en solution sont à l'origine de l'enlèvement de matière à proprement dit. Elles viennent enlever un petit volume de la surface, dépendant de leur dimension, leur enfoncement et leur vitesse. Par ailleurs, on peut relier leur enfoncement à la pression qu'elles subissent. Finalement, notre modélisation aboutit à une expression dans laquelle la vitesse d'attaque (vitesse d'enlèvement de matière) est proportionnelle au produit Pq.V , avec P la pression, V la vitesse de polissage et q un exposant égal à 1, 19, et dépendant de la portance du tissu de polissage et de la profondeur d'indentation des particules dans la couche d'oxyde de cuivre. La couche d'oxyde n'est pas toute enlevée à chaque interaction de la surface avec une particule abrasive, cela va dépendre de l'épaisseur de cette couche. Cette épaisseur dépend de la durée entre deux interactions successives, durée qui permet l'action de la chimie, et donc la formation de la couche d'oxyde. Par ailleurs, de faibles concentrations en oxydant donnent des faibles épaisseurs et des fortes concentrations des épaisseurs plus importantes. La vitesse d'attaque du cuivre atteint un palier pour des concentrations en oxydant supérieures à 20 g/L : les particules abrasives ne peuvent pas enlever plus qu'un volume maximal dépendant de leur indentation maximale. Les morceaux d'oxyde de cuivre arrachés de la surface se retrouvent sous forme de débris englobés dans des micelles de surfactant, et sont évacués. Le CMP est utilisé pour aplanir les surfaces. Pour des motifs profonds, le pad ne touche pas le fond des motifs et l'enlèvement ne se fait que dans les parties hautes. Ensuite, à partir d'une marche DX, qui dépend de la géométrie, de la pression et des propriétés élastiques du pad, il y a contact partout sur le wafer et l'enlèvement de matière va dépendre de la hauteur de la marche. On aboutit à une expression en exponentielle décroissante, qui se retrouve très bien dans l'expérience. On a cherché également à expliquer comment se déroule le surpolissage, mais nos équations, bien que donnant les bonnes allures, nous donnent des valeurs bien trop importantes par rapport aux essais. La difficulté de la modélisation vient principalement de la présence d'un nouveau matériau, le tantale, dont on connait mal le processus d'enlèvement. Finalement, notre modélisation explique bien les processus d'enlèvement de matière et d'aplanissement.
355

Dimensionnement de structures sous impacts : du comportement des matériaux à la simulation numérique

Gatuingt, Fabrice 03 December 2009 (has links) (PDF)
L'objectif de ce mémoire est de faire une présentation synthétique des activités de recherche que j'ai menées au sein du LMT Cachan depuis neuf ans et de mettre en avant le fil conducteur du travail réalisé. Ce travail est la synthèse de collaborations avec différents chercheurs, industriels, doctorants et stagiaires de M2.Trois thèmes principaux seront développés ici. Ils concernent, comme le titre du mémoire l'indique, la modélisation mécanique et numérique de structures soumises à un impact. Afin de pouvoir proposer des méthodes prédictives de dimensionnement, je me suis attaché à aborder les trois éléments de bases : la modélisation du matériau, l'expérimentation sur structures et la modélisation numérique. En plus de ma notice individuelle, ce document présente donc les principaux résultats obtenus dans chacune des trois thématiques suivantes : Développement de lois de comportement adaptées à la dynamique Calculs sur structures industrielles Caractérisation expérimentale Pour chacun de ces trois thèmes, les motivations du travail et les principaux apports sont présentés en compléments de la copie d'un article représentatif des activités menées. La première partie est consacrée au premier thème de recherche développé, à savoir la modélisation du comportement des matériaux, tout particulièrement le béton, soumis à des sollicitations dynamiques. Je présenterai dans celui-ci un bref rappel du modèle développé lors de ma thèse de doctorat et qui a servi de base de travail pour une thèse que j'ai co-encadrée. Dans un deuxième temps, je présenterai un modèle d'endommagement anisotrope qui a fait l'objet de nombreux développements et publications ces dernières années. Enfin, je finirai par présenter un modèle utilisé pour les matériaux composites et que j'ai été amené à utiliser. Le seconde chapitre vise à présenter mes principales contributions concernant le développement de méthodes multiéchelles pour la représentation des matériaux et/ou de structures sous chargement sévère. Ainsi, je commencerai par présenter une approche ou le matériau n'est plus considéré comme homogène mais constitué d'une matrice et d'inclusions plus ou moins rigides. Ensuite je m'attarderai un peu plus sur deux méthodes numériques développées pour la modélisation de structure. Ces deux méthodes sont le fruit de mon passage dans le secteur ''Structures et Systèmes'' du LMT Cachan pendant 4 ans. Ceci m'a permis d'étoffer le champs de mes connaissances dans les matériaux composites et dans la méthode LATIN développée au laboratoire. La troisième partie est liée au développement d'outils de calcul prédictifs pour les problèmes d'impact. C'est pourquoi je commencerai par présenter des essais sur tour de chute que nous avons développés en collaboration avec le CEA Saclay. Ces essais nous ont ensuite été utiles pour montrer les capacités de prédictions des différentes modélisations développées. Ceci a été confirmé par la simulation d'essais de souffle et d'impact de réacteur d'avion sur des dalles en béton armé réalisés dans les années 90. Finalement, quelques perspectives sur mes activités de recherche sont proposées à la fin de ce document. Cette dernière partie présente notamment les activités de recherche et d'encadrement qui débute cette année. L'annexe correspond à mon dossier professionnel. Il contient, en plus de mon CV, mon implication dans divers contrats de recherche, mes activités d'encadrement, ainsi que la liste de mes publications scientifiques.
356

Simulations numériques d'écoulements réactifs massivement décollés par une approche hybride RANS/LES

Sainte-Rose, Bruno 11 June 2010 (has links) (PDF)
Les premières simulations numériques d'écoulements réactifs sur des configurationscomplexes ont été réalisées à l'aide d'approches RANS (Reynolds Averaged Navier Stokes). Ces dernières, bien adaptées aux écoulements de type couches limites attachées et relativement peu coûteuses en temps de calcul, ne donnent accès qu'à des résultats stationnaires qui s'éloignent parfois de la réalité. Pour réaliser des simulations instationnaires d'écoulements, les méthodes de type LES (Large Eddy Simulation) -- plus précises mais plus coûteuses -- sont de plus en plus utilisées. Cependant, ces méthodes sont mal adaptées à la simulation de la dynamique pariétale, car elles nécessitent un effort de maillage souvent prohibitif près de la paroi. Cette thèse est consacrée au développement dans le code CEDRE (code de simulation d'écoulements réactifs complexes de l'Onera) d'une méthode hybride RANS/LES, appelée Delayed Detached Eddy Simulation (DDES), et à son application à des écoulements réactifs massivement décollés. Après une étape de validation sur des couches limites attachées, la DDES a été appliquée à la simulation des écoulements inerte et réactif dans une chambre de combustion en forme de marche descendante (A3C) et comparée aux résultats des approches RANS et LES classiques, ainsi qu'aux résultats expérimentaux. Cette méthode a ensuite permis de réaliser l'étude de la dynamique de l'écoulement réactif décollé dans la tuyère ATAC montée sur le banc cryotechnique MASCOTTE de l'Onera.
357

La périodicité dans les enseignements scientifiques en France et au Vietnam : une ingénierie didactique d'introduction aux fonctions périodiques par la modélisation

Nguyen Thi, Nga 01 September 2011 (has links) (PDF)
L'objet central de l'étude est la modélisation mathématique de phénomènes périodiques dans l'enseignement secondaire, plus particulièrement celle des phénomènes périodiques temporels. L'étude part d'un constat établi en comparant les enseignements secondaires français et vietnamien : soit on évite l'enseignement de la modélisation mathématique en concevant le rapport des mathématiques aux autres disciplines scientifiques comme un rapport d'application (Viêt Nam), soit on préconise la prise en compte de la modélisation mathématique sans donner les moyens aux enseignants de mathématiques de l'enseigner (France). La périodicité est le concept central dans le processus de modélisation des phénomènes cycliques et des phénomènes oscillatoires. Dans la genèse scientifique de ce concept, les fonctions périodiques, notamment les fonctions trigonométriques, se sont constituées progressivement comme modèles de grandeurs variables en général en fonction du temps, qui retournent régulièrement et indéfiniment au même état. A partir d'une enquête épistémologique sur les phénomènes périodiques temporels étudiés par la Physique, nous repérons deux modèles mathématiques, C (mouvements circulaires uniformes) et O (oscillations harmoniques) avec leurs différents registres, graphique et algébrique. Une analyse institutionnelle examine et compare la présence de ces deux modèles dans les enseignements secondaires de mathématiques et de physique, en France et au Viêt Nam. Cette analyse met en évidence la faiblesse de l'articulation entre ces deux modèles et l'absence de technique pour effectuer le passage de l'un des modèles à l'autre, alors qu'il s'agit d'un des enjeux de la modélisation elle-même. Le dispositif expérimental se compose d'un questionnaire aux élèves vietnamiens et d'une ingénierie didactique qui organise, dans un environnement de géométrie dynamique et en articulant les deux modèles C et O, la construction de fonctions périodiques comme modèles de phénomènes de co-variations périodiques.
358

Des procédés de conversion électro-magnéto-mécaniques non-conventionnels aux systèmes mécatroniques : Conception - Modélisation - Optimisation

Ben Ahmed, Hamid 22 February 2006 (has links) (PDF)
Les travaux consignés dans ce mémoire ont été ou sont réalisés au sein du pôle de compétences " Actionneurs-Transport-Energie " de SATIE (ex. LESIR) de L'ENS de Cachan sur les deux sites cachanais et breton. Ce mémoire est organisé en 3 parties. La première partie est consacrée au résumé des travaux d'enseignement et de recherche. Les co-encadrements ainsi que les différentes publications scientifiques y sont également mentionnés. Chaque publication est référencée selon une nomenclature précisée dans cette première partie. Dans tout le mémoire, ces références sont indiquées en caractère gras. Le fil rouge des travaux présentés est l'étude de divers procédés de conversion et la modélisation de convertisseurs non-conventionnels. L'activité de conception est un domaine passionnant pour lequel je n'ai pu m'empêcher d'écrire quelques mots à travers un préambule intitulé " La conception : un art, une technique ou une science ? " (deuxième partie). Globalement cette partie traite des aspects philosophiques et épistémologiques de l'activité de conception et ses facettes subjectives et irrationnelles, autrement dit artistiques. Cependant, dans le dernier paragraphe intitulé " l'art au service de la science ", sont décrits les travaux concernant l'élaboration d'une méthodologie générique d'aide à la conception que représente la " Conception par Optimisation de Distribution " et les premiers résultats que nous avons obtenus (thème D). Dans la troisième partie est proposée une synthèse des travaux de recherche aux quels j'ai contribués. L'originalité des travaux menés réside à la fois dans les configurations électromagnétiques innovantes étudiées et dans les méthodologies de dimensionnement et d'analyse élaborées utilisant des approches combinées numériques et analytiques. En outre, ces travaux sont guidés par une volonté de développer une approche relativement synthétique de la conversion électro-magnéto-mécanique et d'établir des règles " générales " de conception et de modélisation. Cette synthèse débute avec un premier chapitre " Nomenclature et spécificité du couplage fractionné " qui permet de situer sur le plan structurel les travaux réalisés. Des critères de classification des actionneurs essentiellement électromagnétiques y sont proposés notamment le critère de couplage électromagnétique. Ce dernier permet de définir deux principales classes de machines : celles à couplage fractionné et celles à couplage polaire. Les spécificités de ces couplages sont ensuite examinées au travers d'une approche analytique tendancielle utilisant les lois de similitude. Ensuite, trois thèmes sont développés, chacun organisé en trois chapitres. Le premier thème concerne les configurations à couplage fractionné à bobinage global. Tout d'abord les performances intrinsèques de différentes dispositions dites " fondamentales " à aimants et/ou à réluctance sont examinées au travers de l'étude par motifs élémentaires (chapitre A.I). Ensuite, la répartition 3D de ces motifs, donnant lieu au concept polyentrefer, est analysée au chapitre A.II. L'intérêt, la faisabilité et les limitations de ce concept sont étudiés à partir d'approches théoriques mais également pratiques sur la base de plusieurs réalisations aussi bien tournantes que linéaires. Enfin, la répartition 2D des motifs élémentaires précédemment mentionnés, permet d'analyser les possibilités de ce type de couplage à la conception de structures monoentrefers (chapitre A.III) présentant des fonctionnalités spécifiques telles qu'un fort taux d'intégration aux contraintes d'application ou encore la simplicité d'alimentation électronique (structures monophasées). Le deuxième thème concerne les configurations à couplage polaire et à excitation homopolaire. De complexité structurelle croissante, trois configurations sont étudiées. La première (chapitre B.I), adaptée aux hautes vitesses de rotation à très forte puissance, concerne le freinage par courants induits où des modèles de dimensionnement combinés éléments finis-analytiques-circuits réluctants originaux ont été développés. La deuxième configuration (chapitre B.II) est de type " tout fer tournant " étudiée dans le cadre du stockage électromécanique. Enfin, la troisième configuration (chapitre B.III) est à double excitation : par aimants et par bobine permettant une meilleure optimisation du fonctionnement sur cycle notamment dans le cadre de la traction électrique ou hybride. Le dernier thème intitulé " composants mécatroniques pour l'Intelligence énergétique " concerne l'étude de systèmes présentant un couplage fondamentalement fort entre les différents phénomènes physiques mis en jeu. C'est le cas des récupérateurs d'énergie de la marche, de la houle ou encore thermique (chapitre C.I). C'est également le cas des soupapes électromagnétiques (chapitre C.II). Dans chaque chapitre sont rappelés les co-encadrements, les collaborations universitaires et/ou industrielles, les autres membres permanents de l'équipe impliqués dans le thème abordé ainsi que les références de(s) article(s) joint(s) en annexe. En outre, un bilan critique est présenté à la fin de chaque chapitre. Dans la dernière partie du mémoire sont proposés un bilan global des travaux menés ainsi que quelques perspectives et thématiques nouvelles.
359

Fluides vitreux, sutures craniofaciales, diffusion réactive : quelques contributions à l'étude de ces systèmes multi-échelles ou singuliers

Olivier, Julien 12 July 2011 (has links) (PDF)
On s'attache à étudier des modèles mathématiques multi-échelles pour des domaines variés : la rhéologie des matériaux vitreux, la biochimie dans la balnéothérapie et la biomécanique des sutures craniofaciales. Pour les matériaux vitreux, nous étudions un modèle de type cinétique et justifions mathématiquement des propriétés macroscopiques (transition vitreuse à faible cisaillement et comportement de type fluide newtonien à fort taux de cisaillement) après avoir remarqué une certaine analogie avec la pénalisation d'obstacles en mécanique des fluides. Nous proposons également une généralisation multi-dimensionnelle de ce modèle afin de prendre en compte des types d'écoulements généraux. En biochimie nous présentons un premier modèle très simplifié de réaction-diffusion et montrons comment concevoir un schéma numérique adapté en utilisant les hypothèses de modélisation. Enfin nous proposons un modèle de couplage biomécanique pour le développement des sutures qui rend compte du phénomène d'interdigitation que l'on observe en pratique.
360

Transferts de fluides dans les milieux fracturés : Effets d'echelle

Bour, Olivier 17 October 1996 (has links) (PDF)
A la suite d'une demande de divers secteurs en développement, comme !'-enfouissement des déchets (nucléaires, industriels et ménagers), et l'amélioration des ressources géothermiques, pétrolières ou en eau souterraine, la recherche sur les circulations de fluides dans les milieux fracturés a connu un essor croissant ces dernières années. Malheureusement, la modélisation des écoulements dans ces milieux se heurte à la complexité géométrique des champs de failles qui présentent une large gamme de longueurs et d'ouvertures, ainsi qu'une distribution spatiale non-homogène. La superposition de ces paramètres géométriques conduit en particulier à des effets d'échelles sur les coefficients de transport qui restent encore mal définis. Après avoir entrepris une analyse statistique bi-dimensionnelle de la géométrie de plusieurs réseaux de failles naturels, nous avons développé une approche fondée sur la théorie de la percolation, dans le but de déterminer les principaux paramètres géométriques gouvernant les propriétés de transport des milieux fracturés. La description géométrique d'une faille nécessite au moins trois paramètres géométriques, que l'on peut supposer a priori indépendants : sa position dans l'espace, sa longueur et son orientation. Pourtant, en analysant séparément leurs distributions spatiales nous avons montré qu'entre les différents paramètres géométriques, il existe des corrélations nettes qui résultent probablement des interactions mécaniques inteNenant lors de la croissance des champs de failles. En particulier, nos résultats suggèrent l'existence d'une relation entre la dimension fractale des barycentres de failles et l'exposant de la loi d'échelle de la distribution des longueurs de failles. L'adaptation de la théorie de la percolation à la géométrie spécifique des milieux fracturés en général, et à leur très large distribution de longueurs, en particulier, a permis de décrire leurs propriétés de connectivité. Cette analyse théorique a pu être vérifiée en deux et trois dimensions, grâce à un .modèle numérique. Les implications de cette analyse reposent en grande partie sur une quantification du rôle des "grandes" et des "petites" failles, qui permet de définir l'obseNable pertinent. La géométrie des chemins de connection (amas percolant) et des chemins d'écoulement (backbone) au seuil de percolation est décrite sous la forme de lois d'échelles. Il est également montré comment certaines distributions de longueurs, fréquentes dans la nature, impliquent nécessairement l'existence d'une échelle au-dessus de laquelle les réseaux de failles sont bien connectés (longueur de corrélation finie). L'application de notre analyse à plusieurs réseaux de failles naturels a permis de montrer l'adéquation de l'approche théorique développée. Ce travail définit un cadre théorique qui permettra de fournir les bases d'une modélisation originale des propriétés de transport des systèmes fracturés. Cette proposition de modèle s'appuie à la fois sur l'éventuelle dépendance d'échelle des coefficients de transport, qui a par ailleurs été obseNée grâce à une étude expérimentale menée sur le site de Ploemeur (Morbihan), et sur l'utilisation de distributions géométriques appropriées aux systèmes fracturés.

Page generated in 0.1064 seconds