• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 522
  • 314
  • 129
  • 76
  • 51
  • 7
  • Tagged with
  • 1083
  • 470
  • 254
  • 195
  • 171
  • 149
  • 131
  • 126
  • 120
  • 116
  • 97
  • 90
  • 89
  • 87
  • 86
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
501

Etude de la nucléation contrôlée de latex polymère à la surface de nanoparticules d'oxyde pour l'élaboration de colloïdes hybrides structurés

Nguyen, David 18 December 2008 (has links) (PDF)
Des colloïdes à base de silice et de polystyrène ont été synthétisés. Les particules d'oxyde ont d'abord été élaborées et modifiées en surface, puis ont servi de germes au cours d'une étape de polymérisation du styrène. Deux procédés de polymérisation en phase hétérogène ont été utilisés (émulsion ou dispersion) menant à des colloïdes aux morphologies originales et contrôlées. Une étude morphologique par tomographie électronique a permis de mieux comprendre les mécanismes de croissance et d'organisation des particules de latex autour des germes de silice. <br />La synthèse de particules Janus pour l'imagerie biomédicale est aussi décrite. Ces particules de silice ont été modifiées en surface par un chromophore biphotonique et un agent de reconnaissance de certaines cellules tumorales. Des études spectroscopiques et des tests de cytotoxicité ont été entrepris.
502

Etude de l'échantillonge en tomographie par emission de positons

Grondin, Yannick 09 December 2008 (has links) (PDF)
Cette thèse est consacrée à l'étude de l'acquisition des données en tomographie d'émission de positons (TEP) dans le but d'optimiser la quantité de données mesurées par rapport à la résolution spatiale maximale qu'il est possible d'atteindre sur une image reconstruite. L'une des contributions dans ce domaine réside dans la détermination de l'efficacité des détecteurs rectangulaires par rapport aux détecteurs carrés. La seconde partie de cette thèse a consisté à simuler les performances d'un scanner TEP dédié à l'imagerie du petit animal. L'originalité de ce scanner réside dans l'utilisation du xénon liquide comme milieu scintillant et la capacité à mesurer la profondeur d'interaction. Une chaine de simulations Monte Carlo de ce scanner a été mise en place et a été validée en confrontant avec les résultats expérimentaux.
503

Optimisation de la reconstruction en tomographie d'émission monophotonique avec collimateur sténopé

Israel-Jost, Vincent 16 November 2006 (has links) (PDF)
En imagerie du petit animal par tomographie d'émission monophotonique (TEMP), la modélisation de la réponse physique du détecteur demande beaucoup de soin pour en contrebalancer la faible résolution intrinsèque. Les coupes du volume à reconstruire s'obtiennent ainsi à partir des projections, à la fois par une opération de rétroprojection et une déconvolution de la réponse impulsionnelle du détecteur. Nous optons dès lors pour des méthodes itératives de résolution d'un grand système linéaire qui fonctionnent indépendamment de la complexité du modèle.<br />Pour parvenir à des résultats exploitables, tant en terme de résolution spatiale que de temps de calcul chez le rat ou la souris, nous décrivons dans ce travail les choix de notre modélisation par une réponse impulsionnelle gaussienne, ajustée suivant des paramètres physiques et géométriques. Nous utilisons ensuite la symétrie de rotation inhérente au dispositif pour ramener le calcul de P opérateurs de projections au calcul d'un seul d'entre eux, par une discrétisation de l'espace compatible avec cette symétrie, tout en contrôlant la densité angulaire de voxels pour éviter un suréchantillonnage au centre du volume.<br />Enfin, nous proposons une nouvelle classe d'algorithmes adaptés à la fréquence qui permettent d'optimiser la reconstruction d'une gamme de fréquence spatiale donnée, évitant ainsi d'avoir à calculer de nombreuses itérations lorsque le spectre à reconstruire se retrouve surtout dans les hautes fréquences.
504

Transport de Flux Temps Réels dans un Réseau IP<br />Mobile

Aouad, Hazar 20 January 2005 (has links) (PDF)
Dans cette thèse, nous étudions plusieurs méthodes pour la mise en place de la QoS<br />(Quality of Service) dans un réseau IP. Avant d'entamer nos travaux de recherche, nous<br />dévoilons tout d'abord les différents mécanismes de QoS que nous étudierons dans la thèse.<br />MPLS (Multi Protocol Label Switching), DiffServ (Differentiated Services) et les algorithmes<br />d'ordonnancement formeront la base du réseau coeur que nous utiliserons. En accord avec<br />plusieurs travaux, nous définissons trois classes de service à différencier dans le réseau. La<br />première classe comporte les flux voix. Elle nécessite un délai faible et une gigue réduite. Les<br />flux de "données critiques", qui requièrent un taux de perte faible et un délai borné, forme la<br />deuxième classe. La troisième classe, qui regroupe les applications telles que le transfert de<br />fichiers ou l'échange de courriers électroniques, n'exige aucune condition particulière du<br />réseau.<br />Dans un premier temps, nous modélisons les flux sortant/entrant d'un réseau mobile<br />sans fil. D'abord, nous modélisons les lois d'inter arrivée des paquets d'un flux agrégé au<br />niveau de la couche MAC (Medium Access Control) entrant au réseau UTRAN (UMTS<br />Terrestrial Radio Access Network), le réseau d'accès à l'UMTS (Universal Mobile<br />Telecommunication Service). Le protocole CDMA (Code Division Multiple Access) utilisé<br />dans ce réseau propose un accès différent en fonction de la QoS demandée. Ensuite, nous<br />déterminons la loi caractérisant l'inter arrivée des paquets sortant d'un réseau WiFi (Wireless<br />Fidelity) utilisant la couche MAC 802.11 de base. Pour ces deux réseaux, nous proposons<br />différents modèles d'agrégation de flux voix, Web, transfert de fichiers ou un multiplexage de<br />ces différentes classes. Nous mesurons l'adéquation de deux modèles de loi de distributions<br />aux traces créées. La première distribution est le processus MMPP (Markov Modulated<br />Poisson Process) qui représente un modèle Markovien. Nous expérimentons deux valeurs du<br />nombre d'états: 2 et 4. La seconde loi que nous considérons est la loi Gaussienne. Nos<br />résultats montrent que d'une part, le type des flux agrégés et d'autre part, le réseau utilisé,<br />influent tous les deux sur le modèle produit.<br />Dans un second temps, nous développons les équations qui déterminent les<br />probabilités stationnaires d'une file d'attente implémentant l'ordonnanceur GPS (Generalised<br />Processor Sharing) avec trois classes de service. En utilisant le mécanisme DiffServ pour<br />différencier les flux, nous mesurons la QoS à la sortie d'une file unique utilisant WRR<br />(Weighted Round Robin), un des algorithmes qui approximent GPS. Nous traçons alors les<br />différentes courbes de délai et de taux de perte observés à la sortie de cette file en fonction de<br />la pondération et de la charge créée par chacune des classes. Nous appliquons les différentes<br />conclusions du choix des paramètres que nous tirons d'un seul serveur à un réseau entier. De<br />plus, nous ajoutons l'ingénierie de trafic de MPLS pour quantifier le gain mesuré par chaque<br />politique. A partir de ce travail, nous avons pu généraliser nos constatations qui deviennent<br />valable aussi bien sur une file que dans un réseau.<br />Dans un troisième temps, nous développons une méthode d'adaptation dynamique du<br />routage. Nous la proposons afin de palier aux variations de la distribution du délai sur les<br />liens qui forment le chemin de bout en bout. Ce mécanisme se base sur les techniques de<br />tomographie des réseaux afin d'estimer la distribution du délai sur les différents tronçons des<br />chemins observés. Si le délai moyen sur la route utilisée reste supérieur d'un seuil ε pendant<br />un temps τ au délai moyen d'un autre chemin, le mécanisme déclenche alors la procédure de<br />modification du chemin emprunté. C'est l'utilisation du protocole MPLS associé à ce<br />mécanisme qui permet une modification souple et rapide des itinéraires.
505

Détection et analyse non destructive de caractéristiques internes de billons d'Epicéa commun (Picea abies (L.) Karst.) par tomographie à rayons X

Longuetaud, Fleur 10 1900 (has links) (PDF)
La tomographie par rayons X permet un accès direct aux caractéristiques internes des billons scannés par l'intermédiaire des variations de densité et de teneur en eau. L'objectif de ce travail est de démontrer la faisabilité de la détection automatique de caractéristiques dans des billons à des fins d'analyses scientifiques. Nous disposons pour cela d'une base d'images tomographiques de 24 épicéas communs (Picea abies (L.) Karst.) obtenues avec un scanner médical. Les arbres sont représentatifs de différents statuts sociaux et proviennent de quatre peuplements du nord-est de la France, eux-mêmes sont représentatifs de plusieurs classes d'âge, de densité et de fertilité. Les procédures de détection développées sont les suivantes : - détection de la moelle dans les billons, y compris en présence de nœuds et/ou d'excentricité des cernes. La précision de la localisation est inférieure au millimètre ; - détection de la limite aubier/duramen dans les billons, y compris en présence des nœuds (principale source de difficulté). L'erreur sur le diamètre du duramen est de 1.8mm soit une erreur relative de 1.3%. ; - détection de la localisation des verticilles et une comparaison à une méthode optique ; - détection des nœuds individualisés. Cette procédure permet de compter les nœuds dans un billon et de les localiser (hauteur dans le billon et azimut); cependant, la validation de la méthode et l'extraction du diamètre et de l'inclinaison des branches reste à effectuer. Une application de ce travail a été l'analyse de la variabilité de la quantité d'aubier dans le tronc: en intra-arbre, la largeur d'aubier était constante sous la base du houppier; en inter-arbre, une forte corrélation avec la quantité de branches vivantes a notamment été mise en évidence. De nombreuses analyses sont envisageables à partir des résultats de notre travail, parmi lesquelles: l'étude architecturale des arbres avec le suivi de la moelle dans les billons et l'occurrence des prises de relais sur l'axe principal, l'analyse des variations radiales de la forme du duramen, l'analyse de la distribution des nœuds dans les billons.
506

Recherche de lois de mélange sur des propriétés mécaniques de systèmes granulaires compactés

Busignies, Virginie 07 October 2005 (has links) (PDF)
Les matériaux granulaires sont utilisés dans de nombreux domaines tels que la pharmacie, la chimie, la métallurgie, l'agroalimentaire. Ils font l'objet de nombreuses recherches théoriques et expérimentales. La compression en matrice fermée est un procédé économique et facile à automatiser, ce qui explique qu'elle soit très répandue dans les industries qui utilisent des milieux granulaires. Dans le domaine pharmaceutique, le comprimé reste la forme la plus présente sur le marché. Bien que simple en apparence, la compression est un processus dynamique irréversible d'une grande complexité. Dans le cas d'un comprimé pharmaceutique, il faut garder à l'esprit que celui ci doit répondre à la fois à des contraintes technologiques, à des contraintes thérapeutiques et à des contraintes réglementaires très strictes. Pour répondre à ces différentes contraintes, les comprimés pharmaceutiques sont obtenus par la compression de mélanges souvent complexes d'excipients et d'une substance active. Bien que des progrès aient été fait dans la quantification des propriétés mécaniques des systèmes simples, le comportement mécanique des systèmes de poudres plus complexes a été moins étudié. L'idéal pour le formulateur serait de disposer des propriétés de chaque constituant du mélange et de sa contribution au comportement de l'ensemble du système pour pouvoir prédire le comportement des constituants en mélange. L'expérience semble montrer que ce n'est pas aussi simple. Or, comprendre le comportement d'un mélange en fonction des propriétés de ces constituants de base, c'est non seulement pouvoir prédire le comportement du mélange, mais également pouvoir développer de nouvelles formules.<br /><br /> L'objectif de ce travail de recherche est d'évaluer les propriétés de mélanges granulaires compactés. Etant donnée la complexité du problème et la difficulté d'interprétation lorsque l'on s'intéresse à des mélanges d'excipients, les études doivent être réalisées sur des systèmes simples (mélanges binaires faisant intervenir des systèmes monodisperses). Il a donc été nécessaire d'étudier de la façon la plus complète possible les systèmes simples choisis avant de pouvoir passer à l'étude de leurs mélanges binaires.<br />Les excipients étudiés (A TAB®, Fast Flo®, Vivapur 12®) sont représentatifs des excipients utilisés dans le domaine pharmaceutique. Les données de la littérature ont également mis en évidence des comportements en compression très différenciés. <br /><br />Le premier objectif de ce travail a donc été de caractériser de la manière la plus exhaustive possible le comportement sous pression des trois excipients ainsi que les propriétés mécaniques de ces systèmes compactés.<br />Les résultats obtenus sur la compressibilité des trois excipients (énergies mises en jeu au cours de la compression, consommation de la porosité, modélisation de Heckel et seuil moyen d'écoulement plastique) ont confirmé des aptitudes à la compression très différentes.<br />En complément, la technique de microtomographie X a été utilisée pour caractériser la fraction solide des comprimés de Vivapur 12®. Cette technique est une technique émergente dans l'étude des comprimés pharmaceutiques. Il a donc été nécessaire au préalable de la valider dans le domaine d'application dans lequel nous voulions la mettre en oeuvre (vérification de la loi de Beer-Lambert). Après une étape de calibration, une hétérogénéité au niveau de la répartition de la masse volumique a été mise en évidence au sein des comprimés, avec une différence importante entre la surface (surdensifiée) et le centre du comprimé. A la vue de ces observations, il apparaît donc que la différence entre les propriétés du volume (résistance à la rupture, module de Young, ...) et les propriétés de surface (dureté en indentation, ...) doit être faite.<br />Concernant les propriétés mécaniques des systèmes simples compactés (résistance à la rupture, module de Young, ténacité, dureté Brinell), des différences ont été observées entre les trois excipients pour une même propriété. De plus, pour un même excipient, des variations marquées entre les propriétés mécaniques caractéristiques du volume du compact et les propriétés mécaniques caractéristiques de la surface ont été mises en évidence.<br />Le modèle de la percolation qui est de plus en plus rencontré dans le domaine de la compression de composés pharmaceutiques a été appliqué aux trois systèmes étudiés. Les résultats de nos essais de modélisation semble montrer que ce modèle présente des limites. L'exposant critique ne semble pas universel pour une propriété donnée et les seuils de densité critique obtenus restent difficile à interpréter.<br /><br />La deuxième partie de ce travail est consacrée à l'étude des mélanges binaires formés à partir des trois excipients étudiés dans la première partie.<br />Le suivi de l'évolution de la porosité des mélanges (à une contrainte de compression donnée) en fonction de la composition massique du mélange a permis de mettre en évidence une relation linéaire Porosité/Composition. Cette relation permet de déterminer la porosité d'un mélange compacté sous une pression donnée à partir des données recueillies au cours de l'étude des systèmes simples. Par contre, le seuil moyen d'écoulement plastique des mélanges n'évolue pas linéairement avec la composition massique du mélange. Mais en raison de la relation précédemment obtenue, une méthode de calcul indirect du seuil moyen d'écoulement plastique est possible. Cette méthode prédictive permet une bonne approximation des propriétés de densification et de déformation d'un mélange binaire quelle que soit sa composition.<br />Pour toutes les propriétés mécaniques étudiées, les lois de proportionnalités simples classiquement utilisées en mécanique ne sont pas applicables. Dans la majorité des cas, une déviation négative est même observée par rapport à ces lois simples.<br />Dans le cas particulier des propriétés mécaniques qui caractérisent la surface des compacts, il est apparu qu'elles étaient régies par le composé le plus plastique du mélange dès que sa proportion massique est égale à environ 30 à 20 %.<br />Pour s'inscrire dans une optique d'aide à la formulation, un modèle a été proposé pour décrire l'évolution du module de Young et de la résistance à la rupture en fonction de la composition du mélange. Après ajustement, une approche basée sur des interactions triangulaires et sur la probabilité de présence de ces interactions semble la plus adaptée.<br />Pour compléter l'étude des systèmes binaires, des essais de microtomographie X ont également été menés sur des mélanges Vivapur 12®/A TAB® compactés. Les représentations obtenues ont permis de mettre en évidence le Vivapur 12® au niveau des surfaces des compacts qui ont été en contact avec les pièces mécaniques. Ces observations confirment les résultats obtenus en microindentation sur ce mélange. Les seuils de percolation des deux excipients ont également été mis en évidence.
507

COMPORTEMENT MECANIQUE ET RUPTURE DANS LES ROCHES ARGILEUSES ETUDIES PAR MICRO TOMOGRAPHIE A RAYONS X

Lenoir, Nicolas 06 March 2006 (has links) (PDF)
DANS LE CADRE DES ETUDES DE FAISABILITE DU STOCKAGE DES DECHETS RADIOACTIFS EN COUCHES GEOLOGIQUES PROFONDES, L'ETUDE DE L'EVOLUTION DE LA PERMEABILITE DE LA COUCHE HOTE EN FONCTION DE L'ENDOMMAGEMENT EST PRIMORDIALE. CE TRAVAIL A CONSISTE D'UNE PART, A ETUDIE EXPERIMENTALEMENT L'ENDOMMAGEMENT DE DEUX ROCHES ARGILEUSES (MARNE DE BEAUCAIRE ET ARGILITE DE L'EST) A L'AIDE DES TECHNIQUES DE MICRO TOMOGRAPHIE A RAYONS X, ET D'AUTRE PART, A DEVELOPPER UNE INSTALLATION TRIXIALE HAUTE PRESSION ADAPTEE AUX MESURES DE PERMEABILITE SUR DES ROCHES DE TRES FAIBLES PERMEABILITES.DES INSTALLATIONS TRIAXIALES ORIGINALES ONT ETE REALISEES AFIN DE CARACTERISER SOUS CHARGEMENT DEVIATOIRE L'ENDOMMAGEMENT DES ROCHES ARGILEUSES A L'AIDE DE LA MICRO TOMOGRAPHIE A RAYONS X SUR UNE LIGNE SYNCHROTRON A L'ESRF (GRENOBLE). L'ENDOMMAGEMENT LOCALISE ET SON EVOLUTION EN COURS D'ESSAI, ONT AINSI PU ETRE CARACTERISES A UNE ECHELLE FINE (DE L'ORDRE DE LA DIZAINE DE MICRONS). LES TECHNIQUES DE CORRELATION D'IMAGES NUMERIQUES ETENDUES AUX IMAGES TRIDIMENSIONNELLLES ONT ETE UTILISEES POUR MESURER LES CHAMPS INCREMENTAUX DE DEFORMATION ET ONT MONTRE LEUR INTERET DANS L'ETUDE DE L'ENDOMMAGEMENT LOCALISE DANS LES GEOMATERIAUX ET NOTAMMENT DE SON EVOLUTION.ENFIN, UNE INSTALLATION TRIAXIALE HAUTE PRESSION A ETE REALISEE POUR MESURER L'EVOLUTION DE LA PERMEABILITE DE L'ARGILITE DE L'EST EN FONCTION DU NIVEAU DE CONTRAINTES (ISOTROPE ET DEVIATOIRE) APPLIQUEES. SA PARTICULARITE EST LA PETITE TAILLE DES ECHANTILLONS (CYLINDRES DE 10MM DE DIAMETRE ET 20MM DE HAUTEUR) AFIN DE REDUIRE LES TEMPS D'ESSAIS.
508

La chaîn de collision continentale du Zagros (Iran): Structure lithosphérique par analyse de données sismologique

KAVIANI, Ayoub 26 July 2004 (has links) (PDF)
La chaîne du Zagros située sur la marge septentrionale de la plaque Arabie, est l'une des plus jeunes chaînes de collision continentale. Elle a été structurée par la collision de la plaque Arabie avec le microcontinent d'Iran central. Une expérience sismologique, appelée « Zagros 2000-2001 », a été réalisée dans le cadre d'une collaboration entre le LGIT et l'IIEES pour étudier la structure lithosphérique sous cette chaîne de collision et une partie du bloc d'Iran Central. Le jeu de données de cette expérience nous a permis de caractériser la structure de la croûte et du manteau lithosphérique sous le réseau de stations. Les variations de l'épaisseur de croûte ont été mises en évidence par analyse en fonctions récepteur. Elles sont caractérisées par un sur-épaississement maximum de 20 km sur une largeur d'environ 100 km immédiatement au nord-est du MZT (« Main Zagros Thrust »). Une épaisseur moyenne de croûte de 45 km a été trouvée sous le Zagros et de 40 km sous l'Iran Central. Nous avons ensuite proposé un modèle de croûte, contraint par la géométrie du Moho tirée de l'analyse en fonctions récepteur, qui est aussi compatible avec les données gravimétriques. Le sur-épaississement est interprété comme lié à un redoublement crustal avec chevauchement de la croûte d'Iran central sur celle du Zagros le long du MZT. L'inversion de plus de 5000 temps d'arrivée P télésismiques nous a permis de caractériser la structure du manteau supérieur jusqu'à 350 km de profondeur. Les résultats de cette inversion montrent un manteau supérieur rapide sous le Zagros et lent sous l'Iran central. Ceci peut être lié à une délamination du manteau lithosphérique sous l'Iran central. La présence d'un manteau lent et léger sous l'Iran central peut expliquer la haute altitude moyenne du plateau iranien. L'analyse de la biréfringence des ondes S télésismiques montre une différence majeure entre la lithosphère du Zagros et celle de l'Iran Central en terme d'anisotropie sismique. Cette analyse met en évidence l'absence de biréfringence des ondes S télésismiques sous le Zagros par opposition à certaines régions d'Iran Central. D'autre part, aucun lien n'est observé entre la direction de l'axe rapide de la biréfringence observée en Iran central et le déplacement actuel relatif ou absolu des plaques. La biréfringence observée doit donc avoir son origine dans une anisotropie gelée dans la lithosphère du bloc d'Iran central liée à un épisode tectonique plus ancien que la collision continentale entre les deux plaques.
509

Approche pénalisée en tomographie hélicoïdale en vue de l'application à la conception d'une prothèse personnalisée du genou

Allain, Marc 17 December 2002 (has links) (PDF)
Dans le but de concevoir un implant personnalisé du genou, nous présentons une approche originale permettant la reconstruction d'images de précision en tomographie hélicoïdale. La méthodologie standard à base d'interpolation et de rétroprojection convoluée est remplacée par une approche pénalisée ; dans ce cadre, l'image tomographique 3D correspond au minimiseur d'un problème des moindres carrés pnalisés de très grande taille. Une régularisation pertinente du problème tomographique est en particulier permise par une pénalisation convexe : celle-ci permet de localiser précisment les interfaces dans le volume sans hypothéquer les aspects de coût d'implantation. Testée sur données synthtiques, cette démarche permet un gain significatif de précision sur l'image 3D obtenue. Le problème de reconstruction étant de très grande taille, l'implantation de cette méthode reste néanmoins délicate. Afin de garder la maîtrise du coût informatique, nous proposons d'adopter une invariance du modèle d'observation et de minimiser le critère des moindres carrés pénalisés par un algorithme de type successive over relaxation. Une seconde démarche basée sur une approximation du modèle d'observation a également été proposée : elle rend le problème séparable et permet d'aborder la reconstruction du volume en une succession de problèmes 2D d'une taille sensiblement réduite. Enfin, ces travaux ont donné lieu une étude approfondie des algorithmes semi quadratiques (SQ) dont l'emploi est répandu en traitement d'image ou de donnes. Ces algorithmes SQ ont été rattachs à des formes préexistantes, des conditions de convergence globale moins restrictives ont été obtenues et des variantes plus rapides ont été déduites.
510

Etude et caractérisation des structures hercyniennes à partir de données sismologiques : le cas du Massif Armoricain

Judenherc, Sébastien 08 December 2000 (has links) (PDF)
La Chaîne Hercynienne est un objet majeur de la tectonique européenne, néanmoins sa structure profonde demeure mal connue. Le Massif Armoricain est un segment préservé de cette chaîne, il présente une structuration NO-SE, parallèle à la direction générale de la chaîne dans cette région. Il est habituellement divisé en trois domaines séparés par deux zones de cisaillement majeures, les Cisaillements Nord- et Sud-Armoricains. Le Massif Armoricain présente l'avantage de n'avoir été affecté par aucun événement tectonique ou thermique important depuis les temps hercyniens et constitue donc un objet particulièrement intéressant pour l'étude d'une chaîne de collision ancienne. Dans le cadre du Programme GéoFrance3DARMOR2, deux expériences d'écoute sismologique passive ont été menées en 1997 et 1999 dans le Massif Armoricain. Les objectifs étaient : (1) la détermination de l'extension en profondeur des deux zones de cisaillement ; (2) la détermination de leur géométrie profonde ; (3) l'imagerie précise du complexe métamorphique des Nappes de Champtoceaux (roches de haute pression exhumées au stade précoce de la collision hercynienne). Les données collectées ont permis de modéliser l'anisotropie sismique et de construire un modèle tridimensionnel des variations de la vitesse des ondes P sous le Massif Armoricain. L'imagerie de la croûte ne permet pas de mettre en évidence l'enracinement supposé des Nappes de Champtoceaux. En revanche, les images obtenues pour le manteau supérieur montrent un signal clair interprété comme la signature d'une subduction à vergence nord qui se termine au Dévonien (~350 Ma) pour laisser place à un régime transpressif intense au niveau du Cisaillement Sud-Armoricain au début du Carbonifère. Ces mêmes résultats montrent que l'extension du Cisaillement NordArmoricain est limité à la croûte tandis que le Cisaillement Sud peut être suivi jusqu'à plus de 150 km de profondeur.

Page generated in 0.0477 seconds