• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 7
  • 2
  • Tagged with
  • 19
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Rupture et instabilités : sismicité et mouvements de terrain

Helmstetter, Agnès 16 September 2002 (has links) (PDF)
On s'intéresse à la rupture associée à deux classes de phénomènes naturels, les séismes et les instabilités gravitaires. Pour les séismes, on étudie un modèle stochastique de sismicité, basé sur les deux lois les mieux établies pour la sismicité, la décroissance en loi de puissance du taux de sismicité après un séisme, et la distribution en loi de puissance des énergies des séismes. Dans ce modèle, on suppose que chaque séisme déclenche d'autres séismes, dont le nombre augmente avec l'énergie du choc principal. Le taux de sismicité global résulte de la cascade de déclenchements de séismes directs et indirects. On analyse l'organisation spatiale et temporelle de la sismicité dans les différents régimes sous- et sur-critiques du modèle. Ce modèle permet de reproduire un grand nombre de propriétés de l'activité sismique, telles que la variabilité de la décroissance des séquences d'aftershocks, l'augmentation de l'activité sismique avant un séisme, la diffusion des aftershocks, la migration des foreshocks et la modification de la distribution des magnitudes avant un séisme. On obtient avec ce modèle une bonne prédictabilité d'une fraction des séismes qui sont déclenchés à court terme après un grand séisme. Nos résultats démontrent le rôle essentiel des cascades de déclenchement de séismes a toutes les échelles dans l'organisation de l'activité sismique. Concernant l'étude des instabilités gravitaires, une étude statistique de plusieurs catalogues d'éboulements rocheux montre que la distribution des volumes de roches suit une loi de puissance. On propose que cette distribution en loi de puissance résulte soit de l'hétérogénéité initiale de la matrice rocheuse, soit de la dynamique d'un système critique auto-organisé. Certains glissements de terrains sont précédés par une accélération de la vitesse de glissement avant la rupture finale. On peut reproduire l'évolution temporelle du glissement a l'aide d'un modèle de bloc rigide avec une loi de friction dépendante de la vitesse de glissement et de l'état de contact entre le bloc et sa surface de glissement. L'analyse de deux glissements de terrains avec ce modèle permet de distinguer une accélération du glissement dans le régime stable, d'une accélération instable qui évolue vers une rupture catastrophique.
2

Étude de systèmes de spins complexes ou désordonnés : analogies avec la transition vitreuse structurelle

Cherrier, Raphaël 02 July 2003 (has links) (PDF)
Cette thèse s'interesse à la nature dynamique de la transition vitreuse. Dans une première partie, nous nous intéressons à une classe de modèles de verres de spins en champ moyen. Nous montrons que la nature continue -avec brisure complète de la symétrie des répliques- ou structurelle -avec brisure à un pas de la symétrie des répliques- de la transition vitreuse peut être prédite en regardant le spectre de la matrice des couplages et plus précisément la zone de ce spectre située au voisinage de la valeur propre la plus grande, c'est-à-dire correspondant à l'état d'énergie minimale. La transition dynamique correspondant à l'apparition d'une multitude d'états métastables, nous nous intéressons au nombre de ceux-ci dans le modèle orthogonal aléatoire généralisé, qui est un modèle analogue au modèle de Hopfield avec un nombre extensif de motifs, mais où les motifs sont strictement orthogonaux. Nous étudions l'influence de l'orthogonalité des motifs sur le nombre d'états 1-stables (états stables par retournement d'un spin quelconque). Les études analytiques précédentes par la méthode des répliques sont appuyées par des simulations numériques. Nous réalisons à la fois des simulations Monte-Carlo et des énumérations exactes sur des petits systèmes qui permettent d'obtenir les grandeurs thermodynamiques d'équilibre ou le nombre d'états 1-stables en excellent accord avec les prédictions analytiques.\\ Dans une deuxième partie, nous étudions un modèle sans désordre dont le paramètre d'ordre possède la symétrie $O(N)$ et dont les états fondamentaux ne sont pas tous équivalents. Ce modèle décrivant de manière schématique l'évolution vers une phase cristallisé ou amorphe d'un système de colloïdes de sphéres dures. Nous montrons que l'état amorphe est favorisé par la dynamique. Nous étudions alors les bassins d'attraction de chaque phase pour la dynamique à température nulle : analytiquement à la limite où $N$ est grand, et numériquement lorsque $N$ est fini.
3

Le tremblement de terre d'El Asnam du 10 octobre 1980 : étude des répliques. Algérie

Ouyed, Merzouk 18 December 1981 (has links) (PDF)
Le séisme d'El Asnam du 10 octobre 1980 a fait l'objet de plusieurs publications et de communications au Congrès de Strasbourg (E.U.G.) du 13 au 16 avril 1981 et au Congrès d'Alger du 15 et 16.juin 1981 qui lui a été entièrement consacré. Dans ce mémoire, nous présentons les résultats obtenus à partir de l'analyse de 500 répliques et de plus de 80 solutions focales individuelles. Ces séismes qui se sont produits dans la région d'El Asnam entre le 15 octobre et le 16 novembre 1980 ont été inscrits pour la plupart (93 %) par plus de 10 stations sismologiques (le nombre total d'enregistreurs étant de 25). Avant d'aborder l'étude des répliques (variation spatio-temporelle de la sismicité, chapitre VI ; mécanismes au foyer, chapitre VII), nous faisons une présentation de la géodynamique en Méditerranée ainsi que de la sismicité historique de l'Algérie (chapitre 1). Le séisme d'El Asnam du 9 septembre 1954 est également étudié dans ce chapitre (1). Les deuxième et troisième chapitres sont consacrés à l'étude du séisme du 10 octobre 1980 ; localisation (localisation télésismique, relocalisation), mécanisme au foyer, répartition spatiale des répliques principales calculées par le C.S.E.M. et l'U.S.G.S. (chapitre II), étude macrosismique, déformations de surface (chapitre III). L'intervention sur le terrain (faite le lendemain du tremblement de terre) est décrite dans le chapitre IV. Nous exposons dans le chapitre V la méthode de localisation des foyers des répliques ainsi que les problèmes inhérents à cette méthode. Plusieurs tests sont effectués pour le choix du modèle de vitesse, et nous discutons la précision des résultats obtenus. Enfin, nous étudions en détail la répartition spatio-temporelle de la sismicité (chapitre VI), ainsi que les relations qui peuvent exister entre les solutions focales obtenues et la sismicité, les ruptures de surface, les études de néotectonique (chapitre VII). En annexe (annexe 1), nous présentons les résultats de trois campagnes de microsismicité effectuées en Algérie (El Asnam, Sétif, Blida) en novembre et décembre 1979, soit un an avant le tremblement de terre du 10 octobre 1980.
4

Inversion des anomalies de propagation des ondes sismiques : inverse stochastique et programmation linéaire : application aux Nouvelles-Hébrides (zone de subduction) et aux Pyrénées (Arudy)

Grasso, Jean-Robert 28 January 1981 (has links) (PDF)
Aki et al. (1977) ont les premiers présenté une image tridimensionnelle des anomalies de vitesses sous un réseau de stations locales (NORSAR), en utilisant des téléséismes (séismes situés à plus de trente degrés de distance) épicentrale. Dans ce travail , nous nous proposons d' étendre cette méthode à l'utilisation simultanée des stations locales et télésismiques, puis, dans une deuxiéme étape, d'inverser simultanément les paramétres des foyers sismiques et la structure en vitesse au voisinage de la zone focale . Nous avons pu disposer de données, obtenues dans le Pacifique sud-ouest (Nouvelles Hébrides). Ces observations sont constituées par les temps d'arrivée des ondes P de séismes superficiels enregistrés par un réseau combiné de 17 stations terrestres et marines. Durant une période de trois semaines, une centaine de micro-tremblements de terre ont été localisés par le réseau; 43 sont retenus pour l'inversion de leur temps d'arrivée (252 observations), aux stations du réseau. Le problème physique étant posé, nous l'avons abordé, dans un premier temps, en utilisant les algorithmes classiques de minimisation par moindres carrés des écarts aux données (ici les résidus des ondes P) . Les outils statistiques, permettant le contrôle de la qualité de la solution "douce" ainsi obtenue, posent des problèmes de base dans notre cas . En effet, selon le choix de paramètres discrets (parallélipipèdes ), nous sommes conduits à résoudre, avec les memes données, soit un système sur-déterminé (moins d'inconnues que de paramètres), soit un système sous-déterminé. On passe alors d'un système à solution unique (jamais atteinte), à un système qui admet de nombreuses solutions : i) Comment particulariser la solution lisse obtenue? ii) Que signifie une minimisation par moindres carrés lorsqu'il existe plusieurs solutions ? De telles remarques pourraient condamner ces processus d' inversion elles rendent seulement leur interprétation délicate. Nous présentons ensuite les difficultés liées aux choix de la discrétisation et à l'utilisation de contraintes statistiques sur notre problème physique. Ainsi apparaIt la nécessité d'obtenir des critères objectifs pour "choisir" une solution (les critères statistiques montrant leurs limites). Les solutions obtenues par les deux techniques, tant pour les paramètres des épicentres que pour la structure en vitesse, étonnent par leur très bonne correspondance dans le sens (signe ) des variations (solutions ) obtenues. Sur un exemple, le calcul des valeurs minimum et maximum possibles de quelques paramètres permet d'exprimer clairement la qualité de l 'information contenue dans les données. Fort de ces renseignements et vu les corrélations exprimées précédemment, les solutions particulières obtenues présentent un acquis appréciable et fournissent une base de réflexion pour l 'interprétation géophysique et géologique de ce modèle . Deux applications sont présentées: la premlère étudie la structure au-dessus d'une plaque plongeante dans la partie centrale de l'arc des Nouvelles Hébrides. La deuxième utilise les enregistrements des répliques du séisme d'Arudy(1980) (Pyrénées ) . Les deux cas traités montrent une très faible dépendance des perturbations des paramètres des hypocentres vis-à-vis des anomalies de vitesse. Dans l'exemple d'Arudy, le résultat majeur reste une anomalie de vitesse négative (zone lente), associée à la zone sismique. Dans le cas de la structure du domaine "océanique" etudié aux Nouvelles Hébrides, l'une des difficultés de l'interprétation réside dans la détermination de la zone de contact entre les deux plaques. Un des résultats les plus intéressants est obtenu entre 20 et 35 km de profondeur, où une couche épaisse de vitesse 7. 2 km/s environ est nettement visible sous chaque île (Malikolo, Efate). Cette couche n'est pas mise en évidence dans le domaine intra-îles. Une telle structure peut refléter une ancienne subduction (opposé à la subduction actuelle) et caractériser aussi un modèle de fluage pour la subduction actuelle (absence de gros séismes dans cette région ) .
5

Lattice model for amyloid peptides : OPEP force field parametrization and applications to the nucleus size of Alzheimer's peptides / Modèle réseau de peptides amyloïdes : paramétrisation du champ de forces OPEP et application aux noyaux de nucléation de peptides d'Alzheimer

Tran, Thanh Thuy 20 September 2016 (has links)
La maladie d’Alzheimer touche plus de 40 millions de personnes dans le monde et résulte de l’agrégation du peptide beta-amyloïde de 40/42 résidus. En dépit de nombreuses études expérimentales et théoriques, le mécanisme de formation des fibres et des plaques n’est pas élucidé, et les structures des espèces les plus toxiques restent à déterminer. Dans cette thèse, je me suis intéressée à deux aspects. (1) La détermination du noyau de nucléation (N*) de deux fragments (Aβ)16-22 et (Aβ)37-42. Mon approche consiste à déterminer les paramètres OPEP du dimère (Aβ)16-22 en comparant des simulations Monte Carlo sur réseau et des dynamiques moléculaires atomiques par échange de répliques. Les paramètres fonctionnant aussi sur le trimère (Aβ)16-22 et les dimères et trimères (Aβ)37-42, j’ai étudié la surface d’énergie libre des décamères et mes simulations montrent que N* est de 10 chaines pour (Aβ)16-22 et est supérieure à 20 chaines pour (Aβ)37-42. (2) J’ai ensuite étudié les structures du dimère (Aβ)1-40 par simulations de dynamique moléculaire atomistique par échanges de répliques. Cette étude, qui fournit les conformations d’équilibre du dimère Aβ1-40 en solution aqueuse, ouvre des perspectives pour une compréhension de l’impact des mutations pathogènes et protectrices au niveau moléculaire. / The neurodegenerative Alzheimer's disease (AD) is affecting more than 40 million people worldwide and is linked to the aggregation of the amyloid-β proteins of 40/42 amino acids. Despite many experimental and theoretical studies, the mechanism by which amyloid fibrils form and the 3D structures of the early toxic species in aqueous solution remain to be determined. In this thesis, I studied the structures of the eraly formed oligomers of the amyloid-β peptide and the critical nucleus size of two amyloid-β peptide fragments using either coarse-grained or all-atom simulations. First, at the coarse-grained level, I developed a lattice model for amyloid protein, which allows us to study the nucleus sizes of two experimentally well-characterized peptide fragments (Aβ)16-22 and (Aβ)37-42 of the Alzheimer's peptide (Aβ)1-42. After presenting a comprehensive OPEP force-field parameterization using an on-lattice protein model with Monte Carlo simulations and atomistic simulations, I determined the nucleus sizes of the two fragments. My results show that the nucleation number is 10 chains for (Aβ)16-22 and larger than 20 chains for (Aβ)37-42. This knowledge is important to help design more effective drugs against AD. Second, I investigated the structures of the dimer (Aβ)1-40 using extensive atomistic REMD simulations. This study provides insights into the equilibrium structure of the (Aβ)1-40 dimer in aqueous solution, opening a new avenue for a comprehensive understanding of the impact of pathogenic and protective mutations in early-stage Alzheimer’s disease on a molecular level.
6

Dynamique quantique hors-équilibre et systèmes désordonnés pour des atomes ultrafroids bosoniques

Sciolla, Bruno 13 September 2012 (has links) (PDF)
Durant cette thèse, je me suis intéressé à deux thématiques générales qui peuvent être explorées dans des systèmes d'atomes froids : d'une part, la dynamique hors-équilibre d'un système quantique isolé, et d'autre part l'influence du désordre sur un système fortement corrélé à basse température. Dans un premier temps, nous avons développé une méthode de champ moyen, qui permet de résoudre la dynamique unitaire dans un modèle à géométrie particulière, le réseau complètement connecté. Cette approche permet d'établir une correspondance entre la dynamique unitaire du système quantique et des équations du mouvement classique. Nous avons mis à profit cette méthode pour étudier le phénomène de transition dynamique qui se signale, dans des modèles de champ moyen, par une singularité des observables aux temps longs, en fonction des paramètres initiaux ou finaux de la trempe. Nous avons montré l'existence d'une transition dynamique quantique dans les modèle de Bose-Hubbard, d'Ising en champ transverse et le modèle de Jaynes-Cummings. Ces résultats confirment l'existence d'un lien fort entre la présence d'une transition de phase quantique et d'une transition dynamique.Dans un second temps, nous avons étudié un modèle de théorie des champs relativiste avec symétrie O(N) afin de comprendre l'influence des fluctuations sur ces singularités. À l'ordre dominant en grand N, nous avons montré que la transition dynamique s'apparente à un phénomène critique. En effet, à la transition dynamique, les fonctions de corrélations suivent une loi d'échelle à temps égaux et à temps arbitraires. Il existe également une longueur caractéristique qui diverge à l'approche du point de transition. D'autre part, il apparaît que le point fixe admet une interprétation en terme de particules sans masse se propageant librement. Enfin, nous avons montré que la dynamique asymptotique au niveau du point fixe s'apparente à celle d'une trempe d'un état symétrique dans la phase de symétrie brisée. Le troisième volet de cette thèse apporte des éléments nouveaux pour la compréhension du diagramme des phases du modèle de Bose-Hubbard en présence de désordre. Pour ce faire,nous avons utilisé et étendu la méthode de la cavité quantique en champ moyen de Ioffe et Mézard, qui doit être utilisée avec la méthode des répliques. De cette manière, il est possible d'obtenir des résultats analytiques pour les exposants des lois de probabilité de la susceptibilité.Nos résultats indiquent que dans les différents régimes de la transition de phase de superfluide vers isolant, les lois d'échelle conventionnelles sont tantôt applicables, tantôt remplacées par une loi d'activation. Enfin, les exposants critiques varient continûment à la transition conventionnelle.
7

Matériaux à porosité contrôlée sulfonés : Synthèse, Caractérisation, Etude des propriétés catalytiques

Karaki, Mariam 08 July 2013 (has links) (PDF)
La catalyse solide acide a été pendant longtemps l'objet d'activité de recherche intense, en particulier pour l'industrie pétrochimique. Aujourd'hui, les catalyseurs solides acides sont de plus en plus étudiés dans d'autres domaines et en particulier dans celles liées à la "chimie verte" et à la valorisation des bioressources, telles que la synthèse de biodiesel et la transformation des polysaccharides. L'objectif de la thèse est d'étudier le potentiel des matériaux poreux sulfonés ayant une porosité contrôlée dans des réactions catalysées par un acide en condition eau surchauffé telle que l'hydrolyse de la cellobiose. Dans une première partie, nous décrivons la préparation et la caractérisation des organosilicates mésoporeux périodiques sulfonés de type SBA-15, SBA-1 et KIT-6 par co-condensation de 1,4-bis (triéthoxysilyl) benzène (BTEB). Les matériaux ont été acidifiés suivant des voies différentes à l'aide de 3-mercaptopropyltriméthoxysilane (MPTMS)/H2O2 ou d'acide chlorosulfonique (ClSO3H). Leur propriété acide a été étudiée par adsorption d'NH3 suivie par calorimétrie et par la réaction de déshydratation d'isopropanol (IPA) comme réaction modèle en phase gazeuse. Contrairement à notre attente, l'adsorption d'NH3 suivie par calorimétrie a mis en évidence l'hétérogénéité de la force des sites suggérant la présence de sites distincts de la sulfonation. Les solides sulfonés avec l'acide chlorosulfonique ont une activité équivalente à celle de la résine sulfonée, Amberlyst 15, mais ils sont moins stables en raison de la libération des espèces de soufre. Les catalyseurs préparés en utilisant un groupement mercapto-propyle suivie d'une oxydation sont moins acides et ils ont donné des niveaux d'activité plus basse dans la réaction de déshydratation d'IPA. Pour l'hydrolyse de la cellobiose, de bonnes performances ont été obtenues à 150°C, mais, ces matériaux se sont montrés instables dans des conditions hydrothermales avec une lixiviation totale de soufre réalisant alors la réaction en phase homogène. Un lavage dans l'eau surchauffée des matériaux contenant des groupements propyles-SO3H conduit à une diminution de leur efficacité dans l'hydrolyse de la cellobiose, mais un gain de stabilité a été obtenu, permettant le recyclage de ces matériaux. Dans une deuxième partie, des répliques carbonées sulfonées par l'acide chlorosulfonique ou l'acide sulfurique ont été synthétisé. La sulfonation par l'acide sulfurique suivi par un lavage dans l'eau bouillante puis un prétraitement thermique à 300°C sous azote, de ces matériaux aboutissent au meilleur catalyseur en termes d'activité/stabilité.
8

Multi-criteria Mapping and Scheduling of Workflow Applications onto Heterogeneous Platforms

Rehn-Sonigo, Veronika 07 July 2009 (has links) (PDF)
Les travaux présentés dans cette thèse portent sur le placement et l'ordonnancement d'applications de flux de données sur des plates-formes hétérogènes. Dans ce contexte, nous nous concentrons sur trois types différents d'applications :<br />Placement de répliques dans les réseaux hiérarchiques - Dans ce type d'application, plusieurs clients émettent des requêtes à quelques serveurs et la question est : où doit-on placer des répliques dans le réseau afin que toutes les requêtes puissent être traitées. Nous discutons et comparons plusieurs politiques de placement de répliques dans des réseaux hiérarchiques en respectant des contraintes de capacité de serveur, de qualité<br />de service et de bande-passante. Les requêtes des clients sont connues a priori, tandis que le nombre et la position des serveurs sont à déterminer. L'approche traditionnelle dans la littérature est de forcer toutes les requêtes d'un client à être traitées par le serveur le plus proche dans le réseau hiérarchique. Nous introduisons et étudions deux nouvelles politiques. Une principale contribution de ce travail est l'évaluation de l'impact de ces nouvelles politiques sur le coût total de replication. Un autre but important est d'évaluer l'impact de l'hétérogénéité des serveurs, d'une perspective à la<br />fois théorique et pratique. Nous établissons plusieurs nouveaux résultats de complexité, et nous présentons plusieurs heuristiques <br />efficaces en temps polynomial.<br />Applications de flux de données - Nous considérons des applications de flux de données qui peuvent être exprimées comme des graphes linéaires. Un exemple pour ce type d'application est le traitement numérique d'images, où les images sont traitées en<br />régime permanent. Plusieurs critères antagonistes doivent être optimisés, tels que le débit et la latence (ou une combinaison) ainsi que la latence et la fiabilité (i.e. la probabilité que le calcul soit réussi) de l'application. Bien qu'il soit possible de trouver<br />des algorithmes polynomiaux simples pour les plates-formes entièrement homogènes, le problème devient NP-difficile lorsqu'on s'attaque à des plates-formes hétérogènes. Nous présentons une formulation en programme linéaire pour ce dernier problème. De<br />plus nous introduisons plusieurs heuristiques bi-critères efficaces en temps polynomial, dont la performance relative est évaluée par des simulations extensives. Dans une étude de cas, nous présentons des simulations et des résultats expérimentaux (programmés en MPI) pour le graphe d'application de l'encodeur JPEG sur une grappe de calcul.<br />Applications complexes de streaming - Considérons l'exécution d'applications organisées en arbres d'opérateurs, i.e. l'application en régime permanent d'un ou plusieurs arbres d'opérateurs à données multiples qui doivent être mis à jour continuellement à différents endroits du réseau. Un premier but est de fournir à l'utilisateur un ensemble de processeurs qui doit être acheté ou loué pour garantir que le débit minimum de l'application en régime permanent soit atteint. Puis nous étendons notre modèle aux applications multiples : plusieurs applications concurrentes sont exécutées en même<br />temps dans un réseau, et on doit assurer que toutes les applications puissent atteindre leur débit requis. Une autre contribution de ce travail est d'apporter des résultats de complexité pour des instances variées du problème. La troisième contribution est l'élaboration<br />de plusieurs heuristiques polynomiales pour les deux modèles d'application. Un objectif premier des heuristiques pour applications concurrentes est la réutilisation des résultats intermédiaires qui sont partagés parmi différentes applications.
9

Etude de propriétés d'apprentissage supervisé et non supervisé par des méthodes de Physique Statistique

Buhot, Arnaud 17 May 1999 (has links) (PDF)
L'objet de cette thèse est l'étude de diverses propriétés d'apprentissage à partir d'exemples par des méthodes de Physique Statistique, notamment, par la méthode des répliques. Des tâches supervisées, correspondant à la classification binaire de données, ainsi que des tâches non supervisées, comme l'estimation paramétrique d'une densité de probabilité, sont considérées. Dans la première partie, une approche variationnelle permet de déterminer la performance de l'apprentissage optimal d'une direction d'anisotropie, et de déduire une fonction de coût permettant d'obtenir ces performances optimales. Dans le cas de l'apprentissage supervisé d'une tâche linéairement séparable, des simulations numériques confirmant nos résultats théoriques ont permis de déterminer les effets de taille finie. Dans le cas d'une densité de probabilité constituée de deux gaussiennes, la performance de l'apprentissage optimal présente de nombreuses transitions de phases en fonction du nombre de données. Ces résultats soulèvent une controverse entre la théorie variationnelle et l'approche bayesienne de l'apprentissage optimal. Dans la deuxième partie, nous étudions deux approches différentes de l'apprentissage de tâches de classification complexes. La première approche considérée est celle des machines à exemples supports. Nous avons étudié une famille de ces machines pour laquelle les séparateurs linéaire et quadratique sont deux cas particuliers. La capacité, les valeurs typiques de la marge et du nombre d'exemples supports, sont déterminées. La deuxième approche considérée est celle d'une machine de parité apprenant avec un algorithme incrémental. Cet algorithme construit progressivement un réseau de neurones à une couche cachée. La capacité théorique obtenue pour l'algorithme considéré est proche de celle de la machine de parité.
10

Elaboration et caractérisation de matrices hydroxydes doubles lamellaires macroporeuses

Géraud, Erwan 13 December 2006 (has links) (PDF)
Dans ce travail, la structuration de phases HDL en matrices macroporeuses a été réalisée grâce à l'utilisation d'un arrangement ordonné de sphères comme empreinte sacrificielle. Les phases HDL sont obtenues en précipitant les sels métalliques adsorbés à la surface de billes de PS ordonnées, en présence de soude. Un réseau 3D poreux est finalement obtenu soit par dissolution ou bien calcination de l'empreinte. Ces matrices HDL macroporeuses conservent leur propriétés d'intercalation et leur richesse de composition. La macroporosité ordonnée est maintenue lors de la décomposition thermique des phases HDL en oxydes. Cette macroporosité présente dans les phases HDL permet l'amélioration de l'adsorption, évaluée sur l'Orange II, et la photodégradation d'un pesticide par des anions décatungstate immobilisés. A partir de ces matrices macroporeuses, des carbones à porosité hiérarchisée ont été élaborés

Page generated in 0.4326 seconds