Spelling suggestions: "subject:"étendue"" "subject:"étendu""
1 |
Inversion d'une marge hyper-amincie : contexte thermo-cinématique et interactions tectonique-érosion au Nord des Pyrénées / Inversion of a hyper-thinned margin : thermo-kinematic context and interactions between tectonic and erosion, North-Pyrenees (France)Vacherat, Arnaud 24 November 2014 (has links)
Les Pyrénées sont une chaîne plissée à double vergence déversée vers le Sud. Elles se sont érigées suite à l’inversion au Crétacé Supérieur de domaines hyper-étirés au Crétacé Inférieur et à la collision des plaques continentales ibérique et européenne à l’Eocène-Oligocène. Cependant, l’évolution thermique de ces domaines hyper-étirés pendant l’inversion, de même que l’impact de cet héritage thermique extensif sur la formation du prisme orogénique, sont à ce jour peu ou pas contraints.La Zone Nord-Pyrénéenne (ZNP) a préservé de nombreux marqueurs de cette hyper-extension (manteau sous-continental exhumé, métamorphisme HT-BP) ce qui en fait une zone d’étude tout à fait adaptée pour aborder ces questions. Pour apporter des contraintes à la fois thermiques et temporelles sur l’évolution de ces domaines, plusieurs méthodes de datation thermochronologique basse-température ((U-Th-Sm)/He et traces de fission sur apatites et zircons) ont été utilisées.Pendant l’extension, le bassin de Mauléon (à l’Ouest de la ZNP) a enregistré la mise en place d’un fort gradient thermique (~80°C/km), associé à l’amincissement extrême de la lithosphère sous-jacente. Le bassin est resté chaud même après le début de la convergence pendant 20-30 Ma. Cette anomalie thermique est encore plus forte au centre de la ZNP au Sud de la région Ariège. Les données obtenues sur les unités moins déformées au Nord de la région indiquent que ces domaines moins étirés enregistrent du refroidissement associé à de la dénudation et conservent leur architecture au cours de la convergence et de la collision. / The Pyrenees are a double vergent fold and thrust belt. The Pyrenean belt resulted from the inversion and the collision of previously hyper-extended domains of the Iberian and European plates from the Late Cretaceous to the Late Oligocene. However, what is the thermal evolution of such inverted hyper-extended domains, as well as the influence of this extensional thermal inheritage on the orogenic growth, are poorly constrained.The North Pyrenean Zone (NPZ) is characterized by numerous preserved evidences of this hyper-extension (exhumation of sub-continental mantle material, high temperature-low pressure metamorphism). We bring time and temperature constraints on the evolution of these hyper-extended domains from rifting to collision, by using low-temperature thermochronology ((U-Th-Sm)/He and fission track analyses on apatites and zircons).The Mauléon basin (western part of the NPZ) recorded a high geothermal gradient emplaced during extension due to the extreme thinning of the lithosphere below. The basin remained hot even during the beginning of the convergence. Cooling is only recorded during the main phase of orogenic growth. The imprint of this thermal anomaly is stronger farther to the east, in the central NPZ (Ariège area). Here, the hyper-extended domain is not well preserved, because of a higher amount of shortening. New thermochronological and structural data on the relatively less deformed units to the North revealed cooling during extension, related to denudation. Moreover, these domains conserved their extensional architecture during convergence and collision.
|
2 |
Résolution exacte de problèmes de couverture par arborescences sous contraintes de capacité / Exact methods for solving covering problems with trees subject to capacity constraintsGuillot, Jérémy 18 December 2018 (has links)
Dans ce document, nous étudions deux problèmes de sectorisation et proposons plusieurs méthodes de résolution exactes basées sur la décomposition de Dantzig-Wolfe et la génération de colonnes. Nous proposons deux modélisations en fonction de la manière d’appréhender l’objectif du problème qui consiste à obtenir des secteurs compacts. Pour chacune des modélisations, nous comparons des approches de résolution exactes basées sur des formulations compactes ou sur des formulations étendues obtenues par la décomposition de Dantzig-Wolfe. Le premier type de modèles proposé définit la fonction objectif à la manière d’un problème de p-median. Concernant les méthodes de résolution pour ce type de modèle, l’accent est mis sur l’accélération de la convergence de l’algorithme de génération de colonnes en mettant en place des techniques d’agrégation de contraintes afin de réduire la dégénérescence de l’algorithme du simplexe. Les expérimentations numériques montrent que la méthode d’agrégation de contraintes proposée permet effectivement de réduire le nombre d’itérations dégénérées. Cependant, elle ne suffit pas à accélérer l’algorithme de branch-and-price. Le choix d’utilisation de la formulation compacte ou de la formulation étendue dépend du type d’instances résolu. Le second type de modèles formule l’objectif d’une manière assez proche de celui des problèmes de p-centre. L’utilisation d’un tel objectif complexifie la résolution des sous-problèmes de génération de colonnes. L’accent est donc mis sur la conception d’algorithmes de branch-and-bound et de programmation dynamique pour les résoudre efficacement. Les expériences montrent que l’algorithme de branch-and-price surpasse les approches de résolution utilisant une formulation compacte du problème. / In this document, we study two districting problems and propose several exact methods, based on Dantzig-Wolfe decomposition and column generation, to solve them. For each model, we compare exact approaches based either on compact formulations or on extended formulations obtained using Dantzig-Wolfe decomposition. The first type of model that we propose defines the objective function in a p-median problem fashion. Regarding the methods used to solve that kind of model, we emphasize accelerating the convergence of the column generation algorithm by designing constraint aggregation techniques in order to reduce the degeneracy in the simplex algorithm. Numerical experiments show that this constraint aggregation method indeed reduces the proportion of degenerated iterations. However, it is not enough to speed up the branch-and-price algorithm. Choosing to tackle the problem through either a compact formulation or an extended formulation depends on the structure of the instances to solve. The second type of model formulates the objective function in a way quite similar to that of p-centre problems. Using such an objective function induces complex column generation subproblems. We focus on designing branch-and-bound and dynamic programming algorithms in order to solve them efficiently. Experiments show that the branch-and-price approach surpasses any proposed method based on compact formulations of the problem.
|
3 |
Paramagnetic extended metal atom chains : synthesis, structures, magnetic properties and chiro-optical studies / Chaînes métalliques étendues paramagnétiques : synthèse, structures, propriétés magnétiques et études chiro-optiquesSrinivasan, Anandi 20 November 2017 (has links)
Cette thèse décrits la synthèse et caractérisations de chaines métalliques étendues (EMACs:extended metal atom chains) construite à partir des ligands dipyridylamine (dpa) etdipyridylformamidinate (DpyF). Le Chapitre I fait une brève introduction sur les liaisons métalmétalet sur les chaines métalliques étendues. Le Chapitre II présente les propriétés de conversionde spin (SCO: spin crossover) d’une série d’EMACs de tris-cobalt de formule générale[Co3(dpa)4X2]. L’influence des ligands axiaux et de la symétrie des molécules a été examinée etcorrélée aux propriétés de conversion de spin. Le Chapitre III porte sur la résolutionénantiomérique et activité RX optique de l’EMAC tris-cobalt [Co3(dpa)4(MeCN)2]2+. Dans lechapitre IV, La chimie de coordination du ligand N,N’-di(2-pyridyl)formamidinate (DpyF), quiconduit à des complexes présentant des propriétés structurales and magnétiques remarquable,est explorée. Finalement, le chapitre V présente nos études préliminaires pour obtenir despolymères unidimensionnelles d’EMAC de tris-cobalt en utilisant des radicaux de type thiazyle. / This thesis describes the synthesis and characterizations of extended metal atom chains (EMACs)supported by dipyridylamine (dpa) and dipyridylformamidinate (DpyF) ligands. Chapter Iprovides a brief introduction to metal-metal bonds and extended metal atom chains. In Chapter IIspin crossover properties of series of tricobalt EMACs based on [Co3(dpa)4X2] motifs arepresented. The influence of the axial ligands and the symmetry of the molecule was examined andcorrelated with the SCO properties. Chapter III describes the enantiomeric resolution and X-rayoptical activity of tricobalt EMAC, [Co3(dpa)4(MeCN)2]2+. In chapter IV, the coordination chemistryof N,N’-di(2-pyridyl)formamidinate, (DpyF) is explored, a ligand which gives rise to complexeswith remarkable structural and magnetic properties Finally, chapter V presents our initial effortsto obtain one-dimensional coordination polymers of tricobalt EMAC using thiazyl radicals.
|
4 |
Contribution à l'étude de l'exploitation des données temporelles en présence d'imperfections / Contribution to the Study of Temporal Data Exploitation in the Presence of ImperfectionsGammoudi, Aymen 17 June 2017 (has links)
Ce travail de thèse porte sur l’exploitation des données temporelles en présence d’imperfections. Il s’agit de définir, concevoir et développer un système intelligent pour l’interrogation des bases de données temporelles où la dimension temps (des relations ou des entités) est définie d’une manière imprécise et floue. Ce type de base de données se manifeste fréquemment dans les applications issues du domaine médical, de l’historique et de l’archive, de la planification, etc.Nous rappelons tout d’abord les différents formalismes utilisés dans le traitement des informations temporelles, puis, nous présentons les travaux antérieurs qui ont abordé la problématique de la gestion et de traitement de l’information temporelle imparfaite dans le domaine des bases de données. Nous décrivons ensuite une première contribution apportée sur la définition d’un nouveau modèle de représentation de données temporelles entachées d’imprécision. Des relations d’Allen étendues ont été introduites ainsi qu’un ensemble de règles de composition permettant de raisonner. Cette contribution a permis de développer un premier prototype nommé Fuzz-TIME pour le traitement des requêtes contenant des critères temporels flous/imprécis. Un des points forts de ce système est qu’il possède un module de raisonnement lui permettant de traiter, d’une manière intelligente, une famille de requêtes temporelles de nature complexe.La plupart des travaux menés sur l’exploitation et la manipulation des informations temporelles considèrent que les entités temporelles (i.e., intervalles) sont définies d’une manière précise (non floue). Or dans le monde des applications réelles, les bornes des intervalles de temps manipulés sont souvent entachées d’imprécision. Nous avons ainsi proposé une nouvelle sémantique des relations temporelles d’Allen (i.e., relations d’Allen tolérantes) dans ce contexte. L’élément clé de cette sémantique est une relation de tolérance convenablement choisie. Une troisième partie de notre travail est consacrée à la modélisation d’une nouvelle extension des relations temporelles d’Allen où les intervalles de temps sont interprétés d’une manière conjonctive. Enfin, nous décrivons l’architecture du système Fuzz-TIME et discutons l’étude expérimentale menée pour valider les contributions proposées. / This work focuses on the exploitation of temporal data in presence of imperfections. The aim is to define, design and develop an intelligent system for the interrogation of temporal databases where the time dimension (of relationships or entities) is defined in an imprecise and fuzzy way. This type of databases is frequently found in applications from the medical field, history and archive, planning, etc.We first recall the different formalisms used in the processing of temporal in formation, and then we present the previous work which has addressed the problem of managing and processing of imperfect temporal information in the field of databases.We describe then a first contribution related to the definition of a new model for the representation of imprecise temporal data. Extended Allen relations have been introduced as well as a set of composition rules for reasoning. This contribution has allowed developing a first prototype called Fuzz-TIME for processing queries containing fuzzy /imprecise time criteria. One of the major interests of this system is that it exhibits a reasoning module to intelligently process a family of temporal queries of a complex nature.Most work on the exploitation and manipulation of temporal in formation considers that the temporal entities (i.e.,intervals) are defined in a precise (non-fuzzy) manner. ln the world of real applications, the bounds of the manipulated time intervals are often pervaded by imprecision. We have proposed a new semantics of Allen's temporal relations (i .e., Allen Tolerant Relations) in this context. The key element of this semantics is a suitably chosen relationship of tolerance. A third part of our work is devoted to the modeling of a new extension of Allen's temporal relations where the time intervals are interpreted in a conjunctive way. Finally, we describe the architecture of the Fuzz-TIME system and discuss the experimental study carried out to validate the proposed contributions.
|
5 |
Analyse d'Algorithmes Stochastiques Appliqués à la FinanceLaruelle, Sophie 12 December 2011 (has links) (PDF)
Cette thèse porte sur l'analyse d'algorithmes stochastiques et leur application en Finance notamment et est composée de deux parties. Dans la première partie, nous présentons un résultat de convergence pour des algorithmes stochastiques où les innovations vérifient une hypothèse de moyennisation avec une certaine vitesse. Nous l'appliquons ensuite à différents types d'innovations (suites i.i.d., suites à discrépance faible, chaînes de Markov homogènes, fonctionnelles de processus \alpha-mélangeant) et nous l'illustrons à l'aide d'exemples motivés principalement par la Finance. Nous établissons ensuite un résultat de vitesse ''universelle'' de convergence dans le cadre d'innovations équiréparties dans [0,1]^q et nous confrontons nos résultats à ceux obtenus dans le cadre i.i.d.. La seconde partie est consacrée aux applications. Nous présentons d'abord un problème d'allocation optimale appliqué au cas d'un nouveau type de place de trading: les {\em dark pools}. Ces places proposent un prix d'achat (ou de vente) certain, mais n'assurent pas le volume délivré. Le but est alors d'exécuter le maximum de la quantité souhaitée sur ces places. Ceci mène à la construction d'un algorithme stochastique sous contraintes à l'aide du Lagrangien que nous étudions dans les cadres d'innovations i.i.d. et moyennisantes. Le chapitre suivant présente un algorithme d'optimisation pour trouver la meilleure distance de placement d'ordres limites: il s'agit de minimiser le coût d'exécution d'une quantité donnée. Ceci mène à la construction d'un algorithme stochastique sous contraintes avec projection. Pour assurer l'existence et l'unicité de l'équilibre, des critères suffisants sur certains paramètres du modèle sont obtenus à l'aide d'un principe de monotonie opposée pour les diffusions unidimensionnelles. Le chapitre suivant porte sur l'implicitation et la calibration de paramètres dans des modèles financiers. La première technique mène à un algorithme de recherche de zéro et la seconde à une méthode de gradient stochastique. Nous illustrons ces deux techniques par des exemples d'applications sur 3 modèles: le modèle de Black-Scholes, le modèle de Merton et le modèle pseudo-CEV. Enfin le dernier chapitre porte sur l'application des algorithmes stochastiques dans le cadre de modèles d'urnes aléatoires utilisés en essais cliniques. A l'aide des méthodes de l'EDO et de l'EDS, nous retrouvons les résultats de consistance (convergence p.s.) et de normalité asymptotique (TCL) de Bai et Hu mais sous des hypothèses plus faibles sur les matrices génératrices. Nous étudions aussi un modèle ''multi-bras'' pour lequel nous retrouvons le résultat de convergence p.s. et nous montrons un nouveau résultat de normalité asymptotique par simple application du TCL pour les algorithmes stochastiques.
|
6 |
Construction of extended topological quantum field theories / Construction de théories quantiques des champs topologiques étendusDe Renzi, Marco 27 October 2017 (has links)
La position centrale occupée par les Théories Quantiques des Champs Topologiques (TQFTs) dans l’étude de la topologie en basse dimension est due à leur structure extraordinairement riche, qui permet différentes interactions et applications à des questions de nature géométrique. Depuis leur première apparition, un grand effort a été mis dans l’extension des invariants quantiques de 3-variétés en TQFTs et en TQFT Étendues (ETQFTs). Cette thèse s’attaque à ce problème dans deux cadres généraux différents. Le premier est l’étude des invariants quantiques semi-simples de Witten, Reshetikhin et Turaev issus de catégories modulaires. Bien que les ETQFTs correspondantes étaient connues depuis un certain temps, une réalisation explicite basée sur la construction universelle de Blanchet, Habegger, Masbaum et Vogel apparaît ici pour la première fois. L’objectif est de tracer la route à suivre dans la deuxième partie de la thèse, où la même procédure est appliquée à une nouvelle famille d’invariants quantiques non semi-simples due à Costantino, Geer et Patureau. Ces invariants avaient déjà été étendus en TQFTs graduées par Blanchet, Costantino, Geer and Patureau, mais seulement pour une famille explicite d’exemples. Nous posons la première pierre en introduisant la définition de catégorie modulaire relative, un analogue non semi-simple aux catégories modulaires. Ensuite, nous affinons la construction universelle pour obtenir des ETQFTs graduées étendant à la fois les invariants quantiques de Costantino, Geer et Patureau et les TQFTs graduées de Blanchet, Costantino, Geer et Patureau dans ce cadre général / The central position held by Topological Quantum Field Theories (TQFTs) in the study of low dimensional topology is due to their extraordinarily rich structure, which allows for various interactions with and applications to questions of geometric nature. Ever since their first appearance, a great effort has been put into extending quantum invariants of 3-dimensional manifolds to TQFTs and Extended TQFTs (ETQFTs). This thesis tackles this problem in two different general frameworks. The first one is the study of the semisimple quantum invariants of Witten, Reshetikhin and Turaev issued from modular categories. Although the corresponding ETQFTs were known to exist for a while, an explicit realization based on the universal construction of Blanchet, Habegger, Masbaum and Vogel appears here for the first time. The aim is to set a golden standard for the second part of the thesis, where the same procedure is applied to a new family of non-semisimple quantum invariants due to Costantino, Geer and Patureau. These invariants had been previously extended to graded TQFTs by Blanchet, Costantino, Geer an Patureau, but only for an explicit family of examples. We lay the first stone by introducing the definition of relative modular category, a non-semisimple analogue to modular categories. Then, we refine the universal construction to obtain graded ETQFTs extending both the quantum invariants of Costantino, Geer and Patureau and the graded TQFTs of Blanchet, Costantino, Geer and Patureau in this general setting
|
7 |
Test and Validation of Web ServicesCao, Tien Dung 06 December 2010 (has links)
Nous proposons dans cette thèse les approches de test pour la composition de services web. Nous nous intéressons aux test unitaire et d’intégration d’une orchestration de services web. L’aspect de vérification d’exécution en-ligne est aussi consideré. Nous définissons une plateforme de test unitaire pour l’orchestration de services web qui compose une architecture de test, une relation de conformité et deux approches de test basés sur le modèle de machine à l’états finis étendues temporisés: l’approche offline où les activités de test comme la génération de cas de test temporisé, l’exécution de test et l’assignement de verdict sont appliquées en séquentielle tandis que ces activités sont appliquées en parallèle dans l’approche online. Pour le test d’intégration d’une orchestration, nous combinons deux approches: active et passive.Au debut, l’approche active est utilisée pour activer une nouvelle session d’orchestration par l’envoi d’un message de requête SOAP. Après, tous les messages d’entré et de sortie de l’orchestration sont collectés et analysés par l’approche passive.Pour l’aspect de vérification d’exécution en-ligne, nous nous intéressons à la vérification d’une trace qui respecte un ensemble des constraintes, noté règles, ou pas. Nous avons proposé extendre le langage Nomad en définissant des constraintes sur chaque action atomique et un ensemble de corrélation de données entre les actions pour définir des règles pour le service web. Ce langage nous permet de définir des règles avec le temps futur et passé, et d’utiliser des opérations NOT, AND, OR pour combiner quelque conditions dans le contexte de la règle. Ensuite, nous proposons un algorithme pour vérifier l’exactitude d’une séquence des messages en parallèle avec le moteur de collecte de trace. / In this thesis, we propose the testing approaches for web service composition. We focus on unit, integrated testing of an orchestration of web services and also the runtime verification aspect. We defined an unit testing framework for an orchestration that is composed of a test architecture, a conformance relation and two proposed testing approaches based on Timed Extended Finite State Machine (TEFSM) model: offline which test activities as timed test case generation, test execution and verdict assignment are applied in sequential, and online which test activities are applied in parallel. For integrated testing of an orchestration, we combines of two approaches: active and passive. Firstly, active approach is used to start a new session of the orchestration by sending a SOAP request. Then all communicating messages among services are collected and analyzed by a passive approach. On the runtime verification aspect, we are interested in the correctness of an execution trace with a set of defined constraints, called rules. We have proposed to extend the Nomad language, by defining the constraints on each atomic action (fixed conditions) and a set of data correlations between the actions to define the rules for web services. This language allows us to define a rule with future and past time, and to use the operations: NOT, AND, OR to combines some conditions into a context of the rule. Afterwards, we proposed an algorithm to check correctness of a message sequence in parallel with the trace collection engine. Specifically, this algorithm verifies message by message without storing them.
|
8 |
Plus loin avec la mission spatiale Gaia grâce à l'analyse des objets étendusGarcez de Oliveira Krone Martins, Alberto 18 March 2011 (has links)
Ce travail a comme objectif principal de vérifier s’il est possible de faire de la science avec les observations d’objets étendus qui seront réalisées par la mission spatiale Gaia. Cette mission, l’un des plus ambitieux projets de l’Astronomie moderne,observera plus d’un milliard d’objets dans tout le ciel avec des précisions inédites, fournissant des données astrométriques, photométriques et spectroscopiques. Naturellement, en fonction de sa priorité astrométrique, Gaia a été optimisé pour l’étude d’objets ponctuels. Néanmoins, diverses sources associées à des émissions étendues seront observées. Ces émissions peuvent avoir une origine intrinsèque, telles que les galaxies, ou extrinsèque, telles que les projections d’objets distincts sur la même ligne de visée, et présenteront probablement de solutions astrométriques moins bonnes.Pour étudier ces émissions, leurs images bidimensionnelles doivent être analysées.Néanmoins, comme Gaia ne produit pas de telles données, nous avons commencé ce travail en vérifiant si à partir de ses observations unidimensionnelles il serait possible de reconstruire des images 2D d’objets dans tout le ciel.Nous avons ainsi estimé la quantité de cas sujets à la présence d’émissions étendues extrinsèques, et nous avons présenté une méthode que nous avons développée pour analyser leurs images reconstruites. Nous avons montré que l’utilisation de cette méthode permettra d’étendre le catalogue final de façon fiable à des millions de sources ponctuelles dont beaucoup dépasseront la magnitude limite de l’instrument.D’un autre coté, dans le cas d’émissions intrinsèques, nous avons premièrement obtenu une estimation supérieure du nombre de cas que Gaia pourra observer. Nous avons alors vérifié qu’après les reconstructions d’images, les codes que nous avons développés permettront de classifier morphologiquement des millions de galaxies dans les types précoce/tardif et elliptique/spirale/irrégulière. Nous avons de plus présenté une méthode que nous avons développée pour réaliser la décomposition bulbe/disque directement à partir des observations unidimensionnelles de Gaia de façon complètement automatique.Finalement nous avons conclu qu’il est possible d’utiliser beaucoup de ces données qui pourraient être ignorées pour faire de la science. Et que le fait de les exploiter permettra aussi bien la détection de millions d’objets qui dépassent la limite de magnitude de Gaia, que de mener des études sur la morphologie de millions de galaxies dont les structures ne peuvent être révélées qu’à partir de l’espace ou au moyen d’optique adaptative, augmentant un peu plus les horizons de cette mission déjà immense. / The main objective of this work is to determine whether it is possible to do science from the observations of extended objects that will be performed by the Gaia space mission. One of the most ambitious projects of modern Astronomy, this mission will observe more than one billion objects through out the sky, thus providing astrometric, photometric and spectroscopic data with unprecedented precision. Naturally, Gaia has been optimized for the study of point-like sources due to its astrometrical priority. Nevertheless, many sources associated with extended emission will be observed. The origins of these extended sources can be either intrinsic, such as galaxies, or extrinsic, such as projections of objects in the same line of sight. In both cases, these sources will have less than optimal astrometric solutions.In order to study those emissions, their two-dimensional images will be analyzed. Nonetheless, since Gaia will not acquire such images, we begin this work by checking whether it will be possible to reconstruct images anywhere in the sky from the satellite’s one-dimensional observations.Consequently, we, on the one hand, estimate the number of cases which will be subjected to the extrinsic extended emissions, present a method which we developed to analyze the reconstructed images by segregating the different sources and show that the adoption of this method will allow extending the catalogue reliably by millions of point sources, many of which are beyond the limiting magnitude of the instrument. On the other hand, regarding intrinsic extended emissions, we first obtain an upper limit estimate for the number of cases which Gaia will be able to observe ; then,we verify that the combination of image reconstructions and the use of the codes introduced here in will allow performing the morphological classification of millions of galaxies in early/late types and elliptical/spiral/irregular classes. Afterward,we present a method which we developed to decompose those galaxies into their bulge/disk components directly from the one-dimensional Gaia data in a completely automatic way. Finally, we conclude that it is possible to harness the data of many of the observations that might other wise be ignored to do science. Saving these data will allow the detection of millions of objects beyond Gaia’s limiting magnitude and the study of the morphology of millions of galaxies whose structures can only be probed from space or through the adoption of adaptive optics, thus somewhat expanding the horizons of this already comprehensive mission.
|
9 |
Imagerie nanométrique ultra-rapide par diffraction cohérente de rayonnement extrême-UV produit par génération d'harmoniques d'ordre élevé.Gauthier, David 07 February 2012 (has links) (PDF)
Ce manuscrit présente des expériences d'imagerie par diffraction réalisées en utilisant une source de rayonnement cohérent basée sur la génération d'harmoniques d'ordre élevé d'un laser Ti:Sa. Elles démontrent que cette source extrême-UV de laboratoire produit un nombre suffisant de photons par impulsion pour enregistrer une figure de diffraction d'objets tests en " simple tirs ". Le signal ainsi enregistré permet l'obtention d'une image de l'objet avec une résolution d'une centaine de nanomètres. Deux schémas sont utilisés pour reconstruire l'objet : le premier utilise un algorithme itératif de reconstruction de la phase perdue pendant la détection de la figure de diffraction ; le second utilise une configuration holographique par transformée de Fourier. Les travaux réalisés comportent deux parties. La première concerne l'optimisation de la source harmonique et inclut une étude expérimentale d'un dispositif de filtrage spatial du faisceau laser de génération par propagation dans une fibre creuse. La seconde partie présente les expériences d'imagerie par diffraction, et notamment une démonstration du schéma holographique HERALDO qui est une extension de l'holographie par transformée de Fourier à des références en forme de polygones. L'utilisation de ces références " étendues " a pour avantage d'optimiser l'enregistrement holographique tout en conservant une reconstruction directe et sans ambigüité de l'objet. Une analyse signal-sur-bruit ainsi qu'une comparaison des reconstructions d'hologramme pour différentes formes de références sont effectuées.
|
10 |
Synthesis and study of magnetic molecular materials based on Co(II) and Cr(II) trinuclear clusters containing M-M bonds / La synthèse et l'étude des matériaux moléculaires magnétiques à base de Co (II) et Cr (II), les clusters trinucléaires contenant des liaisons M-MBulicanu, Vladimir 05 December 2016 (has links)
Dans cette thèse est décrite la synthèse et les propriétés magnétiques des composés de coordination contenant des liaisons Co-Co ou Cr-Cr. Le contexte général sera discuté dans la première partie de ce travail en considérant l'évolution historique de ce type de chimie de coordination. Dans le deuxième chapitre, la possibilité d'intégrer un cluster {Co3} avec des ligands dipyridylamide et liaisons intermétalliques, dans des polymères de coordination unidimensionnels est discutée. Les interactions entre les porteurs de spin et l'effet du ligand pontant sont étudiés. Les changements des propriétés de transition de spin sont contrôlés en comparant par rapport au précurseur. Dans le troisième chapitre, les propriétés de molécule aimant d'un cluster de {Cr3} analogue à celui du {Co3}, sont étudiées. L'influence du ligand axial et la symétrie de la molécule sont également considérés et corrélées avec les propriétés de la molécule. Dans le quatrième chapitre, l'effet de la transition de spin induite par la coordination est étudié sur un exemple de cluster de {Co3} avec des ligands dipyridylformamidinate. La rupture et le rétablissement d'une liaison Co-Co est contrôlée par le biais de la température et de la lumière. L'effet de la rupture de la liaison intermétallique sur les propriétés magnétiques et structurales est aussi étudié. / In this thesis is described the synthesis, structures and magnetic properties of coordination compounds containing Co-Co or Cr-Cr bonds. In the first part of this work a general background is given on the historical evolution of this type of coordination chemistry. In the second chapter the possibility of incorporating a {Co3} cluster with dipyridylamide ligands and intermetallic bonds into one-dimentional coordination polymers is discussed. The interactions between spin centers and the effect of the bridging ligand were studied, and changes in the spin crossover properties were monitored and compared to the precursor. In the third chapter the Single-Molecule Magnet properties of a series of {Cr3} clusters are presented. The influence of the axial ligand and the symmetry of the molecule was considered and correlated to the magnetic properties. In the fourth chapter the phenomenon of coordination induced spin transition in a {Co3} cluster with dipyridylformamidinate ligands is discussed. Changes in magnetism and optical properties as a result of the breaking and restoring of a Co-Co bond were monitored as a function of temperature and light irradiation.
|
Page generated in 0.0454 seconds