• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 145
  • 67
  • 52
  • 17
  • 16
  • 11
  • 9
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 380
  • 37
  • 37
  • 34
  • 30
  • 30
  • 28
  • 24
  • 21
  • 20
  • 19
  • 18
  • 16
  • 16
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Modes de déformation et implications cinématiques des marges hyper-étirées : les exemples du sud de l'Atlantique Nord / Deformation modes and kinematic implications of hyper-extended rifted margins : the examples of the southern North Atlantic

Nirrengarten, Michael 01 December 2016 (has links)
Les modes de déformation des systèmes de rift hyper-étirés pauvres en magma évoluent dans le temps et dans l’espace. Ainsi les structures et architectures observées varient le long d’une section en profondeur ainsi que sur une carte. Cette étude vise à caractériser les modes de déformation des systèmes hyper-étirés et leur propagation en utilisant les exemples du sud de l’Atlantique Nord. L’architecture de la terminaison de la croûte continentale a été comparée à la théorie du prisme critique de Coulomb car sa forme est prismatique, la déformation finale est cassante/frictionnelle et ce prisme glisse sur un décollement basal. Cette théorie met en évidence le comportement distinct des deux marges conjuguées. De plus, elle contraint l’architecture crustale, permet l’intégration des failles contre-régionales et explique la formation des blocs allochtones dans un modèle de failles en séquence. L’intégration des modes de déformation dans un modèle évolutif 3D impose un contexte cinématique fiable, ce qui n’est pas le cas de l’ouverture océanique du sud de l’Atlantique Nord. Ceci est dû à l’interprétation de l’anomalie J comme un isochrone. L’investigation de cette anomalie indique une formation polygénique et polyphasée incohérente avec un isochrone ou une limite de domaine. Ainsi l’anomalie J est inutilisable pour les reconstructions cinématiques. L’évolution de la déformation de rift a été analysée grâce à une nouvelle reconstruction cinématique du sud de l’Atlantique Nord. Il apparait alors que la déformation de la croûte continentale est segmentée alors que la propagation de la croûte océanique forme un V. L’approche développée dans cette thèse pose également de nouvelles questions géodynamiques quant à l’influence de l’héritage et l’effet des points triple. / Deformation modes of magma-poor hyper-extended rift systems evolve through time and space. Hence the observed structures and architectures vary along a depth section as well as on a map. This study aims to characterize the deformation modes of hyper-extended systems and their propagation using the examples of the southern North Atlantic. The architecture of the continental crust termination has been compared to the critical Coulomb wedge theory because it has a wedge shape, the final deformation is brittle/frictional and this wedge is gliding over a basal detachment. This theory highlights the distinct behavior of the two conjugate margins. Moreover it constrains crustal architecture of the continental crust termination, integrates continentward dipping faults and explains the formation of extensional allochthons in a sequential faulting model. The integration of deformation modes in an evolving 3D model necessitates a reliable kinematic context, which is not the case for the opening of the southern North Atlantic Ocean. This is linked to the interpretation of the J-magnetic anomaly as an oceanic isochron. Re-investigations of this anomaly revealed its polygenic and polyphased formation, which is inconsistent for an oceanic isochrons or a domain boundary making it unusable for plate reconstruction. The evolution of rift deformation has been analyzed with a new plate reconstruction of the southern North Atlantic. It appears that the continental crust deformation is segmented whereas oceanic crust propagates in a V-shape. The approach developed in this thesis also asks new geodynamical questions on the influence of inheritance and the effect of triple junction.
172

Caractérisation moléculaire et fonctionnelle de la protéine Srr2 et rôle dans l’hypervirulence du clone ST-17 de Streptococcus agalactiae / Molecular and functional characterization of Srr2, an ST-17 specific surface protein of Streptococcus agalactiae

Six, Anne 25 November 2013 (has links)
Streptococcus agalactiae est la première cause d’infections invasives chez le nouveau né et, malgré la mise en place de stratégies de prévention, cette bactérie reste le principal agent étiologique des infections néonatales. Les souches de séquence type 17, dites hyper-virulentes, sont particulièrement associées avec les méningites, type d’infection ayant des conséquences lourdes en terme de mortalité et morbidité. Ce clone possède des caractéristiques uniques, telle que la fixation au fibrinogène, ainsi qu’un répertoire de protéines de surface qui lui sont spécifiques. Parmi ces protéines, Srr2 appartient à une famille de larges glycoprotéines streptococcales et staphylococcales impliquées dans la pathogénicité. Un domaine central de Srr2, le domaine BR, est responsable de la fixation spécifique du fibrinogène par le clone ST-17, ainsi qu’au plasminogène et à divers composants de la matrice extracellulaire. Cette protéine promeut ainsi l’adhésion et le franchissement des barrières cellulaires. L’interaction de Srr2 avec les systèmes fibrinolytique et de coagulation de l’hôte favorise la dissémination bactérienne par l’activation de la fibrinolyse, et la persistance de la bactérie dans l’organisme par la formation d’agrégats bactériens. La liaison de Srr2 avec le fibrinogène semble également promouvoir la persistance bactérienne en favorisant l’internalisation et la survie dans les macrophages. Ainsi, la protéine Srr2 confère un avantage pour le processus infectieux du clone ST-17 dans l’hôte, et constitue une cible vaccinale intéressante pour la prévention des infections à S. agalactiae. / Streptococcus agalactiae is the leading cause of invasive infections in neonates. Despite the implementation of prevention strategies, this bacterium remains the main etiological agent of neonatal infections. Hyper-virulent sequence-type 17 strains are particularly associated with meningitis, a type of infection with serious consequences in terms of mortality and morbidity. This clone has unique characteristics, such as fibrinogen binding, and a panel of specific surface proteins. Among these proteins, Srr2 belongs to a family of large streptococcal and staphylococcal glycoproteins involved in pathogenicity. A central domain of Srr2, BR domain, is responsible for the specific binding of fibrinogen by the ST -17 clone and also binds plasminogen and various components of the extracellular matrix. Thereby, it promotes adhesion and crossing of cellular barriers. The interaction of Srr2 with fibrinolytic and coagulation systems of the host could promote bacterial spread through the activation of fibrinolysis and the persistence of the bacteria in the host by the formation of bacterial aggregates. The interaction of Srr2 with fibrinogen also seems to promote bacterial persistence in promoting the internalization and survival of the bacteria in macrophages. Thus, Srr2 confers an advantage to the infectious process of the ST- 17 clone in the host and is an attractive vaccine candidate for the prevention of S. agalactiae infections.
173

Modèle d’ordre réduit en mécanique du contact. Application à la simulation du comportement des combustibles nucléaires / Model order reduction in contact mechanics. Application to nuclear fuels behavior simulation

Fauque de Maistre, Jules 07 November 2018 (has links)
La réduction d'ordre de modèles d'un problème de contact demeure un sujet de recherche important en mécanique numérique des solides.Nous proposons une extension de l'hyper-réduction avec domaine d'intégration réduit à la mécanique du contact sans frottement s'écrivant à l'aide d'une formulation mixte.Comme la zone de contact potentiel se limite au domaine réduit, nous faisons le choix de prendre comme base réduite pour la variable duale (représentative des forces de contact) la base du modèle d'ordre plein restreinte.Nous obtenons ainsi un modèle hyper-réduit hybride avec une approximation de la variable primale par des modes empiriques et de la variable duale par les fonctions de base des éléments finis. Si nécessaire, la condition inf-sup de ce modèle peut être forcée par une approximation hybride la variable primale. Cela mène à une stratégie hybride combinant un modèle d'ordre hyper-réduit et un modèle d'ordre plein permettant l'obtention d'une meilleure approximation de la solution sur la zone de contact.Un post-traitement permettant la reconstruction des multiplicateurs de Lagrange sur l'ensemble de la zone de contact est également introduit.De manière à optimiser la sélection des snapshots, un indicateur d'erreur simple et efficace est avancé pour être couplé à un algorithme glouton. / The model order reduction of mechanical problems involving contact remains an important issue in computational solid mechanics.An extension of the hyper-reduction method based on a reduced integration domain to frictionless contact problems written by a mixed formulation is proposed.As the potential contact zone is naturally reduced through the reduced domain, the dual reduced basis is chosen as the restriction of the dual full-order model basis.A hybrid hyper-reduced model combining empirical modes for primal variables with finite element approximation for dual variables is then obtained.If necessary, the inf-sup condition of this hybrid saddle point problem can be enforced by extending the hybrid approximation to the primal variables. This leads to a hybrid hyper-reduced/full-order model strategy. By this way, a better approximation on the potential contact zone is furthermore obtained.A post-treatment dedicated to the reconstruction of the contact forces on the whole domain is introduced.In order to optimize the snapshots selection, an efficient error indicator is coupled to a greedy sampling algorithm leading to a robust reduced-order model.
174

Sous-variétés spéciales des espaces homogènes / Special subvarieties of homogeneous spaces

Benedetti, Vladimiro 20 June 2018 (has links)
Le but de cette thèse est de construire de nouvelles variétés algébriques complexes de Fano et à canonique triviale dans les espaces homogènes et d'analyser leur géométrie. On commence en construisant les variétés spéciales comme lieux de zéros de fibrés homogènes dans les grassmanniennes généralisées. On donne une complète classification en dimension 4. On prouve que les uniques variétés de dimension 4 hyper-Kahleriennes ainsi construites sont les exemples de Beauville-Donagi et Debarre-Voisin. Le même résultat vaut dans les grassmanniennes ordinaires en toute dimension quand le fibré est irréductible. Ensuite on utilise les lieux de dégénérescence orbitaux (ODL), qui généralisent les lieux de dégénérescence classiques, pour construire d'autres variétés. On rappelle les propriétés basiques des ODL, qu'on définit à partir d'une adhérence d'orbite. On construit trois schémas de Hilbert de deux points sur une K3 comme ODL, et beaucoup d'autres exemples de variétés de Calabi-Yau et de Fano. Puis on étudie les adhérences d'orbites dans les représentations de carquois, et on décrit des effondrements de Kempf pour celles de type A_n et D_4; ceci nous permet de construire davantage de variétés spéciales comme ODL. Pour finir, on analyse les grassmanniennes bisymplectiques, qui sont des Fano particulières. Elles admettent l'action d'un tore avec un nombre fini de points fixes. On étudie leurs petites déformations. Ensuite, on étudie la cohomologie (équivariante) des grassmanniennes symplectiques, qui est utile pour mieux comprendre la cohomologie des grassmanniennes bisymplectiques. On analyse en détail un cas explicite en dimension 6. / The aim of this thesis is to construct new interesting complex algebraic Fano varieties and varieties with trivial canonical bundle and to analyze their geometry. In the first part we construct special varieties as zero loci of homogeneous bundles inside generalized Grassmannians. We give a complete classification for varieties of small dimension when the bundle is completely reducible. Thus, we prove that the only fourfolds with trivial canonical bundle so constructed which are hyper-Kahler are the examples of Beauville-Donagi and Debarre-Voisin. The same holds in ordinary Grassmannians when the bundle is irreducible in any dimension. In the second part we use orbital degeneracy loci (ODL), which are a generalization of classical degeneracy loci, to construct new varieties. ODL are constructed from a model, which is usually an orbit closure inside a representation. We recall the fundamental properties of ODL. As an illustration of the construction, we construct three Hilbert schemes of two points on a K3 surface as ODL, and many examples of Calabi-Yau and Fano threefolds and fourfolds. Then we study orbit closures inside quiver representations, and we provide crepant Kempf collapsings for those of type A_n, D_4; this allows us to construct some special varieties as ODL.Finally we focus on a particular class of Fano varieties, namely bisymplectic Grassmannians. These varieties admit the action of a torus with a finite number of fixed points. We find the dimension of their moduli space. We then study the equivariant cohomology of symplectic Grassmannians, which turns out to help understanding better that of bisymplectic ones. We analyze in detail the case of dimension 6.
175

A new approximation framework for PGD-based nonlinear solvers / Un nouveau cadre d'approximation dédié à la strategie de calcul PGD pour problèmes non-lineaires

Capaldo, Matteo 23 November 2015 (has links)
Le but de ce travail est d'introduire un cadre d'approximation, la Reference Points Method, afin de réduire la complexité de calcul des opérations algébriques lorsqu'elles concernent des approximations à variables séparées dans le cadre de la Proper Generalized Decomposition.La PGD a été introduite dans [1] dans le cadre de la méthode LaTIn pour résoudre efficacement des équations différentielles non linéaires et dépendants du temps en mécanique des structures. La technique consiste à chercher la solution d'un problème dans une base d'ordre réduit (ROB) qui est automatiquement et à la volée générée par la méthode LaTIn. La méthode LaTIn est une stratégie itérative qui génère les approximations de la solution sur l'ensemble du domaine espace-temps-paramètres par enrichissements successifs. Lors d'une itération particulière, la ROB, qui a déjà été formée, est d'abord utilisée pour calculer un nouveau modèle réduit (ROM) et, donc, pour trouver une nouvelle approximation de la solution. Si la qualité de cette approximation ne suffit pas, la ROB est enrichie avec la génération d'un nouveau produit de fonctions PGD en utilisant un algorithme de type 'greedy'.Les techniques de réduction de modèle sont particulièrement efficaces lorsque le ROM a besoin d'être construit qu'une seule fois. Ce n'est pas le cas pour les techniques de réduction de modèle quand elles concernent des problèmes non linéaires. En effet, dans un tel cas, les opérateurs qui sont impliqués dans la construction du ROM varient au cours du processus itératif et des calculs préliminaires ne peuvent pas être effectués à l'avance pour accélérer le processus 'online'.Par conséquent, la construction du ROM est un élément coûteux de la stratégie de calcul en terme de temps de calcul. Il en découle la nécessité d'évaluer, à chaque itération, la fonction non linéaire de grande dimension (et éventuellement sa jacobienne) et ensuite sa projection pour obtenir les opérateurs réduits. Cela représente un point de blocage des stratégies de réduction de modèle dans le cadre non linéaire. Le présent travail a comme but une réduction ultérieure du coût de calcul, grâce à l'introduction d'un nouveau cadre de rapprochement dédiée à la stratégie de calcul LaTIn-PGD. Il est basé sur la notion de temps, de points et de paramètres de référence et permet de définir une version compressée des données. Comparé à d'autres techniques similaires [3,4] cela ne se veut pas une technique d'interpolation, mais un cadre algébrique qui permet de donner une première approximation, peu coûteuse, de toutes les quantités sous une forme à variable séparés par des formules explicites. L'espace de données compressées présente des propriétés intéressantes qui traitent les opérations algébriques élémentaires. Le RPM est introduit dans le solveur LaTIn-PGD non linéaire pour calculer certaines opérations répétitives. Ces opérations sont liées à la résolution du problème du temps / paramètre qui implique la mise à jour de l'opérateur tangent et la projection de ce dernier sur la base réduite. La RPM permet de simplifier et de réduire le nombre d'opérations nécessaires.[1] Ladevèze P., Sur une famille d’algorithmes en mécanique des structures, Comptes Rendus Académie des Sciences. Paris. Ser. II 300, pp.41-44, 1985.[2] Chinesta, F., Ladevèze, P., and Cueto, E. A short review on model order reduction based on proper generalized decomposition. Archives of Computational Methods in Engineering, 18, pp.395-404, 2011.[3] Barrault M., Maday Y., Nguyen N., Patera A., An ’empirical interpolation’ method: application to efficient reduced-basis discretization of partial differential equations, Comptes Rendus Académie des Sciences. Paris. Ser. I, 339, pp. 667-672, 2004.[4] Chaturentabut S., Sorensen D., Nonlinear model reduction via discrete empirical interpolation, Society for Industrial and Applied Mathematics 32(5), pp.2737-2764, 2010. / The aim of this work is to introduce an approximation framework, called Reference Points Method (RPM), in order to decrease the computational complexity of algebraic operations when dealing with separated variable approximations in the Proper Generalized Decomposition (PGD) framework.The PGD has been introduced in [1] in the context of the LATIN method to solve efficiently time dependent and/or parametrized nonlinear partial differential equations in structural mechanics (see, e.g., the review [2] for recent applications). Roughly, the PGD technique consists in seeking the solution of a problem in a relevant Reduced-Order Basis (ROB) which is generated automatically and on-the-fly by the LATIN method. This latter is an iterative strategy which generates the approximations of the solution over the entire time- space-parameter domain by successive enrichments. At a particular iteration, the ROB, which has been already formed, is at first used to compute a projected Reduced-Order Model (ROM) and find a new approximation of the solution. If the quality of this approximation is not sufficient, the ROB is enriched by determining a new functional product using a greedy algorithm.However, model reduction techniques are particularly efficient when the ROM needs one construction only. This is not the case for the model reduction techniques when they are addressed to nonlinear problems. Indeed, in such a case, the operators which are involved in the construction of the ROM change all along the iterative process and no preliminary computations can be performed in advance to speed up the online process. Hence, the construction of the ROM is an expensive part of the calculation strategy in terms of CPU. It ensues from the need to evaluate the high-dimensional nonlinear function (and eventually its Jacobian) and then to project it to get the low-dimensional operators at each computational step of a solution algorithm. This amounts to being the bottleneck of nonlinear model reduction strategies.The present work is then focused on a further reduction of the computational cost, thanks to the introduction of a new approximation framework dedicated to PGD-based nonlinear solver. It is based on the concept of reference times, points and parameters and allows to define a compressed version of the data. Compared to other similar techniques [3,4] this is not an interpolation technique but an algebraic framework allowing to give an inexpensive first approximation of all quantities in a separated variable form by explicit formulas. The space of compressed data shows interesting properties dealing the elementary algebraic operations. The RPM is introduced in the PGD-based nonlinear solver to compute some repetitive operations. These operations are related to the resolution of the time/parameter problem that involves the update of the tangent operator (for nonlinear problems) and the projection of this latter on the Reduced Order Basis. For that the RPM allows to simplify and reduce the number of operations needed.[1] Ladevèze P., Sur une famille d’algorithmes en mécanique des structures, Comptes Rendus Académie des Sciences. Paris. Ser. II 300, pp.41-44, 1985.[2] Chinesta, F., Ladevèze, P., and Cueto, E. A short review on model order reduction based on proper generalized decomposition. Archives of Computational Methods in Engineering, 18, pp.395-404, 2011.[3] Barrault M., Maday Y., Nguyen N., Patera A., An ’empirical interpolation’ method: application to efficient reduced-basis discretization of partial differential equations, Comptes Rendus Académie des Sciences. Paris. Ser. I, 339, pp. 667-672, 2004.[4] Chaturentabut S., Sorensen D., Nonlinear model reduction via discrete empirical interpolation, Society for Industrial and Applied Mathematics 32(5), pp.2737-2764, 2010.
176

Towards gradient faithfulness and beyond

Buono, Vincenzo, Åkesson, Isak January 2023 (has links)
The riveting interplay of industrialization, informalization, and exponential technological growth of recent years has shifted the attention from classical machine learning techniques to more sophisticated deep learning approaches; yet its intrinsic black-box nature has been impeding its widespread adoption in transparency-critical operations. In this rapidly evolving landscape, where the symbiotic relationship between research and practical applications has never been more interwoven, the contribution of this paper is twofold: advancing gradient faithfulness of CAM methods and exploring new frontiers beyond it. In the first part, we theorize three novel gradient-based CAM formulations, aimed at replacing and superseding traditional Grad-CAM-based methods by tackling and addressing the intricately and persistent vanishing and saturating gradient problems. As a consequence, our work introduces novel enhancements to Grad-CAM that reshape the conventional gradient computation by incorporating a customized and adapted technique inspired by the well-established and provably Expected Gradients’ difference-from-reference approach. Our proposed techniques– Expected Grad-CAM, Expected Grad-CAM++and Guided Expected Grad-CAM– as they operate directly on the gradient computation, rather than the recombination of the weighing factors, are designed as a direct and seamless replacement for Grad-CAM and any posterior work built upon it. In the second part, we build on our prior proposition and devise a novel CAM method that produces both high-resolution and class-discriminative explanation without fusing other methods, while addressing the issues of both gradient and CAM methods altogether. Our last and most advanced proposition, Hyper Expected Grad-CAM, challenges the current state and formulation of visual explanation and faithfulness and produces a new type of hybrid saliencies that satisfy the notion of natural encoding and perceived resolution. By rethinking faithfulness and resolution is possible to generate saliencies which are more detailed, localized, and less noisy, but most importantly that are composed of only concepts that are encoded by the layerwise models’ understanding. Both contributions have been quantitatively and qualitatively compared and assessed in a 5 to 10 times larger evaluation study on the ILSVRC2012 dataset against nine of the most recent and performing CAM techniques across six metrics. Expected Grad-CAM outperformed not only the original formulation but also more advanced methods, resulting in the second-best explainer with an Ins-Del score of 0.56. Hyper Expected Grad-CAM provided remarkable results across each quantitative metric, yielding a 0.15 increase in insertion when compared to the highest-scoring explainer PolyCAM, totaling to an Ins-Del score of 0.72.
177

Lifestyle influences on airway health in children and young adults

Rosenkranz, Sara K. January 1900 (has links)
Doctor of Philosophy / Department of Human Nutrition / Craig A. Harms / The overall aim of this dissertation was to ascertain the influences of lifestyle factors on airway health in children and young adults. In Study 1 (Chapter 2) the effect of a high-fat meal on airway inflammation and hyper-responsiveness was examined. Results revealed a post-prandial increase (p<0.05) in total cholesterol (~4%), triglycerides (~93%), and exhaled nitric oxide (a marker of airway inflammation, ~19%) two-hours following a high-fat meal (74.2±4.1g fat). These novel findings suggest that a high-fat meal may contribute to impaired airway function. In study 2 (Chapter 3) we assessed the role of body fat and physical activity (PA) on airway health in prepubescent children. This study revealed that children with higher-body-fat levels (>21%), who were not meeting current PA recommendations, experienced greater (p<0.05) amounts of post-exercise airway narrowing (FEV1, forced expiratory volume in 1-second, ~11%), as compared to children with lower-body-fat (<21%), who were meeting PA guidelines. These findings suggest that elevated adiposity and low PA levels may place children at risk for development of asthma and asthma-like symptoms. In study 3 (Chapter 4), based on study 2 results, we assessed the impact of 8 weeks of high-intensity interval training on airway health in children who were not meeting PA guidelines. We determined that high-intensity training significantly increased V02max (~24%), and decreased total cholesterol (~11%) and LDL cholesterol (~35%). Additionally, we found improvements (p<0.05) in ∆FEV1 both post-exercise (pre: -7.6±2.2%, post: -1.3±1.8%) and post-eucapnic voluntary hyperventilation (pre: -6.7±2.2%, post: -1.4±1.5%) with training. Further, Lower-body-fat and higher V02max subjects experienced significantly greater improvement in ∆FEV1 following training than higher-body-fat and lower V02max subjects (r=-0.80, r=0.73, respectively). These results suggest that in children, high-intensity training can ameliorate the negative health consequences of inactivity. However, increased body fat, and low V02max levels may constrain these improvements. This series of studies underscores the importance of dietary habits, body composition, and PA for airway health in children and young adults. These findings may be useful in determining policies and practices impacting children’s health, and could facilitate protocol development for prevention of asthma-like symptoms.
178

Etude de phénomènes non linéaires du second ordre dans les milieux diffusants en phase liquide. Définition et étude d'une configuration adaptée.

Lemaillet, Paul 11 January 2008 (has links) (PDF)
La détermination expérimentale des composantes du tenseur d'hyper-polarisabilité est essentielle au développement de nouvelles molécules possédant des propriétés d'optique non-linéaire. La diffusion harmonique de la lumière (DHL) correspond à un phénomène de diffusion non linéaire de la lumière pour laquelle les molécules considérées sont dans une solution isotrope. Du fait des fluctuations d'orientations et de positions des molécules, seules six observables, où invariants orientationnels, sont mesurables par DHL. Afin de déterminer expérimentalement ces six observables, nous avons mis au point un polarimètre à lame de phase tournantes fonctionnant avec une source laser impulsionnelle accordable en longueur d'onde et dédié au mesures de diffusion harmonique de la lumière. Nous avons dans un premier temps optimisé l'architecture du montage polarimétrique en nous appuyant sur la réduction du nombre de conditionnement de la matrice d'appareil, réduisant par la même les erreurs statistiques. Puis nous avons étalonné le montage au moyen d'un échantillon référence dédié à la conversion de longueur d'onde, afin de réduire les erreurs systématiques. Enfin, nous avons réalisé des mesures de diffusion harmonique de la lumière sur deux molécules connues, le DR1 et le Cristal Violet.
179

Optique linéaire et non linéaire de films de nano particules métalliques

El Harfouch, Yara 19 October 2009 (has links) (PDF)
La technique de la génération de second harmonique (SHG) a été employée pour étudier la réponse non linéaire des assemblées de nano particules métalliques aux interfaces liquides. Les nanoparticules ont d'abord été caractérisées en utilisant la génération de second harmonique incohérente, également nommée diffusion hyper Rayleigh. L'étude de particules d'or et d'argent, nanosphères et des nanobâtonnets, ont permis de mettre en évidence l'influence de la couche protectrice de surfactants sur l'hyperpolarisabilité quadratique de ces particules. Ces particules ont ensuite été placées à l'interface air/eau dans une cuve de Langmuir afin d'étudier le rôle des interactions entre les particules sur la réponse optique linéaire et non linéaire. Celle-ci a révélé dans ces films formés à l'interface la présence de couplages forts entre les particules lors de la compression de la surface. Cela conduit à une transition dans le film une fois que la distance entre les particules passe en dessous d'une distance critique. Ces études ont été complétées par des expériences réalisées à l'interface liquide/liquide et sur une électrode de carbone vitreux pour examiner plus en détail le rôle de la rugosité à l'échelle nanométrique dans l'exaltation de la réponse non linéaire SHG
180

Vers une meilleure utilisation des observations du sondeur IASI pour la restitution des profils atmosphériques en conditions nuageuses / Towards a better use of the IASI sounder observations to retrieve the atmospheric profiles in cloudy conditions

Faijan, François 21 November 2012 (has links)
Le sondeur hyperspectral infrarouge IASI, dont le premier modèle vole depuis 2006 sur le satellite défilant météorologique Metop-A, a déjà conduit a des retombées scientifiques très spectaculaires, en prévision météorologie et pour l’étude de la composition atmosphérique et du climat. Les mesures du sondeurs sont toutefois largement sous exploitées en grande partie du a la présence des nuages dans l’atmosphère. Ces derniers interagissent avec le rayonnement incident de façon hautement non-linéaire rendant le traitement de la mesure du sondeur bien plus complexe, voire parfois rédhibitoire pour accéder depuis l’espace aux propriétés des couches atmosphériques situées au-dessus du nuage, mais également en dessous dans le cas de semi-transparence. Cependant, au vue de la quantité d’informations potentielles qu’offre les sondeurs, la communauté scientifique s’intéresse de près a l’exploitation des radiances nuageuse, c’est dans ce cadre que s’inscrivent les travaux de recherche de cette thèse. Nous proposons d’étudier deux schémas nuageux radicalement différents : la clarification nuageuse et un schéma permettant de simuler la radiance nuageuse en utilisant les propriétés optique et microphysique des nuages. La première de ces méthodes, initiée par Smith et al. (1968), permet sous certaines conditions, de faire abstraction du nuage dans le pixel IASI. La méthode est basée sur l’algorithme du logiciel Scenes Heterogenes du CNES. Apres une première étape de validation, les performances de la méthode sont évaluées a travers la quantité d’information indépendante qu’offre la clarification par rapport a une chaine de traitement des radiances nuageuses mise en place au CMS. Les résultats sont favorables à la méthode testée permettant de traiter les couches atmosphériques situées sous le nuage, possédant donc une quantité plus importante. Cependant la clarification repose a la fois sur une hypothèse forte d’homogénéité atmosphérique et ne s’applique qu’à 15% des situations nuageuses. La seconde méthode est une simulation de la radiance nuageuse par des modèles de transfert radiatif rapides utilisant les propriétés optique et microphysique du nuage. Cette méthode présente l’avantage majeur d’utiliser les mêmes profils nuageux que ceux produits par les modèles de prévision numérique, laissant entrevoir l’assimilation de ces profils à partir de la mesure IASI. Cependant, l’utilisation de ces modèles de transfert radiatif rapide dans le cadre d’une assimilation de données n’en est encore qu’à ces prémices, très peu d’études ont été menées sur ce sujet. Nous proposons une étude en trois étapes permettant une utilisation en opérationnel de ces modèles de transfert radiatif. La première étape est une compréhension des modèles et de leur validité en réalisant quelques études de cas s’appuyant sur la campagne de mesures de Lindenberg. Ensuite, dans le cadre de la campagne ConcordIasi, une statistique est réalisée mettant en place des filtrage pour sélectionner uniquement les profils nuageux cohérent avec l’observation IASI. La dernière étape est une application en global, les statistiques révèlent une nette amélioration des écarts a l’ébauche grâce aux filtres, passant de 8K a 2K. Nous proposons tout au long de l’étude une discussion sur les modèles utilises (RTTOV et HISCRTM), leurs points forts et leurs défaillances. Enfin l’ultime étape, permet d’évaluer les performances des profils nuageux issus des modèles de prévision numérique. / The IASI hyperspectral infrared sounding interferometer, the first model of which has been flown on board the meteorological polar orbiting satellite MetOp-A since 2006, has already led to spectacular scientific breakthroughs in both weather forecasting and research into atmospheric composition and the climate. Measurements from the sounders are however largely underutilised, mainly because of the presence of clouds in the atmosphere. The highly non-linear way in which the clouds interact with incident radiation makes analysis of the readings much more complex, and can sometimes even prohibit access from space to the properties of not only the atmospheric layers located above the cloud, but also below them in the case of semi-transparency. However, in view of the potential amount of information offered by the sounders, the scientific community is very interested in exploiting cloud radiance. The research for this thesis stems from this interest. We plan to study two radically different cloud schemes: cloud clarification and a scheme which allows for simulation of cloud radiance by using the optical and microphysical properties of clouds. The first of these methods, initiated by Smith et al. (1968), allows us under certain conditions to disregard the cloud in the IASI pixel. This method is based on the CNES Heterogeneous Scenes software algorithm. After a first validation step, method performance is evaluated by the amount of independent information offered by the clarification, compared to a cloud radiance process chain established at CMS. The results are favorable to the tested method allowing us to deal with atmospheric layers under the cloud, which have therefore larger quantities. However clarification is based on a strong assumption of atmospheric homogeneity and only applies to 15% of cloud situations. The second method is a simulation of cloud radiance by fast radiative transfer models using the optical and microphysical properties of the cloud. The major advantage of this method is that it uses the same cloud profiles as those produced by numerical weather prediction models, allowing assimilation of these profiles from the IASI measurement. However, the use of these fast radiative transfer models in the context of data assimilation is still in the early stages, very few studies have been conducted on this topic. We are proposing a three-phase study which will allow for an operational use of these radiative transfer models. The first step is validation. This is done by conducting several case studies based on Lindenberg’s measurement campaign. Then, within the framework of the ConcordIasi campaign, a statistical analysis will be carried out by introducing filtering, to select cloud profiles which are consistent with the IASI observations. The last step is an overall application, the statistics showing a clear improvement in deviation from the draft thanks to the filters, going from 8K to 2K. Throughout the study we will discuss the models used (RTTOV and HISCRTM), their strengths and weaknesses. Finally the last step allows us to evaluate the performance of the cloud profiles obtained by the digital forecasting models

Page generated in 0.5105 seconds