• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 112
  • 32
  • 6
  • 1
  • Tagged with
  • 149
  • 89
  • 57
  • 56
  • 44
  • 39
  • 32
  • 29
  • 19
  • 17
  • 16
  • 15
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Etude du comportement dynamique de matériaux sous choc laser subpicoseconde

Cuq-Lelandais, Jean-Paul 10 December 2010 (has links) (PDF)
Les chocs induits par laser de puissance permettent d'investir le comportement hautement dynamique des matériaux, d'un grand intérêt tant pour la recherche fondamentale que pour l'industrie. L'évolution des technologies laser ces dernières années a permis d'accéder à des régimes plus courts, en dessous de la picoseconde. L'objectif de ce travail, résultat d'une collaboration entre l'institut P', le PIMM et le CEA‐DAM est de caractériser le comportement sous choc de matériaux métalliques (Aluminium, Tantale,...) dans ce régime ultra‐bref, conduisant à des sollicitations dynamiques extrêmes (>107s‐1). L'étude repose sur la comparaison et la validation de modèles numériques à des résultats expérimentaux obtenus sur la chaîne 100TW du LULI. Cette caractérisation passe dans un premier temps par l'étude de l'interaction laser‐matière afin caractériser le chargement équivalent en pression sur la cible. Les processus en régime ultra‐bref sont différents de ce qui est connu en régime nanoseconde : en effet, l'échelle de temps, quelques picosecondes, est du même ordre que bon nombres de phénomènes moléculaires tel que le déséquilibre électrons‐ions. Ensuite, nous avons étudié l'évolution de l'onde de choc et son amortissement, très prononcé dans ce régime. L'écaillage dans une telle configuration se produit par couches très minces (quelques μm) et régulières dans ce régime. L'endommagement obtenu est caractérisé par la mesure VISAR. Les résultats obtenus par observations post‐mortem jusqu'à présent montrent que plus l'épaisseur de cible est faible, plus l'épaisseur d'écaille diminue, pouvant atteindre l'échelle du micron. Dans le cadre de la modélisation de l'endommagement et le dimensionnement des critères d'endommagement utilisés et éprouvés en régime nanoseconde (Kanel), des essais à différentes épaisseurs de cible ont été réalisés afin d'observer les conséquences d'une variation de vitesse de déformation sur l'endommagement, et généraliser le modèle de Kanel au régime ultra‐bref, et plus généralement en fonction de la vitesse de déformation. L'ensemble des résultats relatifs à l'endommagement est généralisé à des configurations 2D, permettant notamment de caractériser l'évolution du diamètre d'écaille. En parallèle, des simulations microscopiques par dynamique moléculaire de choc laser ultra‐bref sur des cibles monocristallines de Tantale à l'échelle du micron ont été menées au CEA‐DAM donnent un point de vue complémentaire des processus microscopiques liés à l'endommagement à des vitesses de déformation aux abords de la limite de cohésion théorique. Les résultats obtenus sur les chocs ultra‐brefs et 2D présentent un grand intérêt pour le développement du test d'adhérence de revêtements par choc laser (LASAT), offrant la possibilité de nouvelles extensions pour le procédé LASAT. Par exemple, de nombreux domaines industriels utilisent des revêtements micrométriques (optique, électronique, ...) mais il existe peu de méthodes pour caractériser leurs propriétés avec fiabilité. Des essais de transposition de LASAT en régime femtoseconde sur des cellules photovoltaïques ont démontré la possibilité d'éjecter des revêtements submicrométriques et caractériser leur seuil d'adhérence.
32

Fatigue thermomécanique de multicouches polymères/composites

Bertin, Maxime 10 January 2011 (has links) (PDF)
Cette thèse porte sur l'étude du remplissage rapide de réservoirs d'hydrogène sous haute pression (700 bars). Durant cette phase, se produisent simultanément une augmentation de la température du gaz et des contraintes internes dues à la pression. Un banc de fatigue thermomécanique instrumenté a été développé afin de simuler ce remplissage rapide sur des éprouvettes simples composées d'un liner en polyuréthane et d'une coque composite carbone/époxy, matériaux constitutifs des réservoirs étudiés. La validation thermique de ce banc a permis de montrer que le polyuréthane est une bonne barrière thermique. Une première étude sur un drapage composite non optimisé a permis de montrer l'influence néfaste de la température et d'un palier de maintien à la charge maximale sur le comportement du multicouche polymère/composite ainsi que l'effet bénéfique de l'alternance des plis du stratifié composite ; des couches épaisses conduisent à une apparition plus précoce de l'endommagement et à des durées de vie plus faibles. Un drapage ‘‘représentatif'' des conditions de service du réservoir a été optimisé par calcul analytique et par éléments finis afin d'atteindre les mêmes niveaux de contraintes maximales dans l'éprouvette sollicitée sur le banc de fatigue thermomécanique que ceux atteint dans le réservoir sous pression. Ces éprouvettes ‘‘représentatives'' conduisent néanmoins à des contraintes de cisaillement plus élevées que dans le réservoir et présentent des effets de bord qui n'existent pas dans le réservoir bobiné. Comme pour les drapages non optimisés, la fatigue thermomécanique conduit à des durées de vie plus faibles qu'en fatigue purement mécanique à 1Hz. L'observation par microscopie optique et par radiographie X des échantillons sollicités montre, en fatigue thermomécanique, une localisation des endommagements dans la partie la plus chauffée du composite alors qu'en fatigue mécanique à 1Hz, les endommagements sont répartis sur toute la longueur des éprouvettes. De plus, la fatigue thermomécanique conduit préférentiellement à des délaminages par rapport aux résultats obtenus en fatigue mécanique à 1Hz. Des mesures de champs de déplacement par corrélation d'images ont permis de mettre en évidence des concentrations de cisaillement sur le drapage ‘‘représentatif'' ainsi qu'un comportement viscoélastique, accentué en présence de cyclage thermique, qui seraient à l'origine des endommagements constatés.
33

Modèle de second gradient adapté aux milieux faiblement continus et mécanique d'Eshelby appliquée à l'indentation du verre

Antonio Tamarasselvame, Nirmal 23 November 2010 (has links) (PDF)
Dans une première partie, notre étude porte sur les milieux faiblement continus avec une approche basée sur la géométrie non riemannienne. Nous considérons un corps solide déformable modélisé par une variété riemannienne munie d'une connexion affine. Un tel modèle est une extension d'un autre qui considère une connexion euclidienne, laquelle dérive du tenseur métrique imposé par l'espace ambiant. La masse par unité de volume peut être supposée non constante et le corps peut contenir des défauts décrits par des champs de discontinuité de champs scalaires ou de champs vectoriels définis sur la variété. Dans ce cas, en plus du tenseur métrique, nous utilisons nécessairement la torsion introduite par Cartan ou la courbure, deux tenseurs associés à la connexion affine. Nous disposons ainsi d'un modèle de milieu continu du second gradient. Les investigations prennent en compte les effets de ces champs tensoriels dans l'analyse de la déformation du corps. Comme application, nous décrivons l'atténuation spatiale d'une onde propagée dans un milieu non homogène. Dans une seconde partie, notre étude porte sur une modélisation de l'indentation Vickers du verre. Nous considérons un modèle qui utilise le schéma d'inclusion d'Eshelby dans une matrice semi-infinie, pour analyser les champs de contrainte et de déplacement durant le processus de charge. L'objectif est de déterminer la densification du verre sous l'indenteur. Les résultats semi-analytiques obtenus sont confrontés de manière positive avec des données expérimentales fournies par le LARMAUR.
34

Méthodes de contrôle de la qualité de solutions éléments finis (application à l'acoustique)

Bouillard, Philippe 05 December 1997 (has links)
This work is dedicated to the control of the accuracy of computational simulations of sound propagation and scattering. Assuming time-harmonic behaviour, the mathematical models are given as boundary value problems for the Helmholtz equation <i>Delta u+k2u=0 </i> in <i>Oméga</i>. A distinction is made between interior, exterior and coupled problems and this work focuses mainly on interior uncoupled problems for which the Helmholtz equation becomes singular at eigenfrequencies. As in other application fields, error control is an important issue in acoustic computations. It is clear that the numerical parameters (mesh size h and degree of approximation p) must be adapted to the physical parameter k. The well known ‘rule of the thumb’ for the h version with linear elements is to resolve the wavelength <i>lambda=2 pi k-1</i> by six elements characterising the approximability of the finite element mesh. If the numerical model is stable, the quality of the numerical solution is entirely controlled by the approximability of the finite element mesh. The situation is quite different in the presence of singularities. In that case, <i>stability</i> (or the lack thereof) is equally (sometimes more) important. In our application, the solutions are ‘rough’, i.e., highly oscillatory if the wavenumber is large. This is a singularity inherent to the differential operator rather than to the domain or the boundary conditions. This effect is called the <i>k-singularity</i>. Similarly, the discrete operator (“stiffness” matrix) becomes singular at eigenvalues of the discretised interior problem (or nearly singular at damped eigenvalues in solid-fluid interaction). This type of singularities is called the <i>lambda-singularities</i>. Both singularities are of global character. Without adaptive correction, their destabilizing effect generally leads to large error of the finite element results, even if the finite element mesh satisfies the ‘rule of the thumb’. The k- and lambda-singularities are first extensively demonstrated by numerical examples. Then, two <i>a posteriori</i> error estimators are developed and the numerical tests show that, due to these specific phenomena of dynamo-acoustic computations, <i>error control cannot, in general, be accomplished by just ‘transplanting’ methods that worked well in static computations</i>. However, for low wavenumbers, it is necessary to also control the influence of the geometric (reentrants corners) or physical (discontinuities of the boundary conditions) singularities. An <i>h</i>-adaptive version with refinements has been implemented. These tools have been applied to two industrial examples : the GLT, a bi-mode bus from Bombardier Eurorail, and the Vertigo, a sport car from Gillet Automobiles. As a conclusion, it is recommanded to replace the rule of the thumb by a criterion based on the control of the influence of the specific singularities of the Helmholtz operator. As this aim cannot be achieved by the <i>a posteriori</i> error estimators, it is suggested to minimize the influence of the singularities by modifying the formulation of the finite element method or by formulating a “meshless” method.
35

Integrated management of energy and production : scheduling of batch process and Combined Heat & Power (CHP) plant / Gestion intégrée de l'énergie et de la production : ordonnancement des Procédés Batch et des centrales de cogénération

Agha, Mujtaba Hassan 30 October 2009 (has links)
Dans un contexte de développement durable, la question énergétique constitue un des problèmes majeurs des décennies à venir. Bien que la solution pour faire face à la raréfaction de certaines ressources, l'augmentation globale de la demande l'augmentation des émissions de CO2, réside dans le développement des énergies renouvelables, il est clair que ces nouvelles technologies ne seront matures que dans plusieurs décennies. A court terme, les énergies fossiles demeureront la source principale d'énergie primaire. Il est donc essentiel de promouvoir de nouvelles méthodologies permettant une utilisation plus rationnelle de l'énergie. Dans le secteur industriel, le développement de centrales de production d'utilités sur le site industriel (en général des centrales de cogénération) contribue grandement à l'amélioration de l'efficacité énergétique des procédés. Traditionnellement, la gestion de ce type de système repose sur une approche séquentielle : ordonnancement de l'atelier de production, calcul des besoins énergétiques et planification de la centrale de cogénération. Toutefois, dans ce type d'approche, l'accent est mis avant tout sur l'atelier de production, la centrale de cogénération étant considérée comme une unité esclave. Pour améliorer le processus de décision, cette thèse développe une approche intégrée pour l'ordonnancement simultanée et cohérent des ateliers de production et des centrales de production d'utilités. La méthodologie proposée repose sur une formulation MILP à temps discret. Par ailleurs, une extension du formalisme RTN a été développée : les ERTN ("Extended Resource Task Network"). Celui-ci permet d'une part, de décrire de manière systématique les recettes et d'autre part, permet une modélisation explicite et générique des différents types de systèmes dont notamment les centrales d'utilités. Les résultats montrent que l'approche intégrée permet d'obtenir une réduction notable du coût énergétique grâce une meilleure coordination des activités de production et de fabrication d'utilités. En effet, les tâches de production sont ordonnancées de manière à consommer sur les mêmes périodes les utilités générées simultanément par la centrale de cogénération, conduisant ainsi à une réduction significative du rapport quantité de biens fabriqués / quantité de carburant consommé et des émissions de gaz à effet de serre. / The issue of energy has emerged as one of the greatest challenges facing the mankind. The search is on for finding alternative sources of energy that will replace fossil fuels as the primary source of energy. However, for the foreseeable future, fossil fuels will remain the main source of energy. Therefore, it is of paramount importance to devise methodologies for more rational use of energy in all walks of human life. In the industrial perspective, the deployment of site utility system (generally CHP plants) provides a great potential source for energy savings. However, the management of such type of industrial units is traditionally carried out using sequential three step approach: scheduling of the production plant, estimation of the utility needs of production plant and finally scheduling of the site utility system. In this kind of approach, all the focus is placed on the production plant and the utility system is treated as its subsidiary. To improve the decision-making process, this thesis proposes an integrated approach which addresses this imbalance by carrying out simultaneous and coherent scheduling of batch production plant and site utility system. The proposed methodology relies on discrete time modeling and uses Mixed Integer Linear Programming (MILP). Moreover, to permit an efficient and generic formulation of various kinds of industrial problems, a new scheduling framework called Extended Resource Task Network (ERTN) has been developed. The ERTN framework (an extension of existing RTN framework) allows for accurate representation and scheduling of any type of production plant and any type of site utility system. The results show that the integrated approach leads to better synchronization between production plant and site utility system. Thereby, the integrated approach leads to significant reduction in energy costs and decrease in harmful gas emissions.
36

Towards modeling of a class of bionic manipulator robots / Vers la modélisation d’une classe de robots mobiles manipulateurs bioniques

Escande, Coralie 12 December 2013 (has links)
Ce travail concerne une catégorie de robot mobile manipulateur omnidirectionnel bionique, en l’occurence le RobotinoXT qui dispose d’un manipulateur bionique CBHA monté sur un robot mobile omnidirectionnel, nommée Robotino. D’abord, nous avons proposé un modèle cinématique direct de ce système en utilisant une méthode nommée « arc geometry ». Celle-ci a été validée grâce à un banc d’expérimentation en ayant recours à une technique de trilatération. Pour atteindre cet objectif, les capteurs ont été calibrés. Concernant le problème de calibration des paramètres constants du modèle, il a été résolu en développant un algorithme d’optimisation incluant une méthode nommée SQP, validée via un manipulateur industriel à bras rigides. Puis, nous avons proposé un modèle cinématique inverse du CBHA en supposant que chaque vertèbre de celui-ci est assimilée à un robot parallèle. Ce modèle a été validé par les mesures réelles obtenues avec le manipulateur industriel, permettant la définition de l’espace de travail du robot. Enfin, nous avons implémenté une boîte à outils qui englobe les modèles développés dans ce travail. / This work deals with a particular class of mobile omnidrive-bionic manipulator robot namely RobotinoXT. It contains a bionic manipulator Compact Bionic Handling Assistant (CBHA) mounted over a mobile omnidrive robot Robotino. We first proposed a forward kinematic model of such a system by using an “arc geometry” method which was validated through a test bench using a trilateration technique. To achieve this purpose, the sensors were calibrated. For the model’s constant parameters calibration problem, this latter was resolved by developing an optimization algorithm which incorporates a SQP method, validated via an industrial manipulator with rigid links. Then, we proposed an inverse kinematic model of the CBHA by assuming that each backbone of it, is assimilated to a parallel robot. This model was validated by real measurements obtained with the industrial manipulator, allowing defining the robot workspace. Finally, we implemented a toolbox which encompasses the models developed in this work.
37

Rupture et délamination de films minces / Fracture and delamination in thin films

Marthelot, Joel 18 June 2014 (has links)
Les films minces sont abondamment utilisés pour protéger ou fonctionnaliser les surfaces. Les contraintes mécaniques peuvent cependant entraîner la ruine de ces structures par la propagation de fissures ou leur décollement. Nous présentons deux systèmes expérimentaux qui amènent à s'interroger sur les limites de validité des critères de stabilité communément admis. Pour une couche de sol- gel présentant une énergie d'adhésion modérée avec son substrat de silicium, nous observons la propagation de fissures dans des films réputés stables. Les motifs de propagation sont étonnement réguliers (en forme de spirales ou d'allées de croissants). Nous caractérisons expérimentalement cette propagation. Nous mettons en évidence un nouveau mode de propagation de fissure où la délamination et la fissure transverse collaborent. Nous montrons l'existence d'une taille d'interaction robuste entre fissures indépendantes du chargement et des énergies de rupture. Nous proposons un modèle simple permettant de prédire les conditions de propagation et la sélection des motifs. Nous caractérisons enfin la dynamique de propagation de telles fissures. Dans un second système expérimental motivé par les applications en électronique flexible, nous nous intéressons à des films nanométriques d'oxyde de zinc déposés sur des substrats de polymère. La rigidité du substrat est alors faible devant celle de la couche. Nous décrivons la fragmentation du film et proposons une extension d'un modèle de couche élastique sur fondation élasto-plastique. Enfin, nous nous intéressons à la compression et à la fragmentation d'un multicouche comportant une fine épaisseur d'argent. / Nanometer to micrometer thin film coatings are extensively used in material science to protect and functionalize surfaces. Coating processes however generally result into residual strains and may induce the propagation of cracks with dramatic consequences on film reliability. We present two experimental models which challenges the usual stability criteria for thin films. For a thin sol-gel layer moderatly adherent to a silicon substrate, we observe fracture propagation in coatings considered stable. Moreover, intriguing cracks of regular geometry are found to self-replicate an initial triggering pattern independently from the local material properties. We present a novel mode of fracture which involves the simultaneous progression of both, a crack and a front of delamination. We describe the fracture mechanism with universal energy arguments and provide a simple model describing the crack path. We eventually characterize the dynamics of the propagation. In a second model experiment, we study the fragmentation of coating deposited on a compliant substrate (motivated by flexible electronics application). We describe the fragmentation and propose an extension to an elastic layer deposited on an elastic foundation to an elasto-plastic case. Eventually, we study the compression and fragmentation of a zinc oxyde and silver multilayer
38

Contribution to the improvement of meshless methods applied to continuum mechanics / Contribution à l’amélioration des méthodes sans maillage appliquées à la mécanique des milieux continus

Fougeron, Gabriel 02 October 2018 (has links)
Cette thèse présente un cadre général pour l’étude de schémas de discrétisation nodaux sans maillageformulé en termes d’opérateurs discrets définis sur un nuage de points : intégration volumique et de bord, gradientet opérateur de reconstruction. Ces définitions dotent le nuage de points d’une structure plus faible que celledéfinie par un maillage, mais partageant avec elle certain concepts fondamentaux. Le plus important d’entre euxest la condition de compatibilité intégro-différentielle. Avec la consistance linéaire du gradient discret, cet analoguediscret de la formule de Stokes constitue une condition nécessaire à la consistance linéaire des opérateurs elliptiquesen formulation faible. Sa vérification, au moins de manière approchée, permet d’écrire des discrétisations dont le tauxde convergence est optimal. La construction d’opérateurs discrets compatibles est si difficile que nous conjecturons– sans parvenir à le démontrer – qu’elle nécessite soit la résolution d’un système linéaire global, soit la constructiond’un maillage : c’est "la malédiction sans-maillage". Trois grandes approches pour la construction d’opérateursdiscrets compatibles sont étudiées. Premièrement, nous proposons une méthode de correction permettant de calculerl’opérateur gradient compatible le plus proche – au sens des moindres carrés – sans mettre à mal la consistancelinéaire. Dans le cas particulier des gradients DMLS, nous montrons que le gradient corrigé est en réalité globalementoptimal. Deuxièmement, nous adaptons l’approche SFEM au cadre opérateur et constatons qu’elle définit desopérateurs consistants à l’ordre un et compatibles. Nous proposons une méthode d’intégration discrète exploitantla relation topologique entre les cellules et les faces d’un maillage qui préserve ces caractéristiques. Troisièmement,nous montrons qu’il est possible de générer tous les opérateurs sans maillage rien qu’avec la donnée d’une formuled’intégration volumique nodale en exploitant la dépendance fonctionnelle des poids volumiques nodaux par rapportà la position des noeuds du nuage, l’espace continu sous-jacent et le nombre de noeuds. Les notions de consistance desdifférents opérateurs sont caractérisées en termes des poids volumiques initiaux, formant un jeu de recommandationpour la mise au point de bonnes formules d’intégration. Dans ce cadre, nous réinterprétons les méthodes classiquesde stabilisation de la communauté SPH comme cherchant à annuler l’erreur sur la formule de Stokes discrète.L’exemple des opérateurs SFEM trouve un équivalent en formulation volume, ainsi que la méthode d’intégrationdiscrète s’appuyant sur un maillage. Son écriture nécessite toutefois une description très précise de la géométriedes cellules du maillage, en particulier dans le cas où les faces ne sont pas planes. Nous menons donc à bienune caractérisation complète de la forme de telles cellules uniquement en fonction de la position des noeuds dumaillage et des relations topologiques entre les cellules, permettant une définition sans ambigüité de leur volume etcentre de gravité. Enfin, nous décrivons des schémas de discrétisation d’équations elliptiques utilisant les opérateurssans-maillage et proposons plusieurs possibilités pour traiter les conditions au bord tout en imposant le moinsde contraintes sur la position des noeuds du nuage de points. Nous donnons des résultats numériques confirmantl’importance capitale de vérifier les conditions de compatibilité, au moins de manière approchée. Cette simple recommandation permet dans tous les cas d’obtenir des discrétisations dont le taux de convergence est optimal. / This thesis introduces a general framework for the study of nodal meshless discretization schemes. Itsfundamental objects are the discrete operators defined on a point cloud : volume and boundary integration, discretegradient and reconstruction operator. These definitions endow the point cloud with a weaker structure than thatdefined by a mesh, but share several fundamental concepts with it, the most important of them being integrationdifferentiationcompatibility. Along with linear consistency of the discrete gradient, this discrete analogue of Stokes’sformula is a necessary condition to the linear consistency of weakly discretized elliptic operators. Its satisfaction, atleast in an approximate fashion, yields optimally convergent discretizations. However, building compatible discreteoperators is so difficult that we conjecture – without managing to prove it – that it either requires to solve a globallinear system, or to build a mesh. We dub this conjecture the "meshless curse". Three main approaches for theconstruction of discrete meshless operators are studied. Firstly, we propose a correction method seeking the closestcompatible gradient – in the least squares sense – that does not hurt linear consistency. In the special case ofMLS gradients, we show that the corrected gradient is globally optimal. Secondly, we adapt the SFEM approachto our meshless framework and notice that it defines first order consistent compatible operators. We propose adiscrete integration method exploiting the topological relation between cells and faces of a mesh preserving thesecharacteristics. Thirdly, we show that it is possible to generate each of the meshless operators from a nodal discretevolume integration formula. This is made possible with the exploitation of the functional dependency of nodal volumeweights with respect to node positions, the continuous underlying space and the total number of nodes. Consistencyof the operators is characterized in terms of the initial volume weights, effectively constituting guidelines for thedesign of proper integration formulae. In this framework, we re-interpret the classical stabilization methods of theSPH community as actually seeking to cancel the error on the discrete version of Stokes’s formula. The example ofSFEM operators has a volume-based equivalent, and so does its discrete mesh-based integration. Actually computingit requires a very precise description of the geometry of cells of the mesh, in particular in the case where its facesare not planar. We thus fully characterize the shape of such cells, only as a function of nodes of the mesh andtopological relations between cells, allowing unambiguous definition of their volumes and centroids. Finally, wedescribe meshless discretization schemes of elliptic partial differential equations. We propose several alternatives forthe treatment of boundary conditions with the concern of imposing as few constraints on nodes of the point cloudas possible. We give numerical results confirming the crucial importance of verifying the compatibility conditions,at least in an approximate fashion. This simple guideline systematically allows the recovery of optimal convergencerates of the studied discretizations.
39

Problèmes mathématiques liés à la modélisation des solides à différentes échelles

Blanc, Xavier 04 December 2001 (has links) (PDF)
Cette thèse présente l'étude de divers problèmes mathématiques en modélisation des solides, tant à l'échelle atomique qu'à l'échelle macroscopique. Les modèles correspondants sont très simplifiés, mais présentent tout de même des comportements qualitatifs acceptables, et permettent, du fait de leur simplicité, de pousser l'analyse mathématique plus loin que dans le cas de modèles plus réalistes.<br /><br />Une première partie (chapitres 2,3,4) est consacrée à l'étude de l'origine de la structure cristalline. Ce problème peut être posé de la façon suivante : les modèles étudiés ici rendent-ils compte du fait qu'à température nulle, la matière est ordonnée ? ou, de façon équivalente, l'état de minimum d'énergie de N atomes identiques ressemble-t-il, pour N grand, à une structure périodique ? Ce type de problème est relié au problème de limite thermodynamique, dont certains aspects sont également étudiés ici.<br /><br />Dans un deuxième temps, nous étudions au chapitre 5 le cas où précisément, la matière n'est pas ordonnée : dans le cas d'un système périodique, il est possible de définir l'énergie du système pour les modèles utilisés ici par le processus de limite thermodynamique. Nous étudions ce même processus dans un cas non-périodique, donnant des hypothèses générales qui permettent de mener à bien une telle étude.<br /><br />Les chapitres 6 et 7 sont consacrés à l'étude du lien possible entres des théories macroscopiques des solides et ces modèles microscopiques, le premier dans le cas de comportements mécaniques, le deuxième dans le cas du comportement en présence d'un champ électrique.<br /><br />Enfin, le dernier chapitre présente une brève introduction à certaines techniques utilisées en numérique des solides, pour des modèles beaucoup plus élaborés que ceux des chapitres précédents.
40

RÉALISATION D'UN OSCILLATEUR PARAMÉTRIQUE OPTIQUE STABILISÉ EN FRÉQUENCE ET ACCORDABLE CONTINÛMENT SUR 500 GHz POUR LA SPECTROSCOPIE INFRAROUGE

Andrieux, Emeline 16 December 2011 (has links) (PDF)
Nous avons développé un oscillateur paramétrique optique simplement résonant (SRO) basé sur un cristal non linéaire de niobate de lithium dopé 5%-MgO et périodiquement polarisé (ppMgCLN). Il est pompé à 1064 nm par une diode laser en cavité étendue balayable continûment de 1050 à 1070 nm injectant un ampli cateur Yb-fi bré de puissance 10 W. Il génère une onde idler comprise entre 3 et 4 m et une onde signal entre 1450 et 1650 nm. Son seuil varie entre 2 et 3 W. La puissance idler maximale obtenue est de 1.8 W à 3 m pour une puissance de pompe de 9 W. Le balayage en fréquence continu de l'onde idler s'eff ectue en balayant la longueur d'onde pompe. Du fait des propriétés de dispersion du matériau ppMgCLN pompé à une longueur d'onde proche de 1064 nm, le désaccord de phase ne varie pas signi- cativement durant le balayage en fréquence de la pompe permettant une excursion en fréquence sans saut de mode de l'onde idler importante. Sans asservissement, un balayage continu de l'onde idler sur 175 GHz a été obtenu, limité principalement par les uctuations acoustiques basses fréquences de longueur de la cavité SRO induisant un ou plusieurs sauts de mode durant le balayage. Pour réduire ces fluctuations et augmenter la plage de balayage sans saut de mode, la cavité SRO est asservie sur le pic de transmission d'une cavité Fabry-Perot de grande fi nesse. Nous avons alors pu démontrer un balayage mono-fréquence sans saut de mode de l'onde idler sur 500 GHz. Cette large accordabilité continue pourrait être utilisée pour la spectroscopie haute résolution multi-espèces dans le moyen infrarouge. Par ailleurs, nous avons revisité la théorie ondes planes du SRO en utilisant une méthode perturbative très puissante qui tient compte de la déplétion de la pompe. Nous avons pu ainsi déterminer les relations d'entrée-sortie du SRO sous la forme de relations explicites très simples, montrant que les puissances de sortie sont proportionnelles à la racine cubique de la puissance pompe.

Page generated in 0.0678 seconds