Spelling suggestions: "subject:"nonlinéaire"" "subject:"colinéaire""
511 |
Stratégies de modélisation et protection vis à vis des décharges électrostatiques (ESD) adaptées aux exigences de la norme du composant chargé (CDM) / Simulation, realisation and characterization of ESD protection structures adapted to the CDM dischangeGao, Yuan 13 February 2009 (has links)
Dans l’industrie semiconducteur, une décharge électrostatique peut se produire tout au long de la vie d’une puce électronique, et constitue un vrai problème pour la fiabilité du circuit intégré et une cause majeure de défaillance. Un nouveau modèle, modèle du composant chargé (CDM, Charged Device Model) a été récemment développé pour simuler un composant chargé qui se décharge au travers d'une de ses broches vers la masse. La forme d’onde d’une telle décharge se présente comme une impulsion de courant de grande amplitude (15A pour un CDM de 1KV sur une capacité de charge de 10pF) d’une durée de seulement quelques nanosecondes. En effet, il est de plus en plus courant de constater des signatures de défaillance ESD au coeur des circuits intégrés, généralement des claquages d’oxyde qui sont typiquement induites par les décharges CDM. Une protection ESD ayant une dynamique de déclenchement inappropriée ou la circulation d'un fort courant de décharge (dans le substrat ou sur les pistes métalliques) peut induire localement des variations de potentiel suffisantes pour endommager les oxydes (3-5nm d’épaisseur pour la technologie CMOS 45nm). Face aux défis de la décharge CDM, dans cette thèse, nous nous sommes intéressée d’abord à la détection et la compréhension des défauts latents induits par les stress CDM dans les circuits intégrés, en utilisant une technique de haute sensibilité, « la mesure de bruit en basse fréquence ». Un convertisseur DC-DC a été stressé par le test CDM, après chaque étape de traitement (stockage, recuit, et vieillissement), et l’évolution des défauts latents générés a été étudiée. Ensuite, nous avons proposé une méthodologie de modélisation du circuit intégré complet afin de simuler la stratégie de protection vis-à-vis des stress CDM en limitant les problèmes de convergence de simulation. Son originalité réside dans la modélisation de la résistance du substrat en très forte injection adaptée à la décharge CDM à l’aide de la mesure VF-TLP (Very Fast Transmission Line Pulsing) et de la simulation physique 2D et 3D. La méthodologie a été validée sur une technologie CMOS avancée 45nm et une technologie BiCMOS 0,25mm). A la fin, la méthodologie de simulation CDM a été validée sur un produit commercial. / In the semiconductor industry, electrostatic discharge (ESD) can occur throughout over the whole life of a chip. This is a real problem for the reliability of the integrated circuit (IC) and a major failure cause. A new ESD model, Charged Device Model (CDM) was recently developed to simulate a charged device which discharges through one of its pin to ground. The waveform of such a discharge is a current pulse of high amplitude (15A for a 1KV CDM stress on a precharged capacitor of 10pF) over a few nanoseconds duration. Indeed, it is increasingly common to encounter ESD failure signatures into the IC core, usually gate oxide breakdowns that are typically induced by CDM stress. ESD protections with inappropriate triggering speed or strong discharge currents (into the substrate or the metal tracks) can locally lead to potential drop sufficient to damage the oxide (3-5nm thickness in 45nm CMOS technology).Given the challenges of the CDM discharges, this thesis was firstly focused on the detection and understanding of latent defects caused by CDM stress in integrated circuits, using a high- ensitivity technique, namely low frequency noise measurement (LFN). A DCDC converter has been stressed by the CDM test. After each step of processing (storage, burn-in, and aging), the evolution of latent defects generated was investigated. Secondly, a methodology for modeling the complete integrated circuit has been proposed to simulate the CDM protection strategy by limiting the simulation convergence problems. Its main originality consists in the modeling of the substrate resistance under very high injection adapted to the CDM discharge using both VF-TLP (Very Fast Transmission Line Pulsing) measurement and 2D/3D physical simulation. The model was successfully validated on 45nm CMOS and 0.25 µm BiCMOS technologies. Finally, the CDM simulation methodology was validated on a commercial product.
|
512 |
Transferts de champs entre maillages de type éléments finis et applications numériques en mécanique non linéaire des structures / Field transfers between finite element meshes and numerical applications in non linear mechanicsBerard, Alexandre 19 September 2011 (has links)
En mécanique des milieux continus, la résolution d'un problème à l'aide de la méthode des éléments finis permet d'obtenir des champs discrétisés aux noeuds ou aux points de Gauss, sur un maillage donné de la structure étudiée. Si l'on souhaite utiliser ces résultats afin d'effectuer un calcul sur un second maillage, un transfert de données est inévitable, notamment dans les études chaînées, lors de processus d'adaptation de maillage ou encore pour des couplage entre codes. La simulation numérique doit tenir compte de cet état de fait, ce qui n'est pas totalement le cas aujourd'hui; la division R&D d'EDF souhaite donc disposer d'outils permettant de lever ce verrou au sein du logiciel libre Code_Aster.Le manuscrit présente une synthèse des travaux menés durant la thèse, qui répondent aux objectifs suivants: proposer des méthodes de transfert de champs, comparer et qualifier ces différentes approches à l'aide d'ananlyses d'erreur théoriques et numériques, implanter l'une de ces méthodes dans Code_Aster, valider cette programmation sur quelques cas industriels. / In continuum mechanics, when a problem is solved with the finite element method, field are known on nodes or on integration points, on a given mesh of the structure. If we which to use these results to perform a calculation on a second mesh, a data transfer is inevitable, especially in studies which imply adapting mesh process, or for coupling several codes. Numerical simulation must take this fact into account, which is not entirely the case today. So R&D division of EDF is eager to use some tools to remove this lock, in the software Code_Aster.There is a sum up of the work dine during the thesis. The objectives are the following: propose some methods for fields transfers, compare and describe these different approaches with theoretical analysis and numerical errors, implement one of these methods in Code_Aster, validate this implementation on some industrial cases.
|
513 |
Group-theoretical investigation of the structural basis for the formation of twinned crystals / L'application de la théorie des groupes pour expliquer la formation des maclesMarzouki, Mohamed Amine 09 September 2015 (has links)
Le travail de cette thèse porte sur les raisons structurales derrière la formation de cristaux maclés. Ce travail ouvre une voie pour un futur développement de protocoles de synthèse afin de réduire l'occurrence de macles. La motivation de cette étude est que la présence de macles affecte négativement les propriétés physico-chimiques des matériaux d'intérêts technologiques et réduit aussi la qualité des données expérimentales sur lesquelles se fonde l'analyse structurelle. Ce dernier problème est particulièrement sensible dans le cas de cristaux ayant des paramètres de maille importantes, comme les macromolécules biologiques. Les principes de symétrie responsables du phénomène de maclage dans le cas d’une macle de transformation ou d'origine mécanique sont bien connues. En revanche dans le cas d’une macle de croissance, le maclage est toujours considéré comme un accident lié aux conditions aléatoires de croissance cristalline où à la cinétique, plutôt qu'à la thermodynamique. Une approche générale connue comme la « théorie réticulaire des macles » a été développée depuis le XIXe siècle, fondée sur l'existence d'un sous-réseau commun aux cristaux maclés, qui donne les conditions nécessaires pour l'apparition d'une macle. Cette approche est cependant insuffisante pour déterminer la différence entre les macles avec le même degré de chevauchement des réseaux mais montrant une fréquence d'occurrence assez différente. Une approche structurale, fondée sur l'analyse de la symétrie propre des orbites cristallographiques a été proposée il y a plus d'un demi-siècle (Donnay et Curien, 1960), mais est restée à l'état embryonnaire, malgré une certaine reprise récente (Nespolo et Ferraris, 2009). En outre, l'idée qu'une interface commune aux cristaux maclés puisse contenir une opération reliant ces individus a été proposée (Holser, 1958) mais n'a jamais été portée à un plein développement. Dans cette thèse, nous présentons un développement algébrique de ces idées. Nous montrons que les conditions structurales nécessaires pour la formation d'une macle de croissance peuvent être formulées en se basant, notamment, sur la symétrie propre des orbites cristallographiques et sur le groupe sous-périodique de la couche transversale donnant la symétrie d'une couche commune. L'analyse détaillée dans cette thèse de trois macles fréquentes démontre une corrélation claire entre le degré de restauration de la structure par l'opération de maclage et la fréquence d'occurrence des macles. Un exemple négatif, à savoir une macle hypothétique dont on pourrait prévoir la formation sur la base de la théorie réticulaire a aussi été analysé. Le fait que cette macle n'ait jamais été observée, en raison d’une faible restauration de la structure qui serait produite par l'opération de macle, confirme le bien fondé de l'approche. Nous nous attendons à ce que la généralisation de l'approche présentée dans cette thèse fournisse une procédure semi-automatique pour prévoir la probabilité de formation d'une macle. Cela permettrait aux personnes travaillant dans la synthèse cristalline démoduler la fréquence de maclage. Le procédé fait appel à la modification de la morphologie du cristal pour une plus grande exposition et le développement des faces cristallines qui présentent une interface défavorable pour le maclage. / This thesis addresses the structural rationale behind the formation of growth twins, with the purpose of opening a route to the future development of synthesis protocols to reduce the occurrence frequency of twinning. The reason for this effort is that twinning affects negatively the physico-chemical properties of materials and biomaterials of technological interests and reduces the quality of the experimental data on which the structural investigation is based. While on the one hand the reasons for twinning in transformation and mechanical twins are well understood, in the case of growth twins twinning is still seen as an accident linked to aleatory conditions where kinetics, rather than thermodynamics, plays a principal role. A general approach known as the reticular theory of twinning has been developed since the XIX century, based on the existence of a sublattice common to the twinned crystals, which gives the minimal necessary conditions for the occurrence of a twin. This approach is, however, insufficient to discriminate between twins with the same degree of lattice overlap but showing a fairly different occurrence frequency. A structural approach, based on the analysis of the eigensymmetry of the crystallographic orbits building a crystal structure was proposed more than half a century ago (Donnay and Curien, 1960) but remained at an embryonic state, despite some recent revival (Nespolo and Ferraris, 2009). Also, the idea that a slice common to the twinned individuals may contain an operation mapping these individuals was proposed (Holser, 1958) but never brought to a full development. In this thesis, we present a full development of these ideas and show that the structurally necessary conditions for the formation of a growth twin can be described on the basis of the eigensymmetry of the crystallographic orbits and on the sectional layer group giving the symmetry of the common slice. The detailed analysis of three well-know twins demonstrates a clear correlation between the degree of structural restoration by the twin operation and the occurrence frequency of the twins. The analysis of a negative example, i.e. of a hypothetical twin which one would expect on the basis of the reticular theory but has never been observed, strengthens the evidence of this correlation, because of the low structural restoration one would observe in that twin. We expect that the generalisation of the approach presented in this thesis through a semi-automatic procedure will provide crystal growers with a powerful tool to modulate the occurrence frequency of twinning through a modification of the crystal morphologies towards a larger exposure and development of crystal faces which represent an unfavorable interface for twinning.
|
514 |
Precision cosmology with the large-scale structure of the universe / Cosmologie de précision avec les grandes structures de l'universDupuy, Hélène 11 September 2015 (has links)
Cette thèse fournit des résultats innovants de plusieurs types. Leur point commun est la quête de précision dans la description des phénomènes physiques à l'œuvre dans l'univers. D'abord, un modèle-jouet simulant la propagation de la lumière dans un espace-temps non homogène est présenté. Dans cette étude, nous avons opté pour la traditionnelle représentation de type Swiss cheese. Souvent utilisée dans la littérature, elle permet de travailler avec des solutions exactes de la relativité générale, qui n'altèrent pas la dynamique globale de l'univers tout en le rendant fortement non homogène. Nous avons illustré la façon dont les hypothèses de base, telles que le principe cosmologique, peuvent affecter les conclusions scientifiques, telles que l'estimation des paramètres cosmologiques à partir des diagrammes de Hubble. Ce travail a donné lieu à deux publications en 2013, une dans Physical Review D et une autre dans Physical Review Letter. Le résultat majeur proposé dans cette thèse est une nouvelle façon de décrire les neutrinos en cosmologie. L'idée est de décomposer les neutrinos en plusieurs fluides à un flot de manière à se débarrasser de la dispersion en vitesse dans chacun d'eux. Cela s'inscrit dans le cadre de l'étude de la formation des grandes structures de l'univers à l'aide de la théorie des perturbations cosmologiques dans les régimes non linéaire et/ou relativiste. Ce travail a donné lieu à trois publications dans JCAP, une en 2014 et deux en 2015. / This thesis provides innovative results of different types. What they have in common is the quest for precision in the description of the physical phenomena at work in the universe. First, a toy model mimicking the propagation of light in an inhomogeneous spacetime has been presented. In this study, we chose a traditional Swiss-cheese representation. Often used in the litterature, such models offer the advantage of dealing with exact solutions of the Einstein equations, which do not affect the global dynamics of the universe while making it strongly inhomogeneous. We have exemplified how initial presumptions, such as the cosmological principle, can alter scientific conclusions, such as the estimation of cosmological parameters from Hubble diagrams. This work resulted in two publications in 2013, one in Physical Review D and another one in Physical Review Letter. The major result exposed in this thesis is the proposition of a new way of dealing with the neutrino component in cosmology. The idea is to decompose neutrinos into several single-flow fluids in order to get rid of velocity dispersion in each of them. The research field to which it belongs is the study of the formation of the large-scale structure of the universe thanks to cosmological perturbation theory in the relativistic and/or nonlinear regimes. This work resulted in three publications in JCAP, one in 2014 and two in 2015.
|
515 |
Contribution de la mécanique à l'étude des bassins sédimentaires : modélisation de la compaction chimique et simulation de la compaction mécanique avec prise en compte d'effets tectoniques / Contribution of mechanics to the study of sedimentary basins : modelling of the chemical compaction and simulation of the mechanical compaction with consideration of tectonic effectsGuilmin, Anne-Lise 10 September 2012 (has links)
Avec l'augmentation de la demande énergétique et la raréfaction des réserves prouvées de pétrole, l'exploration pétrolière se tourne vers des sites de plus en plus difficiles, notamment les bassins géologiquement complexes. Pour évaluer les paramètres clés de l'exploration-production, des logiciels de simulation sont utilisés pour reconstituer l'historique du bassin. La modélisation physique et la formulation numérique sur lesquelles ils s'appuient doivent alors être enrichies pour mieux appréhender (voire prédire) le développement des surpressions. Cette thèse comporte deux volets: l'amélioration de la modélisation du géomatériau grâce à la micromécanique et le développement d'un outil de simulation gérant les spécificités de notre problème. Une nouvelle modélisation micromécanique du géomatériau est proposée pour tenir compte du mécanisme de pression-dissolution (compaction chimique). L'intérêt de la micromécanique est d'obtenir une loi macroscopique calibrée avec des données microscopiques mesurables en laboratoire. Depuis les travaux d'Athy (1930), modéliser l'évolution de la porosité aux grandes échelles de temps reste une problématique majeure. Aujourd'hui elle est estimée à l'aide de courbes empiriques de porosité-profondeur, qui hélas présentent une grande variabilité. Notre approche consiste à calculer la porosité au cours de l'enfouissement à l'aide de la déformation du squelette et de la pression de pore, ces deux variables couplées étant issues de la résolution d'équations mécaniques fondamentales. Une formulation originale a été conçue selon cette approche pour traiter la sédimentation et le déséquilibre de compaction, tensoriellement, en grandes déformations, suivant un mécanisme de compaction mécanique, avec un comportement évoluant dans le temps. L'implémentation numérique est quasiment aboutie et a déjà été validée partiellement avec des résultats analytiques. Une fois finalisé, cet outil de simulation devrait permettre de traiter des situations non oedométriques (contrairement aux simulateurs actuels) et permettre l'étude des bassins à histoire tectonique complexe / With the rise of energetic demand and the growing scarcity of proved reserves of oil, the oil industry explores areas of extreme conditions and geologically complex basins. To estimate the key parameters for exploration-production, simulation softwares are used to reconstitute the history of the basin. The physical modelling and the numerical formulation on which they lean must be enriched to understand (even predict) overpressures. This thesis work contains two items: the improvement of the modelling of geomaterials using micromechanics and the development of a hydromechanical simulation tool handling the specificities of our problem. A new micromechanical modelling of geomaterials is designed to take into account the mechanism of pressure-dissolution (chemical compaction). The asset of micromechanics is to produce a macroscopic law calibrated with microscopic data which can be measured in laboratory. Since the work of Athy (1930), modelling the evolution of porosity over geological time-scale remains a major challenge. Today it is estimated by means of empirical curves of porosity-depth, which regrettably present a big variability. Our approach consists in evaluating the porosity during burial relatively to the strain of the skeleton and the pore pressure - these two coupled variables resulting from fundamental mechanical equations. An original formulation is designed according to this approach to treat the sedimentation and the desequilibrium compaction, tensorially, in large strains, following a mechanism of mechanical compaction, with a time-dependent behavior. Its numerical encoding is almost finished and has already been partially validated with analytical solution. Once finished, this simulation tool should allow to treat not only oedometrical situations but more general situations (contrary to current simulators) and study basins with complex tectonic history
|
516 |
Geomechanics to solve geological structure issues : forward, inverse and restoration modeling / Utilisation de la géomécanique pour résoudre des problèmes liés aux structures géologiques : modélisation directe, inversion et restaurationMaerten, Frantz 17 June 2010 (has links)
Différentes applications de l'élasticité linéaire en géologie structurale sont présentées dans cette thèse à travers le développement de trois types de codes numériques. Le premier utilise la modélisation directe pour étudier les déplacements et champs de contraintes autour de zones faillées complexes. On montre que l'ajout de contraintes inégalitaires, telles que la friction de Coulomb, permet d'expliquer l'angle d'initiation des dominos dans les relais extensifs. L'ajout de matériaux hétérogènes et d'optimisations, telles la parallélisation sur processeurs multi-coeurs ainsi que la réduction de complexité des modèles, permettent l'étude de modèles beaucoup plus complexes. Le second type de code numérique utilise la modélisation inverse, aussi appelée estimation de paramètres. L'inversion linéaire de déplacements sur les failles ainsi que la détermination de paléo-contraintes utilisant une approche géomécanique sont développées. Le dernier type de code numérique concerne la restoration de structures complexes plissées et faillées. Il est notamment montré qu'une telle méthode permet de vérifier l'équilibre de coupes géologiques, ainsi que de retrouver la chronologie des failles. Finalement, nous montrons que ce même code permet de lisser des horizons 3D faillés, plissés et bruités en utilisant la géomécanique. / Different applications of linear elasticity in structural geology are presented in this thesis through the development of three types of numerical computer codes. The first one uses forward modeling to study displacement and perturbed stress fields around complexly faulted regions. We show that incorporating inequality constraints, such as static Coulomb friction, enables one to explain the angle of initiation of jogs in extensional relays. Adding heterogeneous material properties and optimizations, such as parallelization on multicore architectures and complexity reduction, admits more complex models. The second type deals with inverse modeling, also called parameter estimation. Linear slip inversion on faults with complex geometry, as well as paleo-stress inversion using a geomechanical approach, are developed. The last type of numerical computer code is dedicated to restoration of complexly folded and faulted structures. It is shown that this technique enables one to check balanced cross-sections, and also to retrieve fault chronology. Finally, we show that this code allows one to smooth noisy 3D interpreted faulted and folded horizons using geomechanics.
|
517 |
Ingénierie des réseaux optiques SDH et WDM et étude multicouche IP/MPLS sur OTN sur DWDM / Engineering of SDH and WDM optical networks and IP/MPLS over DWDM multilayer studyBaraketi, Sami 31 March 2015 (has links)
Les réseaux de transport optiques constituent aujourd'hui l'infrastructure de base des systèmes de communications modernes. Etant donné les investissements colossaux nécessaires au déploiement de ces réseaux, liés en particulier aux coûts des équipements (fibres optiques, cartes, transpondeurs,...), l'optimisation du routage et de l'allocation de ressources est indispensable pour maitriser les coûts d'exploitation. Dans ce contexte, ces travaux de thèse étudient un ensemble de problèmes d'allocation de ressources qui se posent lors de la planification des réseaux SDH (Synchronous Digital Hierarchy) et WDM (Wavelength Division Multiplexing), mais aussi lors de celle des réseaux multicouches basés sur une couche de transport optique. Dans un premier temps, nous étudions le problème du routage des circuits dans les réseaux SDH avec pour objectif principal de minimiser la fragmentation de la bande passante. Nous formulons ce problème comme un programme linéaire en nombres entiers intégrant un ensemble de contraintes réalistes de routage, de transmission et de brassage et utilisant des coûts de ressources granulaires. Un algorithme exact et deux heuristiques sont proposés pour résoudre ce problème. Nous abordons également le problème du reroutage des circuits SDH qui se pose aux opérateurs lorsqu'il devient indispensable de réduire la fragmentation de la bande passante. Nous montrons sur des instances réelles des problèmes étudiés que les méthodes proposées permettent des gains économiques considérables. Dans un deuxième temps, nous étudions deux problèmes de planification pour l'optimisation des réseaux WDM. Le premier problème est celui du design de la topologie logique, c'est à dire celui de la définition des circuits (chemins) optiques permettant de router un ensemble de demandes en trafic avec un coût de transpondeurs minimal. Le second problème est celui du routage et de l'affectation de longueurs d'onde: comment router les circuits optiques définis précédemment pour minimiser le nombre de longueurs d'onde utilisées tout en respectant un ensemble de contraintes technologiques? Nous formulons ces deux problèmes comme des programmes linéaires en nombres entiers et proposons des heuristiques efficaces, de type approximation successive pour le premier problème et utilisant une approche par décomposition pour le second problème. Là encore, les résultats expérimentaux montrent que les méthodes proposées permettent d'obtenir des approximations de qualité pour des instances de très grandes tailles. Enfin, nous abordons l'allocation de ressources dans les réseaux multicouches de nouvelle génération IP/MPLS sur OTN (Optical Transport Network) sur DWDM (Dense WDM). Dans ce cas, la question à laquelle la majorité des opérateurs cherchent une réponse est celle du routage des demandes en trafic de niveau 3 permettant d'optimiser l'allocation des ressources non seulement dans la couche IP/MPLS mais aussi dans les couches sous-jacentes OTN et DWDM. Pour répondre à cette question, nous proposons un nouveau modèle d'optimisation multicouche qui tient compte d'une hiérarchie de contraintes matérielles et définit un compromis entre les coûts des ressources dans les trois couches de réseau. L'ensemble des algorithmes d'optimisation proposés ont été intégrés dans l'environnement de planification et d'optimisation de réseaux NEST de la société QoS Design, utilisé par de grands opérateurs pour planifier leurs réseaux. / Optical transport networks currently constitute base infrastructures for modern day telecommunications systems. Given the huge investments required for deploying these networks, and in particular concerning equipment costs (fiber optics, cards, transponders, etc.), routing optimization and resource allocation are indispensable issues for mastering the operational expenditures (OPEX). In this context, the work conducted in this thesis handle a set of resource allocation problems which arise while planning not only optical SDH (Synchronous Digital Hierarchy) and WDM (Wavelength Division Multiplexing) networks, but also multilayer ones based on an optical transport layer. First, the circuit routing problem in SDH networks is tackled with the main objective of minimizing the bandwidth fragmentation. This problem is formulated as an Integer Linear Program (ILP) integrating a set of realistic routing, transmission and cross-connect constraints and using granular resource costs. An exact algorithm and two heuristics are proposed to solve this problem. The rerouting problem of SDH circuits, which faces operators when it becomes absolutely necessary to reduce the bandwidth fragmentation in the network, is also addressed. For real instances of the studied problems, it is shown that the proposed methods provide considerable economic gains. Second, two planning problems for WDM network optimization is tackled. The first problem is that of the logical network design, or in other words that concerned with the definition of lightpaths to route a set of traffic demands with a minimum transponder cost. The second problem is related to the routing and the wavelength assignment: how to route the previously defined lightpaths so as to minimize the total number of assigned wavelengths while respecting a set of technological constraints? These two problems are formulated as Integer Linear Programs (ILPs) and are solved using efficient heuristics, based on a successive approximation for the first problem and a decomposition approach for the second one. Here again, experimental results show that the proposed methods allow obtaining good quality approximations for large scale instances. Finally, resource allocation in new generation multilayer networks, that is IP/MPLS over OTN (Optical Transport Network) over DWDM (Dense WDM), is addressed. In this case, the question that most of the operators seek to answer is how to route layer 3 traffic demands while optimizing resource allocation, not only in the IP/MPLS layer, but also in the underlying OTN and DWDM layers. For this purpose, a new multilayer optimization model is proposed. It takes into account a hierarchy of material constraints and defines a tradeoff between the resource costs in the three network layers. The set of proposed optimization algorithms have been integrated into the network planning and optimization environment NEST of QoS Design, which is used by major operators to plan their network.
|
518 |
Modeling morphogenesis in living matter / Morphogenèse, croissance et remodelage des tissus biologiquesBalbi, Valentina 04 September 2015 (has links)
Parmi les processus fondamentaux qui ont lieu pendant le développement d'un organisme, la morphogenèse est un des plus complexes. De nombreuses études expérimentales ont contribué à mieux comprendre les mécanismes morphogénétiques dans les organismes vivants. Cependant peu de modèles mathématiques ont été proposés afin d'étudier la morphogenèse dans les tissus vivants. Dans ce contexte, la thèse se propose de développer de nouveaux modèles mathématiques pour étudier les changements de forme dans les tissus mous tubulaires. L'approche adoptée est macroscopique où le tissu biologique est considéré comme un milieu continu déformable. L'hypothèse principale sur laquelle se basent les modèles proposés est la suivante: pendant les processus de croissance et remodelage, des contraintes résiduelles peuvent s'accumuler dans le tissu et, une fois une valeur critique dépassée, le mener à un changement morphologique sous la forme d'une instabilité élastique. Pour cela, les modèles développés intègrent les théories modernes de croissance et remodelage, dans le cadre de la thermomécanique des systèmes ouverts. Ensuite, l'analyse de stabilité linéaire permet de calculer les seuils et modes de l'instabilité élastique en utilisant la méthode des déformations incrémentales superposées aux déformations finies. L'ensemble de ces techniques (théorie morpho-élastique) est utilisé dans cette thèse afin de modéliser deux différents processus morphogénétiques ayant lieu dans les tissus mous tubulaires : la formation d'une variété des formes dans le système gastro-intestinal et le flambage hélicoïdal dans les organes tubulaires avec précontraintes. / Among the fundamental processes involved in the development of an organism, morphogenesis is one of the most complex. During the past centuries, an amount of experimental studies have improved our actual knowledge of the mechanisms which drive many morphogenetic processes in living organisms. Only recently, experiments have been complemented with mathematical modeling as a tool for proving novel insights on morphogenesis in soft tissues. In this context, this thesis aims at developing new mathematical models for the formation of patterns and forms in soft tubular organs. A macroscopic approach is adopted, where the tissue is considered as a continuum body undergoing growth and remodeling. The main idea behind the proposed models is that during growth and remodeling, residual stresses can arise and once they exceed a critical value, an elastic instability can occur in the tissue and lead to a morphological change. Therefore, the morphoelastic models are developed integrating the modern theories of growth and remodeling within the framework of the thermo-mechanics of open systems. The occurrence of the elastic instability is investigated using the method of incremental deformations superposed on finite deformations. The critical thresholds for the onset of the instability are determined together with the modes of the associated instability pattern. The morphoelastic theory is applied to the modeling of different morphogenetic processes occurring in soft tubular organs and gives useful insights in two interesting problems: the formation of the wide range of patterns in the gastro-intestinal system and the occurrence of torsional instabilities in pre-stressed tubular organs.
|
519 |
La stabilité du filtre non-linéaire en temps continu / The stability of non-linear filter in continuous timeBui, Van Bien 16 February 2016 (has links)
Le problème de filtrage consiste à estimer l'état d'un système dynamique, appelé signal qui est souvent un processus markovien, à partir d'observation bruitées des états passés du système. Dans ce mémoire, nous considérons un modèle de filtrage en temps continu pour le processus de diffusion. Le but est d'étudier la stabilité du filtre optimal par rapport à sa condition initiale au-delà de l'hypothèse de mélange (fort) pour le noyau de transition en ignorant l'ergodicité du signal / The filtering problem consists of estimating the state of a dynamic, called signal which is often a Markov process, from the noisy observation of the past states. In this thesis, we consider a filtering model in continuous time for the diffusion process. The aim is to study the stability of the optimal filter with respect to its initial condition beyond the mixing (or quasi – mixing) hypothesis for the transition kernel
|
520 |
Évolution de la cohérence et dynamique non-linéaire des lasers à la meso-échelle / Coherence buildup and nonlinear dynamics in mesoscale lasersWang, Tao 19 April 2016 (has links)
Le laser est omniprésent dans la recherche et les applications. Les efforts de miniaturisation, qui affectent le développement de sa cohérence, se sont multipliés depuis sa découverte, mais seulement avec les plus petits Lasers à Emission Verticale (VCSELs) on détecte l'influence du volume de cavité sur les propriétés d'émission. Ainsi on se pose des questions sur l'apparition et le développement de la cohérence, sur la valeur (unique ?) du seuil laser, sur l'existence d'un tel seuil dans un nanolaser et sur la réponse à la modulation du pompage. Dans cette thèse, nous explorons le fonctionnement du laser autour du « seuil » pour obtenir des réponses expérimentales à quelques-unes des questions posées dans des lasers à la meso-échelle. Les fonctions de corrélation, la dynamique temporelle, la reconstruction de l'espace des phases, des indicateurs statistiques et des mesures spatialement résolues d'intensité et de longueur d'onde d'émission sont les indicateurs utilisés dans cette étude. La dynamique est étudiée modulant sinusoïdalement des petits VCSEL, où nous obtenons : des impulsions dans la région du seuil, amplification anormale de l'émission spontanée (en polarisation croisée), oscillations régulières et (surtout) irrégulières par la forte influence de l'émission spontanée dans ces petits dispositifs. Enfin, une caractérisation bidimensionnelle des propriétés du rayonnement, transversalement à l'émission, montre la corrélation entre la croissance de la cohérence et celle du mode laser. Pour les dispositifs plus grands, cette analyse jette les bases pour l'étude du développement de la cohérence dans les lasers spatialement étendus. / Coherent light sources are nowadays ubiquitous in scientific research and engineering applications and have been miniaturized since their inception. Physically, the onset and development of laser coherence is largely affected by the cavity size reduction, but this becomes apparent only for the smallest Vertical Cavity Surface Emitting Lasers (VCSELs). Thus the following questions arise: When does coherence set in? How does it develop? How do we define threshold? Is there a unique threshold value and does it exist at all for a nanolaser? What is the dynamical response to modulation in this uncharted territory? In this thesis we explore the regime of laser operation around what is conventionally called the threshold point and obtain experimental answers to some of the questions from mesoscale lasers. Correlation functions, temporal dynamics, phase space reconstruction, statistical indicators and spatially-resolved intensity and emission wavelength measurements are the indicators for the answers we seek. The dynamical response is investigated by applying a sinusoidal modulation to very small VCSELs, where we obtain the amplification of pulses in the threshold region, anomalous amplification of the spontaneous emission (in a cross-polarized channel), regular and (mostly) irregular pulsations due to the strong influence of spontaneous emission in these small devices. Finally, a two-dimensional characterization of the radiation properties transversely to the emission shows the correlation between coherence buildup and the establishment of a laser mode. For larger devices, this analysis lays the foundation for investigating the buildup of coherence in spatially extended lasers.
|
Page generated in 0.0563 seconds