• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
431

Influence de l'orientation des grains de ferrite sur l'oxydation sélective de l'acier / Influence of ferrite grain orientation on selective oxidation of steel

Chen, Si 07 March 2012 (has links)
Le procédé de galvanisation en continu consiste à recouvrir les tôles d’aciers d’un revêtement de zinc en les immergeant dans un bain métallique fondu. Lors du recuit continu à 800°C sous atmosphère N2‐H2 qui précède l’immersion de la tôle dans le bain, la structure de l’acier est recristallisée et les oxydes de fer sont réduits. Il se produit en même temps la ségrégation et l’oxydation des éléments d’alliages moins nobles que le fer, les oxydes formés pouvant être à l’origine de défauts de revêtement. Afin de mieux comprendre les réactions d’oxydation sélective qui se produisent à la surface et en profondeur de l’acier, nous avons étudié la germination et la croissance d’oxydes sélectifs sur un acier ferritique. Des alliages binaires de FeMn ont été étudiés dans ce travail. Les particules d'oxyde sont composées de l'oxyde de manganèse MnO. L'oxydation externe dépend de l'orientation cristallographique du substrat. Des particules de différentes formes sont observées sur des grains de ferrite d'orientations différentes : des particules cubiques se trouvent sur la surface (100), des particules triangulaires sur la surface (110) et des particules hexagonales sur la surface (111). Une étude théorique plus approfondie a été réalisée à l'aide de simulation numérique par la méthode DFT et le code SIESTA. Aucune influence significative de la présence de manganèse n’a été trouvée sur l'énergie d'adsorption dissociative du dioxygène à l'échelle atomique. Cependant, la barrière de diffusion des atomes de Fe, Mn, et O est beaucoup plus faible sur la surface (110) que sur la surface (001). Ceci peut être une explication de la raison pour laquelle la taille des particules est plus grande sur la surface (110) que sur la surface (100). / Continuous galvanizing process involving immersion in a molten zinc bath is commonly used to form zinc coatings on steel sheets. Before hot‐dip galvanizing, the steel sheets are annealed at a temperature of 800°C in a N2 atmosphere containing 5 vol.% of H2, with only traces of water. This heat treatment is used to recrystallize the steel substrate and to reduce the iron oxides in order to improve the wettability by liquid zinc. At the same time, the less‐noble alloying elements of the steel preferentially oxidize and diffuse towards the surface. The aim of this study is a better understanding of selective oxidation of ferritic steels. The binary alloys of FeMn are studied in this work. The oxide particles are found to be composed of manganese oxide MnO. External oxidation is found to be dependent on the crystallographic orientation of the substrate. Particles of different shapes are observed on ferrite grains of different orientations: square particles are found on the (100) surface, triangle particles on the (110) surface and hexagon particles are found on the (111) surface. Further theoretical study was carried out using numerical simulation with DFT method and SIESTA code. No significant influence of manganese presence has been found on the dissociative adsorption energy of dioxygen at the atomic scale. However, the diffusion barrier of the Fe, Mn, and O atoms are much less on the (110) surface than on the (001) surface. This can be an explanation for why the particles are bigger on the (110) surface than on the (100) surface.
432

Higher-order languages : dualities and bisimulation enhancements / Langages d'ordre supérieur : dualités et techniques de bisimulation

Madiot, Jean-Marie 31 March 2015 (has links)
Les comportements des processus concurrents peuvent être exprimés en utilisant des calculs de processus, des langages formels simples qui permettent de démontrer des résultats mathématiques précis sur les interactions entre processus. Un exemple très simple est CCS, un autre exemple est le pi-calcul, plus expressif grâce à un mécanisme de communication de canaux. Dans ce dernier, on peut instaurer un système de types (pour raffiner l'analyse aux environnements plus contraints) et encoder le lambda-calcul (qui représente les calculs séquentiels).Certains de ces calculs, comme CCS ou des variantes du pi-calcul comme les calculs de fusions, ont une certaine propriété de symétrie. On utilise dans un premier temps cette symétrie comme un outil, pour prouver que deux encodages du lambda-calcul dans le pi-calcul sont en fait équivalents.Cette preuve nécessitant un système de types et une forme de symétrie, on se pose la question de l'existence d'un système de types pour les autres calculs symétriques, notamment les calculs de fusion, à laquelle on répond par la négative avec un théorème d'impossibilité.En analysant ce théorème, on découvre un contrainte fondamentale de ces calculs qui empêche l'utilisation des types, à savoir la présence d'une notion de relation d'équivalence entre les canaux de communication. Le relâchement de cette contrainte pour obtenir une relation de pré-ordre engendre un calcul intéressant qui recouvre des notions importantes du pi-calcul, absentes dans les calculs de fusion : les types et les noms privés. La première partie de la thèse se concentre sur l'étude de ce calcul.La deuxième partie de la thèse se concentre sur la bisimulation, une méthode pour établir l'équivalence de deux agents dans des langages d'ordre supérieur, par exemple le pi-calcul ou le lambda-calcul. Une amélioration de cette méthode est la théorie des techniques modulo, très puissante, mais qui malheureusement s'applique uniquement aux systèmes de premier ordre, comme les automates ou CCS.Cette thèse s'applique alors à décrire les langages d'ordre supérieur en tant que systèmes du premier ordre. On récupère ainsi la théorie générale des techniques modulo pour ces langages, en prouvant correctes la correspondance induite et les techniques spécifiques à chaque langage. On détaille les tenants et aboutissants de cette approche, pour fournir les outils nécessaires à son utilisation pour d'autres langages d'ordre supérieur. / The behaviours of concurrent processes can be expressed using process calculi, which are simple formal languages that let us establish precise mathematical results on the behaviours and interactions between processes. A very simple example is CCS, another one is the pi-calculus, which is more expressive thanks to a name-passing mechanism. The pi-calculus supports the addition of type systems (to refine the analysis to more subtle environments) and the encoding of the lambda-calculus (which represents sequential computations).Some of these calculi, like CCS or variants of the pi-calculus such as fusion calculi, enjoy a property of symmetry. First, we use this symmetry as a tool to prove that two encodings of the lambda-calculus in the pi-calculus are in fact equivalent.This proof using a type system and a form of symmetry, we wonder if other existing symmetric calculi can support the addition of type systems. We answer negatively to this question with an impossibility theorem.Investigating this theorem leads us to a fundamental constraint of these calculi that forbids types: they induce an equivalence relation on names. Relaxing this constraint to make it a preorder relation yields another calculus that recovers important notions of the pi-calculus, that fusion calculi do not satisfy: the notions of types and of privacy of names. The first part of this thesis focuses on the study of this calculus, a pi-calculus with preorders on names.The second part of this thesis focuses on bisimulation, a proof method for equivalence of agents in higher-order languages, like the pi- or the lambda-calculi. An enhancement of this method is the powerful theory of bisimulations up to, which unfortunately only applies for first-order systems, like automata or CCS.We then proceed to describe higher-order languages as first-order systems. This way, we inherit the general theory of up-to techniques for these languages, by proving correct the translations and up-to techniques that are specific to each language. We give details on the approach, to provide the necessary tools for future applications of this method to other higher-order languages.
433

Méthode des Eléments Finis pour les nanostructures métalliques : application au filtrage spectral dans le visible et extension au calcul modal en présence de dispersion / Finite element method for plasmonics nanostructures : application to spectral filtering in the visible range and extension to modal computation with dispersion

Brûlé, Yoann 18 November 2016 (has links)
Dans ce travail de Thèse de Doctorat, dans le contexte d’une application de filtrage optique pour la réalité augmentée des Viseurs Tête Haute (VTH), plusieurs possibilités de conception de filtres basés sur des résonances de nanoparticules métalliques sont explorées. Pour ce faire, une formulation de la Méthode des Éléments Finis (FEM) précédemment développée au sein de l’Institut Fresnel est appliquée à différentes structures électromagnétiques complexes. La validité des résultats de la FEM est alors vérifiée, dans une configuration extrêmement résonante d’un réseau bidimensionnel de nanocônes d’or illuminé dans des conditions d’absorption totale de la lumière incidente, par comparaison avec les résultats d’une autre méthode numérique complètement indépendante. Une fois validée dans cette configuration extrême, cette méthode a pu être utilisée afin de conduire une étude paramétrique sur deux types particuliers de réseaux de nanoparticules métalliques. Les résultats de cette étude paramétrique ont conduit aux designs de deux types de composant de filtrage de la lumière visible requis pour l’application VTH: celui de réseaux monodimensionnels de rubans d’argent permettant de réfléchir une partie du spectre lumineux pour une composante de polarisation de la lumière tout en étant globalement transparent pour l’autre composante de polarisation, et celui de réseaux bidimensionnels de nanocylindres à section elliptique permettant de réfléchir deux parties distinctes du spectre en fonction de la polarisation de la lumière incidente et ceci toujours avec des propriétés de transparence globale. Dans un dernier temps, une nouvelle formulation de la FEM est développée afin d’étendre cette méthode numérique au calcul des modes de résonance de ce type de nanostructures métalliques. En présence de structures incorporant des matériaux métalliques, dispersifs et dissipatifs, l’opérateur de Maxwell associé est non-linéaire en fréquence et non-Hermitien et donc difficile à aborder numériquement. Dans le but de linéariser cet opérateur vis-à-vis de la fréquence, le formalisme dit de “champs auxiliaires” a été implémenté numériquement aux éléments finis. La validité des résultats numériques obtenus est enfin vérifiée sur une cavité fermée puis sur différents cristaux photoniques bidimensionnels constitués de tiges métalliques de Drude. Enfin, dans le cas de structures ouvertes, une couche parfaitement adaptée (PML) dispersive est étudiée dans le cadre des problèmes modaux. / In this PhD, in the frame of a filtering application for augmented reality of Head-Up Display (HUD), several possibilities to design filters based on metallic nanoparticles resonances are explored. To do so, a Finite Element Method formulation previously developed within the Institut Fresnel is initially recalled and its implementation applied to various complex electromagnetic structures. The validity of its results is verified, in the particuliar case of an extremely resonant configuration consisting in a gold nanocones metallic grating illuminated in the condition of total absorption of light, by comparison with the results of another completely independent numerical method. Thus, the results of this implementation having been validated in this extreme configuration, they could then be used to conduct a parametric study on two particular types of metallic nanoparticles gratings significantly less resonant. The results of this parametric study have led to the design of both types of filtering component of the visible light required for the HUD application: the mono-dimensional silver ribbons gratings allowing to reflect a part of the visible spectrum for one polarization’s component of the light while being globally transparent for the other component, and that of two-dimensional silver nanocylinders of elliptic cross section allowing to reflect two distinct parts of the spectrum according to the polarization of incident light while still being globally transparent. In a last time, a new FEM formulation is developed in order to extend this numerical method to the resonances computation of this kind of metallic nanostructures. When metallic materials are involved into electromagnetic structures, the associated Maxwell operator is non-linear and non-Hermitian. The Eigenvalue problem to solve is practically impossible to implement into the FEM. In order to linearize the Maxwell operator toward the frequency, a formalism called “Auxiliary fields formalism” is introduced and implemented numerically. The validity of the results obtained through this implementation is then verified on a closed cavity and on several example of bi-dimensional photonic crystals made of Drude metallic rods. Finally, when tackling open structures, a dispersive perfectly matched layer (PML) is studied in the frame of eigenvalue problems.
434

Méthode EF2 et hyperréduction de modèle : vers des calculs massifs à l'échelle micro / FE2 method and hyperreduction : towards intensive computations at the micro scale

Peyre, Georges 22 September 2015 (has links)
Des méthodes de réduction de modèle sont utilisées pour diminuer le coût de calcul associé à des analyses paramétriques de structures qui requièrent un très grand nombre de simulations quasi-identiques. Parmi ces méthodes, l'hyperréduction de modèle est efficace pour attaquer les problèmes de mécanique non-linéaire. Une approche orientée objet de cette méthode dans le cadre d'un code éléments finis modulaire a été développée. L'architecture logicielle s'appuie sur un algorithme qui se déroule en deux étapes : une étape extit{offline} dans laquelle le modèle réduit est construit à partir d'états du système mécanique et une étape extit{online} de calcul réduit qui exploite le modèle réduit. La structure du code qui repose sur l'utilisation d'un élément réduit permet d'améliorer la performance, de simplifier la prise en main et de favoriser sa réutilisation dans les développements futurs de la méthode. En outre, la méthode d'hyperréduction est revisitée et améliorée : des bases réduites vectorielles et tensorielles sont mises en oeuvre pour traiter les champs de contraintes et de variables internes des calculs éléments finis non-linéaires. En particulier, l'accent est mis sur la prise en compte des conditions aux limites périodiques et des conditions de bord libre. Dans cette démarche, les conditions aux limites au bord du domaine réduit sont imposées dans l'équation de l'équilibre mécanique réduit. Des exemples d'inclusions élastiques fibre/matrice sont fournis ainsi qu'un calcul complet adaptatif non-linéaire sur plaque perforée. Pour prendre en compte les effets de la microstructure, les méthodes éléments finis au carré ($EF^{2}$) divisent le problème mécanique en deux échelles. A l'échelle microscopique, les équations de comportement sont intégrées sur le volume élémentaire représentatif (VER) sollicité en condition périodique. Le comportement de la structure macroscopique est déterminé par homogénéisation. Une méthode d'hyperréduction multidimensionnelle est appliquée au problème microscopique constitué de l'ensemble des volumes élémentaires représentatifs. On se sert d'un algorithme de Broyden-Fletcher-Goldfarb-Shanno (BFGS) pour mettre à jour les matrices tangentes macroscopiques en chaque point de Gauss. On parvient ainsi à diminuer le temps de calcul sur des modèles de faible dimension. Cependant, quand le nombre de degrés de liberté augmente, on démontre que l'hyperréduction de modèle multidimensionnelle ne parvient pas à réduire suffisamment les coûts de calcul. / Model Order Reduction (MOR) methods are used to cope with high computational costs typically involved in parametric analysis of structures requiring a huge number of almost similar simulations. Among them, a so-called hyperreduction method suitable for non-linear mechanical finite element (FE) problems is studied. An objected-oriented approach to deal with it in the framework of a FE software is carried out. The software design takes advantage of a two-level process : a so-called offline computation step in which the reduced model is set up based on collected snapshots of mechanical system states and an online high-speed reduced computation which runs the reduced model. The code design relying on a reduced element is expected to enhance performance, to give a clearer view over the process and to favour code reuse in subsequent developments of the method. Futhermore, the hyperreduction method is reviewed and is deeply improved : vector and tensor bases are introduced to deal with non-scalar fields which arise in non-linear mechanical FE problems and the mechanical balance is ensured in the extrapolation phase. A particular emphasis is placed on the treatment of free and periodic boundary conditions. In this approach, the boundary conditions at the edge of the reduced integration domain are enforced in the reduced balance equations. Numerical toy examples of elasticity fiber/matrix inclusions as well as a full adaptative non-linear simluation are provided to show the capabilities of the implementation. To take into account microstructural behaviors, FE2 methods consist in splitting the computation into two scales. At the micro scale the material constitutive equations are integrated over periodic RVEs. The behavior of the macro structure is carried out by a homogeneized process. A multidimensional hyperreduction method is applied to the massive micro problem composed of the set of the periodic RVEs. A BFGS algorithm is used to update the macro tangent matrices at each integration Gauss point. Some speed-ups are recorded for low dimensional models. However, as the number of degrees of freedom increases, the multidimensional hyperreduction method is proved to be far less efficient to cut computational costs down.
435

Large Scale Parallel Inference of Protein and Protein Domain families / Inférence des familles de protéines et de domaines protéiques à grande échelle

Rezvoy, Clément 28 September 2011 (has links)
Les domaines protéiques sont des segments indépendants qui sont présents de façon récurrente dans plusieurs protéines. L'arrangement combinatoire de ces domaines est à l'origine de la diversité structurale et fonctionnelle des protéines. Plusieurs méthodes ont été développées pour permettre d'inférer la décomposition des protéines en domaines ainsi que la classification de ces domaines en familles. L'une de ces méthodes, MkDom2, permet l'inférence des familles de domaines de façon gloutonne. les familles sont inférées l'une après l'autre de façon a créer un découpage des protéines en arrangement de domaines et un classement de ces domaines en familles. MkDom2 est a l'origine de la base de données ProDom et est essentiel pour sa mise à jour. L'augmentation exponentielle du nombre de séquences analyser a rendue obsolète cette méthode qui nécessite désormais plusieurs années de calcul pour calculer ProDom. nous proposons un nouvel algorithme, MPI_MkDom2, permettant l'exploration simultanée de plusieurs familles de domaines sur une plate-forme de calcul distribué. MPI_MkDom2 est un algorithme distribué et asynchrone gérant l'équilibrage de charge pour une utilisation efficace de la plate-forme de calcul; il assure la création d'un découpage non-recouvrant de l'ensemble des protéines. Une mesure de proximité entre les classifications de domaines est définie afin d'évaluer l'effet du parallélisme sur le partitionnement produit. Nous proposons un second algorithme MPI_MkDom3. permettant le calcul simultanée d'une classification des domaines protéiques et des protéines en familles partageant le même arrangement en domaines. / Protein domains are recurring independent segment of proteins. The combinatorial arrangement of domains is at the root of the functional and structural diversity of proteins. Several methods have been developed to infer protein domain decomposition and domain family clustering from sequence information alone. MkDom2 is one of those methods. Mkdom2 infers domain families in a greedy fashion. Families are inferred one after the other in order to create a delineation of domains on proteins and a clustering of those domains in families. MkDom2 is instrumental in the building of the ProDom database. The exponential growth of the number of sequences to process as rendered MkDom2 obsolete, it would now take several years to compute a newrelease of ProDom. We present a nous algorithm, MPI_MkDom2, allowing computation of several families at once across a distributed computing platform. MPI_MkDom2 is an asynchronous distributed algorithm managing load balancing to ensure efficient platform usage; it ensures the creation of a non-overlapping partitioning of the whole protein set. A new proximity measure is defined to assess the effect of the parallel computation on the result. We also Propose a second algorithm, MPI_mkDom3, allowing the simultaneous computation of a clustering of protein domains as well as full protein sharing the same domain decomposition.
436

Strain and defects in irradiated materials : a study using X-ray diffraction and diffuse scattering / Défauts et déformations au sein de matériaux irradiés : Etude par diffraction et diffusion diffuse des rayons X

Channagiri, Jayanth 04 December 2015 (has links)
Les faisceaux d'ions, sont communément utilisés dans le cadre de l'étude des matériaux du nucléaire dans le but de reproduire, dans une certaine mesure, les différentes sources d'irradiations auxquelles sont soumis ces matériaux. L’interaction des ions avec la matière induit la formation de défauts cristallins le long du trajet de ces ions, associée à d'importantes déformations au sein de la zone irradiée. L'un des principaux enjeux de l'industrie électro-nucléaire consiste en l'encapsulation, à long terme, des déchets nucléaires. La zircone yttriée (YSZ) est un des matériaux qui pourrait être utilisé comme matrice inerte pour la transmutation des actinides. Par conséquent, la compréhension du comportement d’YSZ sous différentes conditions d'irradiations est d'une importance capitale.Cette thèse est décomposée en deux parties distinctes. Dans la première partie de ce travail, nous avons utilisé plusieurs techniques avancées de diffraction des rayons X (DRX) dans le but de caractériser les défauts et déformations au sein de la zone irradiée des cristaux étudiés. Les profils de déformations et de défauts ont été modélisés par des fonctions B-splines cubiques et les données DRX ont été simulées en utilisant la théorie dynamique de la diffraction couplée à un algorithme de recuit simulé généralisé. Cette démarche a été appliquée au cas des monocristaux d'YSZ irradiés par des ions Au 2+ dans une large gamme de températures et de fluences. Les résultats ont été comparés avec ceux de la spectroscopie de rétrodiffusion de Rutherford en mode canalisé (RBS/C) obtenus pour les mêmes échantillons.La deuxième partie est consacrée au développement d'un modèle spécifique pour calculer la distribution bidimensionnelle d'intensité diffractée par des monocristaux irradiés de grandes dimensions et présentant des distributions de défauts réalistes. Pour atteindre cet objectif, nous avons mis en œuvre une approche de calcul parallèle haute performance (basée à la fois sur l'utilisation de processeurs multi-cœurs et de processeurs graphiques) afin de réduire les durées de calcul. Cette approche a été utilisée pour modéliser les cartographies X de l'espace réciproque de monocristaux d’YSZ présentant des défauts de structure complexe. / Ion beams are commonly used in the framework of nuclear materials in order to reproduce, in a controlled way, the different sources of irradiation that these materials are submitted to. The interaction of ions with the material induces the formation of crystalline defects along the path of these ions,associated with high strains in the irradiated region. One of the main issues of the electro-nuclearindustry is the encapsulation of the long-term nuclear waste. Yttria stabilized zirconia (YSZ) is one of the materials that can be used as an inert matrix for the transmutation of actinides and therefore,understanding its behaviour under different conditions of irradiation is of utmost importance.This thesis is divided into two distinct parts. In the first part of this work, we have used advanced X-raydiffraction (XRD) techniques in order to characterize the strain and the damage levels within the irradiated region of the crystals. The strain and the damage profiles were modelled using B-splines functions and the XRD data were simulated using the dynamical theory of diffraction combined with a generalized simulated annealing algorithm. This approach was used to study YSZ single crystals irradiated with Au 2+ ions in a wide range of temperatures and fluences. The results were compared with the RBS/C results obtained for same samples.The second part of the thesis is devoted to the development of a specific model for calculating the two-dimensional XRD intensity from irradiated single crystals with realistic dimensions and defectdistributions. In order to achieve this goal, we have implemented high-performance parallel computing (both multi-processing and GPU-based) to accelerate the calculations. The approach was used to successfully model the reciprocal space maps of the YSZ single crystals which exhibit a complex defect structure.
437

Analyse multi-échelle du processus de réionisation dans les simulations cosmologiques / Multi-scales analysis of the reionization process in numerical simulations

Chardin, Jonathan 19 September 2013 (has links)
La période de réionisation est une transition dans l'histoire de l'Univers qui change sont état d'ionisation. Les progrès en calcul intensif permettent maintenant de modéliser l'évolution du phénomène. D'habitude, les analyses se concentrent sur l'évolution de propriétés globales dans les simulations. Différemment, j'ai mis au point une nouvelle technique d'analyse de simulations qui permet d'appréhender le phémomène global de manière locale. Elle s'appuie sur l'extraction d'un arbre de fusion de régions HII pour caractériser le processus de réionisation. La technique a été appliqué dans plusieurs simulations où différents modèles de sources ont été considérés pour étudier leur impact sur la chrono-morphologie du processus. Dans un second temps, l’arbre a permis de caractériser l'histoire de réionisation passée de galaxies de types Voie Lactée. Enfin, la technique a été appliquée dans des simulations du Groupe Local pour quantifier l'histoire de réionisation de MW et M31. / The reionization period is a major step in the history of the Universe that change its ionization state. The increasing progress in high performance computing, allows us to model the phenomenon. Usually, the simulation analyses focus on global properties to constrain the impact of the physic put in the simulations. Alternately, I implemented a method of analysis that apprehend theglobal reionization in terms of multiple ‘local reionizations’. I extracted a merger tree of HII regions from the simulations to characterize the reionization process. I applied the technique in several cosmological simulations, where different ionizing source models were tested to investigate the impact of the source model on the reionization chrono-morphology. I also used the merger tree to characterize the past reionization history of MW type galaxies. I finally applied this methodology in Local Group simulations to quantify the reionization hystory of MW and M31.
438

Développement d’un macroélément pour l’étude des fondations superficielles sous charge sismique / A macroelement based model for the seismic study of shallow foundations

Abboud, Youssef 28 September 2017 (has links)
Cette thèse vise à développer une méthode pour la justification des fondations superficielles sous charge sismique dans le cadre du nouveau zonage sismique de la France, entré en vigueur en 2011 et des justifications post Fukushima. Elle s’inscrit dans le cadre d’un contrat de recherche entre l’IFSTTAR et EDF CEIDRE.Un modèle basé sur le concept de macroélément est développé pour étudier l’interaction sol-structure (ISS) en prenant en compte les différentes non linéarités. Sa formulation se base sur la théorie de l’élastoplasticité et s’inspire des normes en vigueur (Eurocodes 7 et 8) et. Les différents paramètres sont définis à partir d’essais au laboratoire ou in situ, ou à partir de simulations numériques en conditions statiques. Les coûts de calcul sont réduits du fait que les non linéarités liées à l’interaction sol-structure sont concentrés en des points particuliers du modèle de calcul. L’avantage du macroélément réside dans une formulation en efforts et déplacements, ce qui facilite son utilisation pour la justification des fondations (capacité portante, glissement, décollement, tassements, translations, distorsions et rotations).Le macroélément est implémenté dans le code par éléments finis CESAR LCPC et permet de simuler le comportement statique et sismique d’une fondation superficielle. Trois approches pour la modélisation de la radiation des ondes sismiques dans le sol sont comparées en considérant des chargements statiques et sismiques.Ensuite, des études paramétriques sont réalisées sur une structure en mettant en jeu plusieurs signaux réels. L’influence des différents paramètres de nocivité sur le comportement de la structure est étudiée.Le comportement statique et sismique d’un ouvrage réel est aussi analysé. Il s’agit d’un bâtiment fondé sur un radier reposant sur un sol stratifié. L’aléa sismique est défini par 5 accélérogrames d’accélération maximale égale à 0.4g. Des justifications normatives sont menées en se basant sur les résultats des différentes simulations réalisées / This PhD work concerns the elaboration of a method to verify the seismic sustainability of shallow foundations considering 2011 seismic zoning of France. It is a part of a research contract between EDF CEIDRE and IFSTTAR.To this end, a macroelement based model is developed in order to assess nonlinear soil structure interaction. The elastoplastic formulation of the macroelement constitutive model is compliant with the classical plasticity theory. The formulations for the plastic mechanisms are inspired from the applied standard (Eurocodes 7 & 8). The rate dependent response and the effects of the embedment and the soil inertia efforts are taken into account. The parameters for the constitutive model are defined from laboratory or field tests, or calibrated from static finite element method simulations. The calculation cost is significantly reduced due to the simplified modelling of the soil and its non linearities. Another advantage is that the macroelement based tool is formulated in terms of generalized variables (forces and displacements): this promotes its application in the verification of the sustainability of shallow foundations (bearing capacity, sliding, overturning, settlements, translations, rotations and distortions).The macroelement is implemented in the Finite Element software CESAR LCPC. It allows to simulate the static and the seismic behaviour of a shallow foundation. Three alternative approaches to assess SSI through this model are possible. These alternative approaches are explained and tested under static and seismic load.Then, it is used to perform parametric studies involving various input motions derived from earthquake recordings. The seismic response of a simple structure is studied with respect to the input motion key parameters.Finally, the static and seismic behaviour of a real structure is analysed. The structure is founded on a large raft foundation laying on a multi-layered soil. The seismic hazard is defined by five 0.4 g-PGA accelerograms. Verification to the applied standards is performed on the base of the simulation results, considering many features of the seismic behaviour
439

Optimisation de la planification en radiothérapie prostatique et ORL / Planning optimization in prostate and head-and-neck radiation therapy

Zhang, Pengcheng 02 July 2014 (has links)
Ces travaux portent sur l'optimisation de la planification en radiothérapie prostatique et ORL. De façon à améliorer le calcul dosimétrique, la méthode de calcul de dose dite « Pencil beam » a d'abord été modifiée en considérant un système de coordonnées sphériques, en améliorant le mode de correction des hétérogénéités et en accélérant le calcul en effectuant les opérations de convolution grâce à la transformée de Fourier rapide. L'approche proposée a été comparée aux méthodes classiques en utilisant différents fantômes numériques. Cette évaluation a démontré la précision de la méthode proposée ainsi que l'accélération des calculs d'un facteur 40 par la méthode utilisant la transformée de Fourier, au prix toutefois d'une dégradation de la précision des résultats. Dans un second temps, l'incorporation de critères biologiques lors de l'optimisation du plan de traitement a été mise en œuvre à travers l'équivalent convexe du modèle NTCP (probabilité de toxicité des tissus sains) et son optimisation. L'évaluation de cette approche a été réalisée sur les données de dix patients traités pour un cancer de la prostate et a montré que la méthode proposée produit des planifications cliniquement satisfaisantes avec de meilleurs résultats en termes de toxicité prédite. Une méthode de compensation des incertitudes géométriques survenant lors du traitement a aussi été proposée, reposant sur une décomposition en séries de Taylor et un filtre de Butterworth. Son évaluation a montré son efficacité en termes de réduction des oscillations de haute fréquence ainsi que de présence de points chauds et froids. Enfin, dans un contexte de radiothérapie adaptative en ORL, une étude permettant d'identifier le scénario optimal de replanification, c'est-à-dire le nombre et les moments des replanifications, a été menée. Les critères de comparaison considérés reposaient sur le calcul de la dose cumulée reçue notamment par les parotides lors du traitement complet. L'efficacité des replanifications a ainsi été démontrée, avec par exemple une diminution du risque de toxicité de 9% pour le scénario optimal. Les perspectives de ce travail concernent la combinaison de ces méthodes dans un processus complet de planification pour évaluer leur impact dans un contexte clinique. / This work focuses on the optimization of planning in prostate and head-and-neck radiation therapy. In order to improve the dose calculation, the Pencil Beam method was firstly modified by considering a spherical coordinate system, by improving the heterogeneities correction method and by accelerating the calculation by performing the convolution operations using the Fast Fourier Transform. The proposed approach was compared to conventional methods using different numerical phantoms. This evaluation demonstrated the accuracy of the proposed method and the acceleration of the calculations by a factor 40 by the method using the Fast Fourier Transform, but at the cost of deterioration in the accuracy of the results. In a second step, the incorporation of biological criteria in the optimization of the treatment plan has been implemented through an equivalent convex NTCP constraints and its optimization. The evaluation of this approach has been performed on the data of ten patients treated for prostate cancer and has shown that the proposed method produces clinically satisfactory plans with better results in terms of predicted toxicity. A method to compensate geometric uncertainties occurring during treatment has also been proposed, based on the expansion in series of Taylor and a Butterworth filter. Its evaluation has shown its effectiveness in reducing high-frequency oscillations as well as the presence of hot and cold spots. Finally, in the context of adaptive radiotherapy in head and neck, a study was conducted to identify the optimal scenario of replannings, i.e. the number and timing of replannings. The comparison criteria were based on the calculation of the cumulative dose received by the parotid during the whole treatment. The effectiveness of the replanning has been demonstrated, for example with a decreased risk of toxicity 9% for the optimal scenario. The perspectives of this work relate to the combination of these methods in a comprehensive planning process to assess their clinical impact.
440

Computational methods for event-based signals and applications / Méthodes de calcul pour les signaux événementiels et applications

Lagorce, Xavier 22 September 2015 (has links)
Les neurosciences computationnelles sont une grande source d'inspiration pour le traitement de données. De nos jours, aussi bon que soit l'état de l'art de la vision par ordinateur, il reste moins performant que les possibilités offertes par nos cerveaux ou ceux d'autres animaux ou insectes. Cette thèse se base sur cette observation afin de développer de nouvelles méthodes de calcul pour la vision par ordinateur ainsi que pour le calcul de manière générale reposant sur les données issues de capteurs événementiels tels que les "rétines artificielles". Ces capteurs copient la biologie et sont utilisés dans ces travaux pour le caractère épars de leurs données ainsi que pour leur précision temporelle : l'information est codée dans des événements qui sont générés avec une précision de l'ordre de la microseconde. Ce concept ouvre les portes d'un paradigme complètement nouveau pour la vision par ordinateur, reposant sur le temps plutôt que sur des images. Ces capteurs ont été utilisés pour développer des applications comme le suivi ou la reconnaissance d'objets ou encore de l'extraction de motifs élémentaires. Des plate-formes de calcul neuromorphiques ont aussi été utilisées pour implémenter plus efficacement ces algorithmes, nous conduisant à repenser l'idée même du calcul. Les travaux présentés dans cette thèse proposent une nouvelle façon de penser la vision par ordinateur via des capteurs événementiels ainsi qu'un nouveau paradigme pour le calcul. Le temps remplace la mémoire permettant ainsi des opérations complètement locales, ce qui permet de réaliser des machines hautement parallèles avec une architecture non-Von Neumann. / Computational Neurosciences are a great source of inspiration for data processing and computation. Nowadays, how great the state of the art of computer vision might be, it is still way less performant that what our brains or the ones from other animals or insects are capable of. This thesis takes on this observation to develop new computational methods for computer vision and generic computation relying on data produced by event-based sensors such as the so called “silicon retinas”. These sensors mimic biology and are used in this work because of the sparseness of their data and their precise timing: information is coded into events which are generated with a microsecond precision. This opens doors to a whole new paradigm for machine vision, relying on time instead of using images. We use these sensors to develop applications such as object tracking or recognition and feature extraction. We also used computational neuromorphic platforms to better implement these algorithms which led us to rethink the idea of computation itself. This work proposes new ways of thinking computer vision via event-based sensors and a new paradigm for computation. Time is replacing memory to allow for completely local operations, enabling highly parallel machines in a non-Von Neumann architecture.

Page generated in 0.0358 seconds