• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5991
  • 1673
  • 709
  • 10
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 8326
  • 2691
  • 2690
  • 1642
  • 1359
  • 1223
  • 866
  • 846
  • 823
  • 646
  • 583
  • 527
  • 514
  • 498
  • 478
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
491

Transport par fluidisation en phase hyperdense : amélioration technologique, modélisation et dimensionnement

Turzo, Gabriel 15 February 2013 (has links) (PDF)
Cette étude est consacrée à la compréhension des phénomènes mis en jeu dans les écoulements fluidisés denses verticaux ascendant et descendant, ainsi que dans leur couplage avec un écoulement fluidisé dense horizontal dans une enceinte à pression contrôlée. Tout d'abord une étude hydrodynamique, réalisée dans une colonne de fluidisation classique sans circulation de solide, a permis de déterminer les différentes grandeurs caractéristiques de la suspension lors de sa fluidisation et de sa désaération, indispensables à la compréhension et à la modélisation des écoulements : Vitesses minimales de fluidisation et de bullage. Porosités au minimum de fluidisation et de bullage. Porosité de la phase dense. Vitesse de désaération et de sédimentation. Puis, l'influence des paramètres tant géométriques (diamètre de la colonne d'expédition, longueur de la partie horizontale, …) qu'opératoires (vitesses de fluidisation de la partie horizontale et d'aération de la colonne d'expédition, politique de dégazage, …) sur le comportement global de deux unités pilotes a mis en évidence les paramètres clés du procédé : Vitesse de fluidisation de la partie horizontale. Politique de dégazage. Aération de la colonne d'expédition. Les transferts de gaz entre les différentes zones du procédé ont également été mis en évidence grâce à l'utilisation d'un traceur gazeux. Enfin, une modélisation de type monodirectionnelle est entreprise dans le but de simuler le comportement des suspensions fluidisées denses en écoulement verticaux ascendant et descendant. Les résultats obtenus concordent de manière très satisfaisante avec les mesures expérimentales. Ils permettent de mettre en évidence les mécanismes de transport ascendant de solide. De plus, le logiciel de calcul ainsi créé permet d'optimiser les dimensions d'une conduite verticale accueillant une suspension fluidisée dense en écoulement descendant afin d'en garantir le bon fonctionnement.
492

Modélisation des calottes polaires par des formulations multi-modèles, / Modeling ice flow dynamics with advanced multi-model formulations

Seroussi, Hélène 22 December 2011 (has links)
La modélisation numérique des écoulements de glace est indispensable pour prédire l’évolution des calottes polaires suite au réchauffement climatique. De récentes études ont souligné l’importance des modèles d’écoulement dits d’ordre supérieur voir même de Stokes au lieu de la traditionnelle approximation de couche mince dont les hypothèses ne sont pas valables dans certaines zones critiques mais à l’étendue limitée. Cependant, ces modèles d’ordre supérieur sont difficiles à utiliser à l’échelle d’un continent en raison de leurs temps de calculs prohibitifs. Ce travail de thèse propose une nouvelle technique qui permet de réduire les temps de calculs tout en maximisant la précision des modèles. Plusieurs modèles d’écoulement de glace de complexité variables ont été mis en place dans ISSM (Ice Sheet System Model), un code élément fini massivement parallèle développé par le Jet Propulsion Laboratory. L’analyse et la comparaison des différents modèles, à la fois sur des cas théoriques et réels, montrent que l’utilisation des modéles les plus complets est principalement nécessaire au voisinage de la zone d’échouage, transition entre les parties flottantes et posées de la glace, mais aussi que des modèles plus simples peuvent être utilisés sur la majeure partie des glaciers. Coupler différents modèles présente donc un avantage significatif en terme de temps de calcul mais aussi d’amélioration de la physique utilisées dans les modèles. Plusieurs méthodes de couplage de modèles existent et sont présentées dans ce manuscrit. Une nouvelle technique, dite de tuilage, particulièrement adaptée au couplage de modèles d’écoulement de glace est décrite ici : son principe repose sur la superposition et le raccordement de plusieurs modèles mécaniques. Une analyse mathématique est effectuée afin de définir les conditions d’utilisation de cette méthode de tuilage. Le traitement du couplage entre un modèle de Stokes et des modèles simplifiés, pour lesquels le calcul des vitesses horizontales et verticales est découplé, est ensuite présenté. Cette technique a été mise en place dans ISSM afin de pouvoir créer des modèles hybrides combinant plusieurs modèles d’écoulement de complexité variable. Après avoir été validée sur des cas synthétiques, cette technique est utilisée sur des glaciers réels comme Pine Island Glacier, dans l’Antarctique de l’Ouest, afin d’illustrer sa pertinence. Les modèles hybrides ont le potentiel d’améliorer la précision des résultats en combinant différents modèles mécaniques, utilisés chacun dans les zones où leurs approximations sont valides, tout en réduisant les temps de calcul et en étant compatibles avec les ressources informatiques actuelles. / Ice flow numerical models are essential for predicting the evolution of ice sheets in a warming climate. Recent research emphasizes the need for higher-order and even full-Stokes flow models instead of the traditional Shallow-Ice Approximation whose assumptions are not valid in certain critical but spatially limited areas. These higher-order models are however computationally intensive and difficult to use at the continental scale. The purpose of this work, therefore, is to develop a new technique that reduces the computational cost of ice flow models while maximizing their accuracy. To this end, several ice flow models of varying order of complexity have been implemented in the Ice Sheet System Model, a massively parallelized finite element software developed at the Jet Propulsion Laboratory. Analysis and comparison of model results on both synthetic and real geometries shows that sophisticated models are only needed in the grounding line area, transition between grounded and floating ice, whereas simpler models yield accurate results in most of the model domain. There is therefore a strong need for coupling such models in order to balance computational cost and physical accuracy. Several techniques and frameworks dedicated to model coupling already exist and are investigated. A new technique adapted to the specificities of ice flow models is developed: the Tiling method, a multi-model computation strategy based on the superposition and linking of different numerical models. A mathematical analysis of a mixed Tiling formulation is first performed to define the conditions of application. The treatment of the junction between full-Stokes and simpler models that decouple horizontal and vertical equation is then elaborated in order to rigorously combine all velocity components. This method is finally implemented in the Ice Sheet System Model to design hybrid models that combine several ice flow approximations of varying order of complexity. Following a validation on synthetic geometries, this method is applied to real cases, such as Pine Island Glacier, in West Antarctica, to illustrate its relevance. Hybrid models have the potential to significantly improve physical accuracy by combining models in their domain of validity, while preserving the computational cost and being compatible with the actual computational resources.
493

Extracting cell complexes from 4-dimensional digital images / Généralisation à dimension 4 des méthodes pour manipuler des images numériques binaires

Pacheco-Martínez, Ana María 10 July 2012 (has links)
Une image numérique peut être définie comme un ensemble de n-xels sur une grille constituée de n-cubes. La segmentation consiste à calculer une partition d'une image en régions. Les n-xels ayant des caractéristiques similaires (couleur, intensité, etc.) sont regroupés. Schématiquement, à chaque n-xel est attribuée une étiquette, et chaque région de l'image est constituée de n-xels de même étiquette. Les méthodes "de type" Marching cubes et Kenmochi et al. construisent des complexes représentant la topologie de la région d'intérêt d'une image numérique binaire de dimension 3. Dans la première méthode, l'algorithme construit un complexe simplicial, dont 0-cellules sont des points des arêtes de la grille duale. Dans la deuxième méthode, les auteurs construisent un complexe cellulaire sur une grille duale, c.a.d les 0-cellules du complexe sont des sommets de la grille duale. Afin de construire le complexe, Kenmochi et al. calculent (à rotations près) les différentes configurations de sommets blancs et noirs d'un cube, puis, ils construisent les enveloppes convexes des points noirs de ces configurations. Ces enveloppes convexes définissent les cellules du complexe, à rotations près. Le travail développé dans cette thèse étend la méthode de Kenmochi et al. en dimension 4. L'objectif est de construire un complexe cellulaire à partir d'une image numérique binaire définie sur une grille duale. Nous calculons d'abord les différentes configurations de sommets blancs et noirs d'un 4-cube (à isométries près), puis, nous construisons des enveloppes convexes définies par ces configurations. Ces enveloppes convexes sont construites par déformation du 4-cube d'origine, et nous distinguon / A digital image can be defined as a set of n-xels on a grid made up by n-cubes. Segmentation consists in computing a partition of an image into regions. The n-xels having similar characteristics (color, intensity, etc.) are regrouped. Schematically, each n-xel is assigned a label, and each region of the image is made up by n-xels with the same label. The methods "type" Marching cubes and Kenmochi et al. construct complexes representing the topology of the region of interest of a 3-dimensional binary digital image. In the first method, the algorithm constructs a simplicial complex, whose 0-cells are points of the edges of the dual grid. Inthe second one, the authors construct a cell complex on a dual grid, i.e. the 0-cells of the complex are vertices of the dual grid. In order to construct the complex, Kenmochi et al. compute (up to rotations) the different configurations of white and black vertices of a cube, and then, they construct the convex hulls of the black points of these configurations. These convex hulls define the cells of the complex, up to rotations. The work developed in this thesis extends Kenmochi et al. method todimension 4. The goal is to construct a cell complex from a binary digital image defined on a dual grid. First, we compute the different configurations of white and black vertices of a 4-cube, up to isometries, and then, we construct the convex hulls defined by these configurations. These convex hulls are constructed by deforming the original 4-cube, and we distinguishseveral basic construction operations (deformation, degeneracy of cells, etc.). Finally, we construct the cell complex corresponding to the dual image by assembling the cells so o / Una imagen digital puede ser definida como un conjunto de n–xeles en un mallado constituido de n–cubos. Los n–xeles pueden ser identificados con: (1) los n–cubos del mallado, o con (2) los puntos centrales de estos n–cubos. En el primer caso, trabajamos con un mallado primal, mientras que en el segundo, trabajamos con un mallado dual construido a partir del mallado primal. La segmentación consiste en calcular una partición de una imagen en regiones. Los n–xeles que tienen características similares (color, intensidad, etc.) son reagrupados. Esquemáticamente, a cada n–xel se le asocia una etiqueta, y cada región de la imagen está constituida de n–xeles con la misma etiqueta. En particular, si las únicas etiquetas permitidas para los n–xeles son “blanca” y “negra”, la segmentación se dice binaria: los n–xeles negros forman el primer plano (foreground) o región de interés en cuestión de análisis de la imagen, y los n–xeles blancos forman el fondo (background). Ciertos modelos, como los Grafos de Adyacencia de Regiones (RAGs), los Grafos Duales (DGs) y la carta topológica, han sido propuestos para representar las particiones en regiones, y en particular para representar la topología de estas regiones, es decir las relaciones de incidencia y/o adyacencia entre las diferentes regiones. El RAG [27] es un precursor de este tipo de modelos, y ha sido una fuente de inspiración de los DGs [18] y de la carta topológica [9, 10]. Un RAG representa una imagen primal etiquetada por un grafo: los vértices del grafo corresponden a regiones de la imagen, y las aristas del grafo representan las relaciones de adyacencia entre la regiones. Los DGs son un modelo que permite resolver ciertos inconvenientes de los RAGs para representar imágenes de dimensión 2. La carta topológica es una extensión de los modelos anteriores definida para manipular imágenes primales de dimensión 2 y 3, representando no solamente las relaciones topológicas, sino también las relaciones geométricas.
494

Confinement de la détonation d'un objet explosif par mousse aqueuse sèche. Etude expérimentale et numérique / Confinement of an Explosive Device Detonation Using Dry Aqueous Foam. Experimental and Numerical Study

Ballanger, Félix 03 October 2016 (has links)
Dans un contexte de protection des biens et des personnes, le CEA DAM s’intéresse aux mousses aqueuses pour leur capacité à confiner une détonation.D’une part, le but est d’atténuer les effets de souffle liés à la détonation d’un engin explosif. D’autre part, il est souhaitable de ralentir ou de capturer les particules solides, potentiellement nocives, qui pourraient être dispersées.L’objectif de cette thèse est de comprendre les phénomènes physiques sous-jacents à ces deux problématiques, au travers de la réalisation d’expériences et de leur modélisation numérique.Les mousses aqueuses sont des milieux diphasiques, assemblages de bulles de gaz encapsulées dans une matrice de films liquides et de Bords de Plateau.Cette étude se concentre sur les mousses communément dites sèches, i.e. dont la fraction volumique de liquide est inférieure à 5%. Les travaux réalisés sont présentés en trois grandes parties. La première concerne la propagation des ondes de choc dans les mousses aqueuses. Elle présente une campagne expérimentale en tube à choc, menée à l’ENSTA Bretagne, dont les résultats permettent la mise en évidence de l’influence du gaz composant la mousse sur le ralentissement et l’atténuation du front de choc.La deuxième partie s’intéresse à l’atténuation des ondes de souffle issues d’une détonation. Deux campagnes ont été conduites : l’une à l’ISAE-ENSMA en mettant en œuvre un tube à détonation rempli d’un mélange réactif gazeux, l’autre au CEA/Gramat en utilisant la détonation d’un explosif solide en champ libre. Ces deux configurations amènent à l’observation de l’atténuation des phénomènes de souffle provenant de la détonation.Le modèle numérique qui s’appuie sur un formalisme multiphasique compressible, a permis d’appréhender la phénoménologie et l’importance relative des différents mécanismes de transferts entre phases, en y incluant notamment deux étapes de fragmentation de la mousse. Les résultats expérimentaux des trois précédentes campagnes et les résultats numériques sont en très bon accord.La dernière partie concerne l’étude du ralentissement et de la capture de particules micrométriques par la mousse aqueuse. Deux campagnes ont été menées à cet effet. La première consiste à étudier la dynamique à haute vitesse d’un nuage de particules métalliques, qui a été projeté par un explosif au sein d’une mousse. A l’aide de radiographies X, la position et la forme du nuage sont analysées au cours de sa propagation. Le freinage des particules parla mousse est manifeste. La deuxième campagne quantifie le taux de particules capturées par un confinement de mousse aqueuse.Ainsi, une comparaison de la dispersion de particules métalliques micrométriques a été effectuée pour différentes tailles de confinement. Ces résultats ont permis d’attester des bonnes propriétés de capture des particules dispersées par une charge explosive dans les mousses aqueuses. / In order to improve the protection of goods and persons, the French CEA DAM is interested in aqueous foams for their ability to mitigate the detonation outcome. Two objectives are put forward. The first one is to attenuate the blast effects induced by the detonation of an explosive device. The second one is to slow down or to capture potentially harmful solid particles, which could be dispersed by the considered device.As such, the aim is to understand the underlying physics of such phenomenon. Several experiments have been undertaken and compared to a multiphase numerical modelling.Aqueous foam is a two-phase medium, composed of gaseous bubbles within a liquid matrix made of films and Plateau Borders. This study focuses on dry aqueous foams, i.e. with a liquid volumic fraction lower than 5%. The presentation of the study is divided into three parts. The first one deals with the shock wave propagation through aqueous foam. An experimental campaign on a shock tube, at ENSTA Bretagne, is presented, whose results highlight the influence of the gas which fills the cells of the foam on the shock front behavior.The second part is related to the blast wave attenuation. Two experimental campaigns were conducted: one in a detonation tube with a reactive gaseous mixture, at ISAE-ENSMA and another one, using condensed explosive, at CEA/Gramat. In both cases, the results lead to the mitigation of the detonation induced blast effects.There is a good agreement between these three experimental results and the numerical results from the multiphase model. This enables us to clarify the phenomenology and quantify the different interphase exchange, which evolve as the foam fragmentation proceeds in two steps.The last part is about the aqueous foam ability to slow down or to capture micrometric particles. Two campaigns were conducted on this subject. The first one studied the high velocity dynamics of a cloud of particles propelled by an explosive into an aqueous foam. Using X-ray radiography, both the position and the shape of the cloud are analysed during its propagation through the foam. A strong decrease in speed of the particles is observed. The second campaign aimed to quantify the particle ratio captured by an aqueous foam confinement. To that end, several sizes of aqueous foam confinement have been compared. The results show the good properties of the foam to inhibit the particle dispersal by an explosive.
495

Sources vibratoires et effets sur l'environnement / Sources of vibrations and their impact on the environnement

Jamal eddine, Abdul Karim 25 September 2017 (has links)
Les vibrations dans les sols constituent un problème environnemental de plus en plus important. Cette étude adresse plusieurs aspects des vibrations du sol. Les conditions locales du site et l'amplification des ondes sismiques représentent un sujet largement étudié en sismologie et en ingénierie sismique. Bien que la plupart des études soient consacrées à la sismologie d'ingénierie et à l'ingénierie sismique, des approches similaires pour la classification des sols et l'amplification du site n'ont pas encore été pleinement établies dans le domaine des vibrations urbaines.D'abord, une stratégie d’optimisation pour la méthode des couches absorbantes a été développée afin d'améliorer la précision des modèles par éléments finis. La conception de couches absorbantes simples en éléments finis par l'annulation de la partie réelle des ondes réfléchies dans le domaine du nombre complexe s'est révélée efficace lorsqu'elle est couplée à la réduction de la rigidité de la couche absorbante. Une réduction excessive de la rigidité ainsi que l'augmentation excessive du facteur de rigidité dans la matrice d'atténuation ont permis une grande réduction de la taille de la couche absorbante et par suite la conception d'une couche absorbante moins coûteuse.Ensuite, une partie importante du travail a été consacrée à la dérivation d'un nouvel ensemble de paramètres du type gradient de vitesse qui contrôle le transfert des vibrations à travers des sols multicouches. L'absence d'une approche compréhensive et bien structurée pour la prédiction et la classification des sites pour les problèmes de vibration laisse le problème large et compliqué. Différents sites ayant différentes propriétés mécaniques et géométriques ont été examinés à l'aide des éléments finis. Les réponses des sites ont été formulées dans des approches spectrales et temporelles simples. Les paramètres nouvellement dérivées ainsi que les lois spectrales servent de moyen de classification des sols multicouches pour les problèmes de vibrations et peuvent même être utilisées à des fins de conception.D’ailleurs, un outil d'intelligence artificielle pour prédire la réponse du sol en utilisant les paramètres précédemment dérivées associées aux propriétés géométriques de la couche de surface a été développé. L'outil des réseaux neurone a été utilisé pour analyser les effets paramétriques des paramètres de gradient de vitesse par rapport à la profondeur de la couche de surface. Des conclusions importantes ont été tirées de l'analyse concernant les propriétés mécaniques et géométriques des couches multiples et leurs effets variantes avec la distance de la source.Enfin, les enregistrements de sources multiples ont été étudiés en les comparants aux réponses spectrales des différents sites définis dans les sections précédentes. Le taux d'appariement entre le contenu spectral d'une source particulière et un site donné sert à évaluer l’aléa vibratoire causé par cette source au site correspondant. L'évaluation des risques de vibrations conduit à un lien de classification entre les sources d'une part et les sites caractérisés par des paramètres à gradient de vitesse d'autre part / Ground vibration is an increasingly important environmental problem. This study investigates multiple aspects of ground vibration. Local site conditions and the related amplification of seismic waves represent a widely studied topic in seismology and earthquake engineering. While most of the studies are dedicated to engineering seismology and earthquake engineering, similar approaches for soil classification and site amplification have not been yet fully established in the field of urban vibrations.First an improvement strategy for absorbing layer method was developed in order to enhance precision of the FEM models. The design of simple absorbing layers in FEM through the nullification of the real part of reflected waves in the complex number domain proved to be efficient when coupled with the stiffness reduction of the absorbing layer. Excessive reduction of the stiffness along with the excessive increase of the stiffness factor in the attenuation matrix enabled a large reduction in the size of the absorbing layer and therefore the design of an inexpensive absorbing layer.Afterwards an important part of the work was dedicated to the derivation of a new set of parameters of the velocity-gradient type that controls the vibration transfer through multilayered soil. The absence of a well-structured comprehensive approach for prediction and site classification for vibration problems leaves the problem broad and complicated. Different sites with different mechanical and geometrical properties were examined using FEM and their surface response was studied. Sites responses were formulated in simple time domain and spectral approaches. The newly derived proxies along with the spectral laws serve as a classification mean for multilayered soils in the vibration problem and may even be used for design purposes.An artificial intelligence tool for predicting soil response using the previously derived proxies coupled with the geometrical properties of the surface layer was later developed. The neural networks tool was used to analyze the parametric effects of the velocity-gradient proxies versus that of the surface layer’s depth. Important conclusions were derived from the analysis regarding the mechanical and geometrical properties of multiple layers and their varying effects with distance from the source.Finally multiple sources recordings were studied through comparing them with the spectral responses of different sites defined in the previous sections. The rate of matching between the spectral content of a particular source and a given site serves as a mean to assess the vibration hazard caused by this source to the corresponding site. The vibration hazard assessment leads to a classification link between sources in one hand and sites characterized by velocity-gradient proxies on the other hand
496

Statistical modeling of bladder motion and deformation in prostate cancer radiotherapy / Modélisation statistique du mouvement et de la déformation de la vessie dans la radiothérapie du cancer de la prostate

Rios Patiño, Richard 02 May 2017 (has links)
Le cancer de la prostate est le cancer le plus fréquent chez les hommes dans la plupart des pays développés. C'est le cancer le plus fréquent chez les hommes en France (73.609 cas en 2014) et en Colombie (9564 cas en 2014). En outre, c'est la troisième cause de décès par cancer chez les hommes dans les deux pays (9,3 % en France et 7,1 % en Colombie en 2014). L'une des techniques de traitement est la radiothérapie externe, qui consiste à délivrer un rayonnement ionisant à une cible clinique, à savoir la prostate et les vésicules séminales. En raison des variations anatomiques au cours du traitement, qui consiste en environ 40 fractions de rayonnement délivrant une dose totale allant de 70 à 80Gy, des marges de sécurité sont définies autour de la cible tumorale lors de la planification du traitement. Ceci entraîne des portions d'organes sains voisins de la prostate - la vessie et le rectum - à être inclus dans le volume cible, pouvant conduire à des événements indésirables affectant les fonctions urinaires (hématurie et cystite, entre autres) ou rectale (saignement rectal, incontinence fécale, Etc.). La vessie présente les plus grandes variations de forme entre fractions de traitement, provoquées par des changements continus de volume. Ces variations de forme introduisent des incertitudes géométriques qui rendent difficile l'évaluation de la dose réellement délivrée à la vessie pendant le traitement. Ces incertitudes limitent la possibilité de modéliser une relation dose-volume pour la toxicité génito-urinaire tardive (GU). Le projet QUANTEC (Quantitative Analysis of Normal Tissue Effects in the Clinic) a déclaré que la relation dose-réponse pour la toxicité gastro-intestinale tardive (GI) était loin d'être établie. Les variables dosimétriques obtenues à partir de la tomodensitométrie de planification peuvent être faiblement représentative de la dose effectivement administrée. En conséquence, il est crucial de quantifier les incertitudes produites par les variations inter-fraction de la vessie afin de déterminer les facteurs dosimétriques qui affectent les complications GU tardives. Le but de cette thèse était donc de caractériser et de prédire les incertitudes produites par les variations géométriques de la vessie entre les fractions de traitement, en utilisant uniquement la tomodensitométrie de planification comme information d'entrée. En pratique clinique, une seule tomodensitométrie est disponible au moment de la planification du traitement pour un patient typique, alors que des images supplémentaires peuvent être acquises en cours de traitement. Dans cette thèse une approche population a été utilisée pour obtenir suffisamment de données pour apprendre les directions les plus importantes du mouvement et de la déformation de la vessie en utilisant l'analyse en composante principales (ACP). Comme dans les travaux de référence, ces directions ont ensuite été utilisées pour développer des modèles basés population pour prédire et quantifier les incertitudes géométriques de la vessie. Cependant, nous avons utilisé une analyse longitudinale afin de caractériser correctement la variance du patient et les modes spécifiques du patient à partir de la population. Nous avons proposé d'utiliser un modèle à effets mixtes (ME) et une ACP hiérarchique pour séparer la variabilité intra et inter-patients afin de contrôler les effets de cohorte confondus. Finalement, nous avons présenté des modèles sur l'APC comme un outil pour quantifier des incertitudes de la dose produit par le mouvement et déformation de la vessie entre fractions. / Prostate cancer is the most common cancer amongst the male population in most developed countries. It is the most common cancer amongst the male population in France (73.609 cases in 2014) and in Colombia (9564 cases in 2014). It is also the third most common cause of cancer deaths in males in both countries (9.3% and 7.1% in France and in Colombia in 2014, respectively). One of the standard treatment methods is external radiotherapy, which involves delivering ionizing radiation to a clinical target, namely the prostate and seminal vesicles. Due to the uncertain location of organs during treatment, which involves around forty (40) radiation fractions delivering a total dose ranging from 70 to 80Gy, safety margins are defined around the tumor target upon treatment planning. This leads to portions of healthy organs neighboring the prostate or organs at risk — the bladder and rectum — to be included in the target volume, potentially resulting in adverse events affecting patients’ urinary (hematuria and cystitis, among others) or rectal (rectal bleeding, fecal incontinence, etc.) functions. The bladder is notorious for presenting the largest inter-fraction shape variations during treatment, caused by continuous changes in volume. These variations in shape introduce geometric uncertainties that render assessment of the actual dose delivered to the bladder during treatment difficult, thereby leading to dose uncertainties that limit the possibility of modeling dose-volume response for late genitourinary (GU) toxicity. The Quantitative Analysis of Normal Tissue Effects in the Clinic (QUANTEC) project has stated that a similar dose-response to that of late gastrointestinal (GI) toxicity is far from being established. The dosimetric variables obtained from the planning CT prove to be very poor surrogates for the real delivered dose. As a result, it appears crucial to quantify uncertainties produced by inter-fraction bladder variations in order to determine dosimetric factors that affect late GU complications. The aim of this thesis was thus to characterize and predict uncertainties produced by geometric variations of the bladder between fractions, using solely the planning CT as input information. In clinical practice, a single CT scan is only available for a typical patient during the treatment planning while on-treatment CTs/CBCTs are seldom available. In this thesis, we thereby used a population approach to obtain enough data to learn the most important directions of bladder motion and deformation using principal components analysis (PCA). As in groundwork, these directions were then used to develop population-based models in order to predict and quantify geometrical uncertainties of the bladder. However, we use a longitudinal analysis in order to properly characterize both patient-specific variance and modes from the population. We proposed to use mixed-effects (ME) models and hierarchical PCA to separate intra and inter-patient variability to control confounding cohort effects. . Subsequently, we presented PCA models as a tool to quantify dose uncertainties produced by bladder motion and deformation between fractions.
497

Vers un pont micro-méso de la rupture en compression des composites stratifiés / Toward a micro-meso bridge for the compressive failure of laminates

Feld, Nicolas 05 December 2011 (has links)
Les absorbeurs de chocs en matériaux composites sont capables de dissiper une grande quantité d'énergie, grâce à une compétition de deux mécanismes que sont le délaminage et la fragmentation des plis en compression. Ce second mode de rupture a pour origine le plissement, qui s'initie de façon intrinsèque à l'échelle des fibres. Cette thèse est une contribution à la modélisation multi-échelles de la rupture en compression pour la simulation de structures composites. A cette fin, on propose une stratégie en trois étapes. La première consiste à construire un modèle microscopique capable de représenter la physique du plissement. La difficulté est d'intégrer les influences pertinentes en termes de contrainte ultime et d'énergie absorbée, en particulier l'influence des défauts et du cisaillement. La seconde étape consiste à homogénéiser la réponse de ce micromodèle pour une variété de chargements représentatifs. Un modèle de comportement original et paramétré par les défauts de la microstructure est proposé. Il intègre des lois de comportement déterministes, identifiées par des simulations du micromodèle numérique. Enfin, la troisième étape a pour objet d’intégrer ce comportement basé sur la micromécanique dans un modèle à l'échelle du pli, existant et validé. L'implantation est réalisée dans le cadre d’un code de calcul hybride continu/discret, pour mener des simulations d'échantillons et observer les interactions entre le plissement et les autres modes de dégradation. / Composite shock-absorbing devices can dissipate a large amount of energy, thanks to the combined action of delamination and fragmentation of the plies in compression. The latter failure mode is due to kinking, which naturally arises at the scale of the fibers. This Ph.D. is a contribution to the multiscale modeling of this phenomenon for the simulation of composite structures. Therefore, three-step-strategy is adopted. The first step deals with the design of a microscopic model able to represent the kinematics and kinetics of kinking. The difficulty is to include all relevant parameters in terms of ultimate stress and dissipated energy, particularly defects and shear. The second step deals with the nonlinear homogenization of the micromodel reponse for several load paths. This is done by postulating an original constitutive model with a parametric influence of defects. It includes deterministic constitutive laws which are identified through numerical tests on the microstructure. Finally, the third step deals with the introduction of this micromechanics-based behavior in an existing and validated model at the scale of the plies. It is implemented in the framework of a hybrid continuous/discrete computation code, in order to perform sample-scale simulations and observe interactions between kinking and other failure mechanisms.
498

Etude de la météorologie de la planète Mars par assimilation de données satellite et modélisation / Study of the meteorology of planet Mars using satellite data assimilation and modeling

Navarro, Thomas 11 July 2016 (has links)
L'étude de l'atmosphère de la planète Mars repose sur la compréhension de sa structure thermique et du cycle de ses aérosols (poussière minérale et glace d'eau). Pour cela, une méthode de choix est l'utilisation d'un modèle de climat général, comparé aux observations satellite. Dans cette thèse, j'emploie le modèle de climat du Laboratoire de Météorologie Dynamique (LMD), en incluant tout d'abord un schéma de microphysique de la glace d'eau, ce qui permet de mieux reproduire les observations satellite du cycle de l'eau martien. Je poursuis cette étude en mettant en place un schéma d'assimilation de données pour le modèle du LMD. L'assimilation de données est une technique permettant d'estimer l'état atmosphérique grâce à une combinaison optimale d'un modèle et d'observations. L'objectif est d'assimiler des observations de profils verticaux de température, poussière, et glace de l'instrument Mars Climate Sounder avec une méthode de filtre de Kalman d'ensemble. L'assimilation de la température seule montre la nécessité d'estimer la présence et la quantité de poussière au moyen des covariances de l'ensemble pour diminuer le biais entre modèle et observations. L'assimilation conjointe des profils verticaux de température, poussières, et glace d'eau montre que les limitations de l'assimilation sont dues aux biais du modèle : phasage de l'onde de marée thermique, observations de variations diurnes inexpliquées de la poussière, mauvaise prédiction sur l'emplacement des nuages de glace d'eau, et un biais froid du modèle sous le niveau de 100 Pa. Toutefois, l'estimation de la poussière permet une prédictibilité du modèle jusqu'à plus d'une dizaine de jours dans cas les plus favorables. / The study of the atmosphere of Mars is based on the understanding of its thermal structure and the cycle of its aerosols (airborne dust and water ice). To do so, one preferred method is the use of a global climate model, compared to satellite observations.In this thesis, I employ the Laboratoire de Météorologie Dynamique (LMD) global climate model, first including a microphysical scheme of water ice clouds, resulting in a better reproduction of satellite observations of the Martian water cycle.I continue this study with the setup of a data assimilation scheme for the LMD model. Data assimilation is a technique that estimates the atmospheric state using an optimal combination of a model and observations. The goal is to assimilate observations of vertical profiles of temperature and aerosols from the instrument Mars Climate Sounder with an ensemble Kalman filter technique. The assimilation of temperature only shows the necessity to estimate dust using the ensemble covariances in order to decrease the bias between model and observations. The joint assimilation of vertical profiles of temperature, dust, and water ice shows that the assimilation performance is limited due to model biases: an incorrect phasing of the thermal tide, unexplained observed dust diurnal variations, a wrong prediction of water ice clouds location, and a model cold bias for temperatures below 100 Pa. However, dust estimation makes possible the predictability of the atmosphere, up to around ten days in the most favorable cases.
499

Apport de la pression sur les performances d'une cellule d'électrolyse de la vapeur d'eau à haute température / Contribution of pressure on performances of high temperature steam electrolysis cell

Cacciuttolo, Quentin 04 December 2014 (has links)
L'électrolyse de l'eau à haute température permet de produire de l'hydrogène et de l'oxygène à partir d'eau, d'électricité et de chaleur grâce à une cellule électrochimique en céramique. Le travail sous pression est étudié afin d'éviter une étape de pressurisation du gaz nécessaire au stockage de celui-ci. Un autoclave fonctionnant jusqu'à 850 °C et 30 bar a été conçu et deux modèles de demi-cellule représentant respectivement l'électrode à hydrogène et l'électrode à oxygène ont été développés pour cette étude.Le modèle a montré que la pression aide l'approvisionnement en vapeur d'eau jusqu'aux sites réactionnels. Les taux de conversion de la vapeur en hydrogène atteignent plus de 95 % à partir de 5 bar.Le modèle du côté oxygène montre un effet thermodynamique négatif de la pression qui est prédit par l'équation de Nernst. Il permet d'étudier les surpressions à l'intérieur de l'électrode et donc le risque de délamination de l'électrode. Le travail sous pression permet de réduire ce risque en diminuant de 96 % les surpressions entre 1 et 30 bar.Le banc a permis d'étudier expérimentalement l'électrode à oxygène grâce à un montage à trois électrodes. Ses performances sont améliorées avec la pression, ce qui permet de compenser l'effet thermodynamique négatif. Les gains de performance s'expliquent par l'effet mécanique de la pression, permettant d'améliorer les contacts au sein de l'électrode mais aussi par une amélioration de la circulation de gaz et une amélioration de la cinétique des réactions d'adsorption/désorption à la surface de l'électrode. / In order to improve the industrial attractiveness of high temperature steam electrolysis (HTSE), the increase in the operating pressure is one of the most promising solutions. In this context, this study is dedicated to the analysis of the pressure influence on the electrochemical reactions occurring in HTSE. A Model and experimental results dealing with the effect of pressure increase have been carried out. Concerning the cathodic side model, the limiting current density due to the lack of steam is shifted towards higher steam conversion rates by increasing the operating pressure. Regarding the anodic side, a negative thermodynamic effect is predicted by Nernst equation but no negative effect appears at high current density. Furthermore, the overpressure at the oxygen electrode decreases with the operating pressure (and so the risk of delamination is reduced). At the same time, experimental studies on three electrodes cell until 30 bars have been lead on the oxygen electrode. A positive effect of the pressure on the oxygen side performances has been observed. This gain in performance could be explained by three different mechanisms. The mechanic effect of pressure increase contact inside the electrode. Furthermore, high pressure improves gas circulation and adsorption/desorption kinetics at the surface of electrode.
500

Modélisation régionale des polluants à courte durée de vie (aérosols, ozone) en Arctique / Regional modeling of aerosols and ozone in the arctic : air quality and radiative impacts from local and remote pollution sources

Marelle, Louis 20 June 2016 (has links)
La région arctique s’ouvre peu à peu aux activités humaines, en raison du réchauffement climatique et de la fonte des glaces, dûs en partie aux effets radiatifs des aérosols et de l'ozone. En conséquence, les émissions locales de pollution en Arctique pourraient augmenter, et devenir prépondérantes comparées à la source historique liée au transport de pollution depuis les moyennes latitudes. Dans cette thèse, j’effectue des simulations régionales de la troposphère arctique avec le modèle WRF-Chem, combiné à de nouveaux inventaires des émissions de pollution locales en Arctique (navigation et torches pétrolières). Deux cas d’étude issus de campagnes de mesure par avion sont analysés. Premièrement, j’étudie un évènement de transport d’aérosols depuis l’Europe au printemps 2008, afin d’améliorer les connaissances sur cette source majeure de pollution. Deuxièmement, je détermine l’impact des émissions de la navigation en Norvège en été 2012, où la navigation Arctique est actuellement la plus intense. J’utilise ces cas d’étude pour valider la pollution modélisée et améliorer WRF-Chem en Arctique. J’effectue avec ce modèle amélioré des simulations des impacts actuels (2012) et futurs (2050) de la navigation et des torches pétrolières en Arctique. Les résultats indiquent que les torches sont et devraient rester une source majeure d’aérosols de carbone suie réchauffant en Arctique. La navigation en Arctique est une source de pollution importante en été et, en 2050, pourrait devenir une source majeure de pollution locale. / The Arctic is increasingly open to human activity due to rapid warming, associated with decreased sea ice extent. This warming is due, in part, to the effect of short-lived atmospheric pollutants (aerosols, ozone). As a result, Arctic pollutant emissions should increase in the future, and their impacts might become significant compared to the now predominant source due to pollution transport from the mid-latitudes. In this thesis, regional simulations of the Arctic troposphere are performed with the WRF-Chem model, combined with new emission estimates for oil and gas extraction and shipping in the Arctic. The model is used to analyze two case studies from recent airborne measurement datasets: POLARCAT-France in 2008, ACCESS in 2012. First, I investigate an aerosol transport event from Europe to the Arctic in spring 2008, in order to improve our understanding of this major source of Arctic pollution. Second, I determine the air quality and radiative impacts of shipping emissions in Northern Norway in summer 2012, where most current Arctic shipping occurs. I use these results to validate modeled pollution, and to improve WRF-Chem for Arctic studies. The updated model is used to investigate the current (2012) and future (2050) impacts of Arctic shipping and Arctic gas flaring in terms of air quality and radiative effects. Results show that Arctic flaring emissions are and should remain a strong source of local black carbon aerosols, causing warming, and that Arctic shipping is already a strong source of aerosols and ozone during summer. In 2050, diversion shipping through the Arctic Ocean could become a major source of local surface aerosol and ozone pollution.

Page generated in 0.1241 seconds