• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 524
  • 233
  • 59
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 814
  • 345
  • 343
  • 190
  • 151
  • 103
  • 95
  • 85
  • 84
  • 83
  • 70
  • 65
  • 59
  • 58
  • 57
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

Large-scale and high-quality multi-view stereo / Stéréo multi-vues à grande-échelle et de haute-qualité

Vu, Hoang Hiep 05 December 2011 (has links)
L'acquisition de modèles 3D des scènes réelles trouve son utilité dans de nombreuses applications pratiques, comme l'archivage numérique, les jeux vidéo, l'ingénierie, la publicité. Il existe principalement deux méthodes pour acquérir un modèle 3D: la reconstruction avec un scanner laser (méthode active) et la reconstruction à partir de plusieurs photographies d'une même scène prise dans des points de vues différentes (méthode passive). Si la méthode active permet d'acquérir des modèles avec une grande précision, il est cependant coûteux et difficile à mettre en place pour de grandes scènes extérieures. La méthode passive, ou la stéréo multi-vues est en revanche plus flexible, facile à mettre en oeuvre et surtout moins coûteuse que la méthode active. Cette thèse s'attaque au problème de la reconstruction de stéréo multi-vues à grande échelle et précise pour les scènes extérieures. Nous améliorons des méthodes précédentes et les assemblons pour créer une chaîne de stéréo multi-vues efficace tirant parti de l'accélération de cartes graphiques. La chaîne produit des maillages de qualité à partir d'images de haute résolution, ce qui permet d'atteindre les meilleurs scores dans de nombreuses évaluations. Aux plus grandes échelles, nous développons d'une part des techniques de type diviser-pour-régner pour reconstruire des morceaux partiaux de la scène. D'autre part, pour combiner ces résultats séparés, nous créons une nouvelle méthode qui fusionne rapidement des centaines de maillages. Nous réussissons à reconstruire de beaux maillages urbains et des monuments historiques précis à partir de grandes collections d'images (environ 1600 images de 5M Pixel) / Acquisition of 3D model of real objects and scenes is indispensable and useful in many practical applications, such as digital archives, game and entertainment industries, engineering, advertisement. There are 2 main methods for 3D acquisition : laser-based reconstruction (active method) and image-based reconstruction from multiple images of the scene in different points of view (passive method). While laser-based reconstruction achieves high accuracy, it is complex, expensive and difficult to set up for large-scale outdoor reconstruction. Image-based, or multi-view stereo methods are more versatile, easier, faster and cheaper. By the time we begin this thesis, most multi-view methods could handle only low resolution images under controlled environment. This thesis targets multi-view stereo both both in large scale and high accuracy issues. We significantly improve some previous methods and combine them into a remarkably effective multi-view pipeline with GPU acceleration. From high-resolution images, we produce highly complete and accurate meshes that achieve best scores in many international recognized benchmarks. Aiming even larger scale, on one hand, we develop Divide and Conquer approaches in order to reconstruct many small parts of a big scene. On the other hand, to combine separate partial results, we create a new merging method, which can merge automatically and quickly hundreds of meshes. With all these components, we are successful to reconstruct highly accurate water-tight meshes for cities and historical monuments from large collections of high-resolution images (around 1600 images of 5 M Pixel images)
312

Multiscale data assimilation approaches and error characterisation applied to the inverse modelling ofatmospheric constituent emission fields / Assimilation de données multi-échelle et caractérisation des erreurs pour la modélisation inverse des sources de polluants atmosphériques

Koohkan, Mohammad Reza 20 December 2012 (has links)
Dans les études géophysiques, l'assimilation de données a pour but d'estimer l'état d'un système ou les paramètres d'un modèle physique de façon optimale. Pour ce faire, l'assimilation de données a besoin de trois types d'informations : des observations, un modèle physique/numérique et une description statistique de l'incertitude associée aux paramètres du système. Dans ma thèse, de nouvelles méthodes d'assimilation de données sont utilisées pour l'étude de la physico-chimie de l'atmosphère: (i) On y utilise de manière conjointe la méthode 4D-Var avec un modèle sous-maille statistique pour tenir compte des erreurs de représentativité. (ii) Des échelles multiples sont prises en compte dans la méthode d'estimation BLUE. (iii) Enfin, la méthode du maximum de vraisemblance est appliquée pour estimer des hyper-paramètres qui paramètrisent les erreurs à priori. Ces trois approches sont appliquées de manière spécifique à des problèmes de modélisation inverse des sources de polluant atmosphérique. Dans une première partie, la modélisation inverse est utilisée afin d'estimer les émissions de monoxyde de carbone sur un domaine représentant la France. Les stations du réseau d'observation considérées sont impactées par les erreurs de représentativité. Un modèle statistique sous-maille est introduit. Il est couplé au système 4D-Var afin de réduire les erreurs de représentativité. En particulier, les résultats de la modélisation inverse montrent que la méthode 4D-Var seule n'est pas adaptée pour gérer le problème de représentativité. Le système d'assimilation des données couplé conduit à une meilleure représentation de la variabilité de la concentration de CO avec une amélioration très significative des indicateurs statistiques. Dans une deuxième partie, on évalue le potentiel du réseau IMS (International Monitoring System) du CTBTO pour l'inversion d'une source accidentelle de radionucléides. Pour évaluer la performance du réseau, une grille multi-échelle adaptative pour l'espace de contrôle est optimisée selon un critère basé sur les degrés de liberté du signal (DFS). Les résultats montrent que plusieurs régions restent sous-observées par le réseau IMS. Dans la troisième et dernière partie, sont estimés les émissions de Composés Organiques Volatils (COVs) sur l'Europe de l'ouest. Cette étude d'inversion est faite sur la base des observations de 14 COVs extraites du réseau EMEP. L'évaluation des incertitudes des valeurs des inventaires d'émission et des erreurs d'observation sont faites selon le principe du maximum de vraisemblance. La distribution des inventaires d'émission a été supposée tantôt gaussienne et tantôt semi-normale. Ces deux hypothèses sont appliquées pour inverser le champs des inventaires d'émission. Les résultats de ces deux approches sont comparés. Bien que la correction apportée sur les inventaires est plus forte avec l'hypothèse Gaussienne que semi-normale, les indicateurs statistiques montrent que l'hypothèse de la distribution semi-normale donne de meilleurs résultats de concentrations que celle Gaussienne. / Data assimilation in geophysical sciences aims at optimally estimating the state of the system or some parameters of the system's physical model. To do so, data assimilation needs three types of information: observations and background information, a physical/numerical model, and some statistical description that prescribes uncertainties to each componenent of the system.In my dissertation, new methodologies of data assimilation are used in atmospheric chemistry and physics: the joint use of a 4D-Var with a subgrid statistical model to consistently account for representativeness errors, accounting for multiple scale in the BLUE estimation principle, and a better estimation of prior errors using objective estimation of hyperparameters. These three approaches will be specifically applied to inverse modelling problems focussing on the emission fields of tracers or pollutants. First, in order to estimate the emission inventories of carbon monoxide over France, in-situ stations which are impacted by the representativeness errors are used. A subgrid model is introduced and coupled with a 4D-Var to reduce the representativeness error. Indeed, the results of inverse modelling showed that the 4D-Var routine was not fit to handle the representativeness issues. The coupled data assimilation system led to a much better representation of theCO concentration variability, with a significant improvement of statistical indicators, and more consistent estimation of the CO emission inventory. Second, the evaluation of the potential of the IMS (International Monitoring System) radionuclide network is performed for the inversion of an accidental source. In order to assess the performance of the global network, a multiscale adaptive grid is optimised using a criterion based on degrees of freedom for the signal (DFS). The results show that several specific regions remain poorly observed by the IMS network. Finally, the inversion of the surface fluxes of Volatile Organic Compounds (VOC) are carried out over Western Europe using EMEP stations. The uncertainties of the background values of the emissions, as well as the covariance matrix of the observation errors, are estimated according to the maximum likelihood principle. The prior probability density function of the control parameters is chosen to be Gaussian or semi-normal distributed. Grid-size emission inventories are inverted under these two statistical assumptions. The two kinds of approaches are compared. With the Gaussian assumption, the departure between the posterior and the prior emission inventories is higher than when using the semi-normal assumption, but that method does not provide better scores than the semi-normal in a forecast experiment.
313

Modélisation et simulation numérique du colmatage à l’échelle du sous-canal dans les générateurs de vapeur

Prusek, Thomas 11 December 2012 (has links)
Ce travail de thèse s'inscrit dans le cadre d'un projet de recherche industriel visant à améliorer les méthodes et les outils de simulation du comportement thermohydraulique et vibratoire dans les générateurs de vapeur des centrales nucléaires, en présence de colmatage. Le colmatage des générateurs de vapeur est un phénomène de déposition de matières au niveau d'interstices, appelés passages foliés, qui perturbe la libre circulation de l'écoulement appartenant au circuit secondaire. L'objectif de ces travaux de thèse est de disposer d'un modèle permettant de simuler ce phénomène dans l'intégralité du générateur de vapeur à l'échelle du sous-canal du faisceau de tubes. Le modèle proposé se décompose en deux étapes au niveau de chaque passage folié : une étape de déposition des particules, et une étape de consolidation du dépôt par précipitation d'espèces solubles. Une méthode inverse d'assimilation de données a été développée pour ajuster ce modèle sur les différentes observations issues du retour d'expérience disponible à EDF. Les résultats de simulation sont comparables aux données mesurées sur sites d'exploitation pour les générateurs de vapeur étudiés. L'impact du colmatage sur l'écoulement se caractérise par l'apparition de survitesses en partie supérieure du générateur de vapeur à l'origine d'instabilités vibratoires des tubes, et par la diminution du taux de recirculation. Par ailleurs, les résultats de simulation confirment qu'une augmentation du pH dans l'ensemble du circuit secondaire semble une solution intéressante pour atténuer le phénomène de colmatage. Ce remède est actuellement envisagé sur le parc nucléaire français. / In nuclear power plants, corrosion product deposits in the secondary side of steam generators may result in tube support plate flow blockage. Flow blockage is a deposit at the inlet of tube support plate flow holes. It may induce high velocity zones in the secondary flow, then vibrations and tube cracks in some cases. The main objective of this work is to model and simulate this deposit phenomenon in the whole steam generator. A new deposit model has been also developed and implemented in the frame of THYC. THYC is the EDF's reference code for the modelling of 3D two-phase thermal-hydraulic phenomena at the subchannel scale. The deposit model is defined by two main steps : particle deposition, and strengthening process due to soluble species precipitation in the pores of particle deposits. It is calibrated on blockage rates observed in steam generators using an inverse method also developed in this work. The relevance of this model is tested by comparing the simulation results to the actual levels of flow blockage observed in some nuclear plants. The main impact of flow blockage on the secondary flow is localized at the upper tube support plate and may induce tube vibrations. Moreover the simulation results underline the pH dependence of flow blockage phenomenon. A pH elevation of the secondary flow is one of the remedies currently considered on EDF's nuclear fleet.
314

Approche multi-échelle de la rupture des structures en béton : Influence des agrégats sur la longueur interne du matériau / Multiscale approach of concrete structure failure : Influence of aggregates on material internal length

Bui, Huu Phuoc 21 November 2013 (has links)
Pour l'analyse de durabilité et la conception économique (moins de matériel) de structures en matériaux ressemblant à du béton, la modélisation de la rupture est essentielle. Dans le cadre de la mécanique des milieux continus, une longueur interne est introduite dans les modèles non locaux pour remédier au problème lié à la sensibilité du maillage qui est une pathologie des modèles d'endommagement classiques , lorsqu'il s'agit de matériaux adoucissantes. Toutefois, l'évaluation de la longueur interne de hétérogénéités du matériau est toujours une question difficile, ce qui rend un problème obscur en utilisant des modèles non locaux. Nos travaux portent sur le développement d'un outil numérique basée sur la méthode des éléments en treillis (LEM) qui est un modèle discret pour la simulation et la prévision de la rupture des structures en béton. En utilisant le modèle de réseau à l'échelle mésoscopique, il n'est pas nécessaire d'introduire une longueur interne dans la loi de comportement, comme cela se fait dans les modèles non locaux, et nous pouvons affranchir ce paramètre en introduisant explicitement la mesotructure matérielle via une description géométrique. Basé sur l'outil numérique développé, nous avons étudié, en effectuant des tests numériques de traction uniaxiale, l'influence géométrique de la mesotructure du matériau ainsi que l'influence des conditions aux limites et de tailles d'échantillons (qui se traduisent par le gradient de sollicitation et le champ de rotation de matériel différents) sur le taille de la FPZ (fracture process zone) et sur la longueur caractéristique du matériau quasi-fragile homogénéisé. Ces études fournissent des recommandations/avertissements lors de l'extraction d'une longueur interne nécessaire pour les modèles nonlocaux à partir de la microstructure du matériau. Par ailleurs, les études contribuent un aperçu direct de l'origine mésoscopic de la taille FPZ et la longueur de la caractéristique du matériau, et par conséquent sur l'origine et la nature du comportement non linéaire du matériau. Ensuite, nous avons implanté le modèle du treillis dans la bibliothèque de SOFA développé par l'INRIA pour réaliser le couplage avec la méthode des éléments finis (MEF) afin de faire face avec des structures à grande échelle. Nous avons proposé un algorithme de couplage entre une approche macroscopique représentée par MEF et une approche mésoscopique infligés par LEM au sein d'une manière adaptative. Le modèle de couplage est d'abord utilisée pour valider l'approche multi-échelle proposée sur des simulations heuristiques. Et à long terme, il fournit un outil prometteur pour des simulations de grandes structures en matériaux quasi-fragiles de la vie réelle. / For durability analysis and economic design (less material) of structures made of concrete-like materials, modeling of cracking process and failure is essential. In the framework of continuum mechanics, an internal length is introduced in nonlocal models to remedy the problem related to mesh sensitivity which is a pathology of classical damage models, when dealing with softening materials. However, the assessment of the internal length from heterogeneities of the material is still a difficult question, which makes an obscure issue in using nonlocal models. Our work concerns developing of a numerical tool based on the Lattice Element Method (LEM) which is a discrete model for simulating and predicting fracture in concrete(-like) material. Using the lattice model at the mesoscopic scale, there is no need to introduce any internal length in the constitutive law, as done in nonlocal models, and we can enfranchise this parameter by explicitly introducing the material mesotructure via geometric description. Based on the developed numerical tool, we studied, by performing numerical uniaxial tensile tests, the geometric influence of the material mesotructure as well as the influence of the boundary conditions and specimen sizes (that result in different stress gradient and material rotation field) on the size of the FPZ (Fracture Process Zone) and on the characteristic length of the homogenized quasi-brittle material. These studies provide recommendations/warnings when extracting an internal length required for nonlocal damage models from the material microstructure. Moreover, the studies contribute a direct insight into the mesoscale origin of the FPZ size and the material characteristic length, and consequently into the origin and nature of the nonlinear behavior of the material. Then, we implemented the lattice model into SOFA library developed by INRIA for realizing the coupling with the Finite Element Method (FEM) in order to deal with large-scale structures. We proposed a strong coupling algorithm between a macroscopic approach represented by FEM and a mesoscopic approach dealt by LEM within an adaptive manner. The coupling model is first used to validate the multiscale approach proposed on heuristic simulations. And in the long term, it provides a promising tool for simulations of large-scale structures made of quasi-brittle materials of real life.
315

Dynamique et assemblage des communautés adventices : approche par modélisation statistique / Dynamic and assembly of weed species : approach by statistical modelling

Borgy, Benjamin 07 December 2011 (has links)
Dans un contexte de recherche de solutions pour une agriculture à la fois productive et durable, les principes, théories et méthodes de l’écologie semblent offrir des pistes à explorer pour comprendre le fonctionnement biologique des agro-écosystèmes. Notre cas d’étude concernait les informations collectées par un réseau d’observatoires de la flore adventice à l’échelon national (‘Biovigilance Flore’) sur lequel nous avons recherché les règles sous jacentes à l’assemblage et la dynamique des communautés adventices au sein des parcelles de grandes cultures annuelles. Nous avons en particulier étudié les relations qui peuvent exister au sein des espèces d’une même communauté ainsi que celles affectant les relations des communautés à leur environnement. Pour tenir compte de son importance avérée dans la constitution des assemblages, nous avons conduit notre étude en tenant compte de l’abondance de la population de chaque espèce. Les principaux résultats issus des travaux réalisés au cours de cette thèse sont : Un assemblage non aléatoire des abondances et une structuration conduisent à une homogénéisation des abondances observées à l’échelle des parcelles. Selon la densité totale d’adventices sur une parcelle, on observe des structurations opposées selon qu’une espèce domine, ou non, dans la communauté. Même si la méthodologie employée pour réaliser les relevés nous empêche d’en avoir la preuve, nous suspectons que l’abondance des adventices répond à la compétition qui s’exerce dans certaines conditions directement entre espèces adventices.Le choix du modèle nul servant de base de comparaison dans les situations où il n’y a pas de témoin joue un rôle important dans la conduite des analyses des observations issues d’inventaires. L’échelle semi-quantitative pour rendre compte des variations d’abondance pose problème puisque aucun modèle nul n’a été développé pour ce format particulier. Un modèle adapté à notre situation, mais malgré tout générique, a été développé. Il apporte une amélioration sensible par rapport à l’existant pour étudier le degré de co occurrence (ainsi que la dispersion de traits) dans le cas de données semi-quantitatives. Ceci a des conséquences sur notre capacité à distinguer les facteurs ayant un rôle de filtre sur la flore potentielle qui s’exprime. La modélisation de la dynamique d’une espèce au sein d’une parcelle au fil des successions culturales nécessite de rendre compte de la dynamique du stock de graines dans le sol. Inconnu, ce stock de graines a été considéré comme une variable cachée, modélisable par l’utilisation d’un modèle de Markov caché. Cette approche s’est trouvée être remarquablement adaptée à la biologie des espèces annuelles. Nous avons ainsi pu appréhender l’effet des pratiques culturales sur la dynamique du stock de graines et de la flore levée. Cette étude a des retombées tant sur l’identification des traits d’histoire de vie que sur leur variabilité face à des stratégies de gestion qui seraient déployées pour assurer le contrôle d’une flore spécifique. Nous avons ainsi pu appliquer avec succès quelques principes théoriques et améliorer les méthodes d’analyse afin de tenir compte des spécificités des espèces adventices, de l’amplitude des fluctuations du milieu dans lequel elles évoluent et des spécificités de nos données. Il existe une marge de progrès sur la collecte des données à réaliser sur les réseaux d’observatoires si l’on veut maîtriser la connaissance des leviers les plus à même d’aider au contrôle de la flore adventice / To develop solutions for a productive and sustainable agriculture, principles, theories, andmethods of ecology may contribute to understand the biological processes governing the agroecosystem.The present case study was based on data collected by a network of observatories of weeds covering the whole of France (‘Biovigilance Flore’) and aimed at establishing forrules governing the assemblage and dynamics of weed communities in fields grown with annual crops. We particularly studied the possible relationships between species within acommunity, as well as the relationships between communities and their environment. Analyses were based on species abundances to take account of their effect on community assemblages. The main results of this PhD thesis are: Abundances of weed species are not randomly distributed within a field, and this distribution as well as the community pattern result into a homogenization of observed weed abundances at the field scale. The community pattern depends on the total weed abundance in the field and on whether the species is dominant in the community. We concluded that weed abundances responded to weed-weed competition in certain conditions though the sampling methodology was not adapted to prove this assumption. The choice of the null model for comparisons in situations without a control greatlyinfluences the procedure for analysing assemblages. This problem arises particularly at the semi-quantitative scale since no null model has yet been developed for this particular case. Hence, a generic null model was developed for our particular situation. It considerably improved the study of co-occurrences and trait dispersal in case of semi-quantitative datasets and thus our ability to identify factors and processes determining flora composition.Modelling the weed dynamics of a field over the crop succession needs to take into account the dynamics of the weed seed bank in the soil. As it was unknown, the seedbank wasconsidered as a hidden variable and modelled using a Hidden Markov Model (HMM). This approach was well adapted for predicting the life cycle of annual species. We thus identified effects of cultural practices on the dynamics of the seedbank and of the emerged flora. Thisstudy allowed us to identify life-history traits and weed management strategies adapted to aspecific weed flora.We successfully applied various ecological theories and improved methods to take into account the specificities of weed species, the variations in their environment as well as the specificities of our data-set. The quality and reliability of the data collected in the observatory network must be increased if we want to correctly identify management levers likely to contribute to sustainable weed management
316

Mécanotransduction osseuse : écoulement interstitiel, microstructure et couplages biochimiques / Bone mechanotransduction : interstitial fluid flow, microstructure and biochemical coupling

Kaiser, Joanna 01 December 2011 (has links)
Dans ce travail de thèse nous nous sommes intéressés aux phénomènes de transport au sein du réseau lacuno-canaliculaire (RLC) et de l'ostéon dans le tissu osseux cortical. Pour étudier la mécanotransduction ostéocytaire amenant au remodelage osseux, nous avons développé un modèle à trois échelles où sont pris en : l'électrcompte ostatique (modélisée par l'équation de Poisson Boltzmann), l'écoulement du fluide (représenté textit{via} une équation de Stokes modifiée et la conservation de la masse fluide) et le transport ionique (régi par l'équation de Nernst-Planck). L'étude de la distribution du potentiel électrique, a mis en exergue l'importance des double-couches électriques au voisinage des parois chargées des pores. Ces double-couches électriques, ainsi que la composition chimique du fluide donnent lieu à des phénomènes d'osmose et d'électroosmose intervenant dans l'écoulement du fluide interstitiel, et influençant la diffusion efficace des ions dans les pores. L'étude a démarré à l'échelle du pore canaliculaire pour être propagée à l'échelle du canalicule puis de l'ostéon, en utilisant une procédure d'homogénéisation périodique asymptotique. Une étude paramétrique nous a permis de cibler les paramètres agissant sur les phénomènes de transport et pouvant faire réagir les ostéocytes. Il est ressorti de cette étude que les effets électro-chimiques jouent rôle important. Nous avons donc choisi de nous focaliser sur la chimie et plus particulièrement sur les effets des flux ioniques physiologiques sur les ostéocytes dans le RLC. Des expériences, mises en place pour étayer ces aspects ont souligné l'importance des échanges chimiques entre les cellules et le fluide qui les entoure. Finalement, nous avons montré que les phénomènes de transports ayant lieu dans le RLC et dans l'ostéon interagissent les uns les autres, parachevant ainsi la description à trois échelles du tissu cortical / Transport phenomena appearing within the cortical bone lacuno-canalicular network (LCN) and the osteon were the objective of this study. We developped a three-scale model to investigate the osteocyte mechanotranduction which is at the origin of the bone remodeling process. This model took into account three physical phenomena : the electrostatics (through the Poisson-Boltzman equation), the interstitial fluid flow (modeled by a modified Stokes equation) and the ionic transport (governed by a Nernst-Planck equation). Analysis of the electrical potential distribution highlighted the importance of the electrical double layers close to the pore charged surface. These electrical double layers, as well as the interstitial fluid chemical composition, induce osmotic and electroosmotic fluid flows and affect the ionic effective diffusion within the pores. Using a periodic asymptotic homogeneisation procedure, the model at the canalicular pore scale was upscaled at the canalicular scale and then at the osteonal scale. A parametric study pointed out the relevant parameters acting on the transport phenomena and possibly affecting osteocyte mecanosensitivity. Our results emphasized the importance of the electro-chemical effects. We thus focused on the chemistry and more especially on the effects of the physiological ionic fluxes on the osteocyte. In vitro experiments and numrical simulations were performed to elucidate these questions. Our results underlined the importance of the chemical exchanges between the osteocyte and the surrounding fluid. Finally, we showed that fluid flow and chemical transport occuring within the LCN and the osteon interact with each other, thus achieving a three-scale description of the transport phenomena in the osteon
317

Etude des mécanismes de précipitation, de recristallisation et de transformation de phases dans les aciers Dual Phase microalliés au titane niobium lors du recuit / Study of the mechanisms of precipitation, recrystallization and phase transformation in Titanium Niobium microalloyed Dual Phase Steels during annealing cycle

Philippot, Clément 10 December 2013 (has links)
L’allégement des véhicules est l’un des objectifs prioritaires des constructeurs automobile pour répondre aux directives environnementales d’émission de CO2. Le développement des aciers multiphasés à très haute résistance mécanique est l’une des solutions communément adoptées pour réduire l’épaisseur des tôles dans les véhicules tout en conservant leur capacité à assurer la sécurité des passagers. La présente étude porte sur l’optimisation des paramètres du procédé de production industrielle de l’une des ces familles d’aciers : les aciers Dual Phase microalliés au titane et au niobium de haut grade ; c'est-à-dire possédant une résistance à la rupture supérieure à 800MPa.A partir d’une microstructure initiale bainite + martensite laminée à froid, les différents phénomènes se produisant au cours du recuit, de la chauffe jusqu’à la fin du maintien intercritique, sont caractérisés. L’influence des paramètres du recuit comme la vitesse de chauffe, la température et le temps de maintien est étudiée. Le système d’interactions triple entre la précipitation des éléments de microalliage, la recristallisation et la formation de l’austénite est au cœur du problème. Un scénario des évolutions microstructurales a été établi à partir de la caractérisation des divers phénomènes. La finesse de la microstructure étudiée (sub-micrométrique) a nécessité l’emploi combiné de techniques de caractérisation multi-échelles : MEB, MET, sonde atomique tomographique, nano-SIMS. / Lightening the weight of vehicles is one of the main challenging objectives of the automotive industry to reach the environmental regulation in term of CO2 emissions. The development of multiphase high strength steels is a common solution to reduce the thickness of sheet steel used in vehicles while keeping the same level of passenger’s safety requirements. The present study deals with the optimization of industrial process parameters applied to obtain one of these steels: the high strength microalloyed Dual Phase steels; i.e. with ultimate tensile strength superior to 800MPa.From an initial cold rolled microstructure made of bainite + martensite, the phenomena occurring during the annealing are characterized since the heating up to the end of the intercritical holding. The influence of process parameters as the heating rate, the holding temperature and the holding time are studied. The triple interactions system between the precipitation of microalloying elements, the recrystallization and the austenite formation is the core of the problem. A scenario of microstructural evolutions has been established based on the characterized phenomena. The studied fine microstructure (sub-microns) requires the combination of multiscale characterization techniques: SEM, TEM, atom probe tomography, nano-SIMS.
318

Baryonic acoustic oscillations with emission line galaxies at intermediate redshift : the large-scale structure of the universe. / Observation des oscillations baryoniques primordiales des galaxies à raie d’émission à décalage vers le rouge modéré : la structure aux grandes échelles dans l’univers.

Comparat, Johan 21 June 2013 (has links)
J'ai démontrer la faisabilité de la sélection de la cible pour les galaxies en ligne des émissions lumineuses. Je comprends maintenant les principaux mécanismes physiques de conduite de l'efficacité d'une sélection, en particulier le rapport à la photométrie de parent. Une question reste perplexe, je ne pouvais pas encore estimer quantitativement l'impact de la poussière sur l'efficacité de la sélection. J'espère que d'aborder cette question avec l'ensemble des données décrites dans le chapitre 4.En dehors de la ligne de sélection de la cible de la galaxie d'émission, j'ai étudié, au premier ordre, les deux principales erreurs systématiques sur la détermination de l'échelle BAO nous attendent en raison de l'utilisation galaxies en ligne des émissions comme traceurs de la question. J'ai d'abord montré le caractère incomplet de la distribution redshift, en raison de la mesure du décalage spectral avec [Oii], est lié à la résolution instrumentale. Je trouve qu'il ya deux régimes intéressants. Pour une observation des plus brillants [OII] émetteurs, une résolution modérée est suffisante, alors que pour une enquête plus faible, la plus haute de la résolution le meilleur. Deuxièmement, j'ai estimé le biais de la galaxie linéaire des sélections discuté avant et je trouve qu'ils sont très biaisés. D'une part, ce sont d'excellentes nouvelles pour les observateurs, comme le temps nécessaire pour observer à un signal donné au bruit dans le spectre de puissance diminue avec le carré de la partialité. D'autre part, elle constitue un nouveau défi pour les algorithmes de reconstruction et la fabrication de catalogues simulacres. / In this PhD, I demonstrate the feasibility of the target selection for bright emission line galaxies. Also I now understand the main physical mechanisms driving the efficiency of a selection, in particular the relation to the parent photometry. A puzzling issue remains, I could not yet estimate quantitatively the impact of the dust on the selection efficiency. I hope to address this question with the data set described in chapter 4.Apart from the emission line galaxy target selection, I investigated, at first order, the two main systematic errors on the determination of the BAO scale we expect due to using emission line galaxies as tracers of the matter. First I showed the incompleteness in the redshift distribution, due to the measurement of the redshift with [Oii], is related to the instrumental resolution. I find there are two interesting regimes. For an observation of the brightest [Oii]emitters, a moderate resolution is sufficient, whereas for a fainter survey, the highest the resolution the best. Secondly, I estimated the linear galaxy bias of the selections discussed before and I find they are highly biased. On one hand, this is great news for the observers, as the time required to observed at a given signal to noise in the power spectrum decreases with the square of the bias. On the other hand, it constitutes a new challenge for reconstruction algorithms and the making of mock catalogs. The work in progress described in the last chapter shows I am starting to try and handle these questions in a robust manner.
319

Simulation multi-échelle de l’atomisation d’un jet liquide sous l’effet d’un écoulement gazeux transverse en présence d’une perturbation acoustique / Multiscale simulation of the atomization of a liquid jet in oscillating gaseous crossflow

Thuillet, Swann 05 December 2018 (has links)
La réduction des émissions polluantes est actuellement un enjeu majeur au sein du secteur aéronautique. Parmi les solutions développées par les motoristes, la combustion en régime pauvre apparaît comme une technologie efficace pour réduire l’impact de la combustion sur l’environnement.Or, ce type de technologie favorise l’apparition d’instabilités de combustion issues d’un couplage thermo-acoustique. Des études expérimentales précédemment menées à l’ONERA ont mis en évidence l’importance de l’atomisation au sein d’un injecteur multipoint sur le phénomène d’instabilités de combustion. L’objectif de cette thèse est de mettre en place la méthodologie multi-échelle pour reproduire les phénomènes de couplage entre l’atomisation du jet liquide en présence d’un écoulement gazeux transverse (configuration simplifiée d’un point d’injection d’un injecteur multipoint) et d’une perturbation acoustique imposée, représentative de l’effet d’une instabilité de combustion. Ce type d’approche pourra, à terme, être utilisé pour la simulation instationnaire LES d’un système de combustion, et permettra de déterminer les temps caractéristiques de convection du carburant liquide pouvant affecter les phénomènes d’évaporation et de combustion, et donc l’apparition des instabilités de combustions. Afin de valider cette approche,les résultats issus des simulations sont systématiquement comparés aux observations expérimentales obtenues dans le cadre du projet SIGMA. Dans un premier temps, une simulation du jet liquide en présence d’un écoulement gazeux transverse est réalisée. Cette simulation a permis de valider l’approche multi-échelle : pour cela, les grandes échelles du jet, ainsi que les mécanismes d’atomisation reproduits par les simulations, sont analysés. Ensuite, l’influence d’une perturbation acoustique sur l’atomisation du jet liquide est étudiée. Les comportements instationnaires du jet et du spray issu de l’atomisation sont comparés aux résultats expérimentaux à l’aide des moyennes temporelles et des moyennes de phase. / The reduction of polluting emissions is currently a major issue in the aeronautics industry.Among the solutions developed by the engine manufacturers, lean combustion appears as an effectivetechnology to reduce the impact of combustion on the environment. However, this type oftechnology enhances the onset of combustion instabilities, resulting from a thermo-acoustic coupling.Experimental studies previously conducted at ONERA have highlighted the importanceof atomization in a multipoint injector to the combustion instabilities. The aim of this thesis isto implement the multi-scale methodology to reproduce the coupling phenomena between theatomization of the liquid jet in the presence of a crossflow (which is a simplified configuration ofan injection point of a multipoint injector) and an imposed acoustic perturbation, representativeof the effect of combustion instabilities. This type of approach can ultimately be used for the unsteadysimulation of a combustion system, and will determine the characteristic convection timesof the liquid fuel that can affect the phenomena of evaporation and combustion, and therefore theappearance of combustion instabilities. In order to validate this approach, the results obtainedfrom the simulations are systematically compared with the experimental observations obtainedwithin the framework of the SIGMA project. First, a simulation of the liquid jet in gaseous crossflowis performed. This simulation enabled us to validate the multi-scale approach : to this end,the large scales of the jet, as well as the atomization mechanisms reproduced by the simulations,are analyzed. Then, the influence of an acoustic perturbation on the atomization of the liquidjet is studied. The unsteady behavior of the jet and the spray resulting from the atomization arecompared with the experimental results using time averages and phase averages.
320

Des représentations sociales du vieillissement et de l’habitat idéal pour personnes âgées à la définition et mesure de la qualité de vie des séniors / From social representations of aging and the ideal habitat for the elderly to the definition and measure of quality of life in situ.

De Battista, Margot 12 January 2017 (has links)
L’objectif de ce travail est de mieux saisir le concept de qualité de vie quand il est associé aux personnes âgées, afin de proposer un modèle et un outil d’évaluation facilement administrable. Si la qualité de vie est un concept clé dans la mise en œuvre et l’évaluation des solutions à destination des personnes âgées, les modèles et outils actuels permettant son évaluation n’intègrent pas les spécificités des modes de vie de cette population. Par ailleurs, il existe un manque de consensus quant aux dimensions à prendre en compte pour évaluer la qualité de vie des personnes âgées, et par extension, sa dimension environnementale, facteur pourtant majeur pour les individus âgés, est largement oubliée dans la littérature.Une première étape a mis en évidence la manière dont les séniors et les professionnels intervenant au domicile se représentent le vieillissement et l’habitat idéal pour personnes âgées. Ancrée dans l’approche structurale des représentations sociales, cette étape a permis de dégager des indicateurs issus du sens commun révélateurs de ce que devrait être l’habitat dans son caractère idéal et normatif, associé à la façon de penser le vieillissement. Une seconde étape a permis de proposer un modèle de qualité de vie spécifique aux personnes âgées, s’appuyant tant sur des éléments empiriques que théoriques et donnant une place significative à la dimension environnementale. Ce modèle a donné lieu à la construction et à la validation d’une échelle de mesure de la qualité de vie des individus de plus de soixante-cinq ans, vivant à domicile ou en logement institutionnel. Les analyses factorielles exploratoires et confirmatoires ont permis de mettre en avant une structure latente à quatre facteurs. La première dimension décrit l’environnement physique de l’individu, appréhendée à travers des critères objectifs et subjectifs. La seconde dimension renvoie au réseau social réel et perçu de l’individu ainsi qu’à son état émotionnel. La troisième dimension relève de l’autonomie, en évaluant les capacités fonctionnelles et décisionnelles du répondant, ainsi que le rôle social et le type d’habitat qui en découlent. Enfin, la quatrième dimension renvoie aux pathologies physiques rencontrées par le répondant et à ses conséquences sur la vie quotidienne. La validation statistique de l’échelle auprès d’un panel de 456 répondants a permis de valider ces quatre composantes et de mettre en avant de bonnes qualités psychométriques de l’instrument de mesure. Sa bonne acceptation par la population âgée et sa rapidité de passation en fait un outil facilement utilisable sur le terrain. / The aim of our research is to better understand the concept of quality of life among senior citizens, in order to propose a model and an easy-to-use measurement scale. Although quality of life is a central issue in finding and evaluating solutions for the elderly, current models and tools used to evaluate it omit the specificities of their lifestyles. Furthermore, the dimensions to be considered to evaluate senior citizens’ quality of life are not consensual, and by extension, environmental factors, which are central for the elderly, are largely forgotten in the literature.First, we explored how senior citizens and professionals intervening at their homes perceive aging and the ideal habitat for the elderly. Drawing on the structural approach to social representations, this first phase provided indicators based in common sense that revealed what a home should be in ideal and normative terms, which we associated with social thinking about aging. Next, we proposed a quality of life model specifically designed for the elderly, which is both empirically and theoretically based and places significant importance on environmental factors. This model led to the development and validation of a measurement scale intended for individuals over 65 years of age who live either at home or in an institution. Exploratory and confirmatory factor analyses revealed a latent structure composed of four factors. The first describes the individual’s physical environment using objective and subjective criteria. The second factor refers to the individual’s real and perceived social network as well as his/her emotional state. The third factor deals with autonomy by evaluating participants’ functional and decisional skills in relation to their social role and type of home. Last, the fourth factor deals with physical problems the respondent may encounter and their consequences on everyday life. These four factors and the psychometric quality of the scale were statistically validated with a sample of 456 senior citizens. It was well received by the elderly and was fast to administer, making it an easy-to-use scale.

Page generated in 0.0606 seconds