• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 139
  • 54
  • 13
  • 3
  • Tagged with
  • 204
  • 204
  • 124
  • 112
  • 55
  • 50
  • 34
  • 33
  • 32
  • 32
  • 25
  • 24
  • 23
  • 22
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Virtual ergonomics for the design of collaborative robots / Ergonomie en environnement virtuel pour la conception de robots collaboratifs

Maurice, Pauline 16 June 2015 (has links)
Parce qu’elle permet d’associer les capacités physiques d’un robot aux capacités perceptives et cognitives de l’Homme, la robotique collaborative peut être une solution pour répondre au problème des troubles musculo-squelettiques dans l’industrie. Cependant, le gain d’ergonomie qu’apporte l'utilisation de tels robots est rarement quantifié, à cause du manque d’outils adéquats.Ce travail vise à développer un outil générique permettant d’effectuer des évaluation ergonomiques d'activités de co-manipulation, à partir de très peu de données d’entrée. Cet outil s’appuie sur une évaluation en simulation, à l’aide d’un mannequin virtuel. Afin d'estimer les différentes sollicitations biomécaniques auxquelles sont exposés les ouvriers lorsqu’ils réalisent des tâches manuelles, de nombreux indicateurs d'ergonomie sont définis, et mesurés grâce à une simulation dynamique. Le mannequin virtuel est animé avec une technique d’optimisation LQP, et le robot est contrôlé par une commande en amplification d’effort. L'outil proposé est validé à l'aide d'expériences basées sur la capture de mouvement.Cependant, le choix d’un robot plutôt que d’un autre est rendu difficile par le nombre élevé d’indicateurs d'ergonomie à prendre en compte. Une méthode pour analyser la sensibilité des indicateurs aux différents paramètres du robot et de la tâche considérée est donc développée. Une telle analyse permet de réduire le nombre d’indicateurs à prendre en compte, tout en rendant suffisamment compte de l’ergonomie de chaque situation.Enfin, l’outil de simulation mis en place est couplé à un logiciel d’optimisation par algorithme génétique, afin d' optimiser la cinématique d’un robot collaboratif. / The growing number of musculoskeletal disorders in industry could be addressed by the use of collaborative robots, which allow the joint manipulation of objects by both a robot and a person. Designing such robots requires to assess the ergonomic benefit they offer. However there is a lack of adapted assessment tools. This work presents a generic tool for performing accurate ergonomic assessments of co-manipulation activities, with very little input data. This tool relies on an evaluation carried out within a digital world, using a virtual manikin to simulate the worker. A framework is developed to enable the estimation of the different biomechanical solicitations which occur during manual activities. Multiple ergonomic indicators are defined and measured through a dynamic simulation of the considered activity. The virtual manikin is animated through a LQP optimization technique, and the robot is controlled according to the manikin-robot interaction force. The proposed framework is validated with motion capture experiments. However, the high number of indicators that are measured makes any kind of conclusion difficult for the user. Hence, a methodology for analyzing the sensitivity of the various indicators to the robot and task parameters is proposed. The goal of such an analysis is to reduce the number of ergonomic indicators which are considered in an evaluation, while sufficiently accounting for the global ergonomic level of the considered activity. Finally, an application of the proposed methodology is presented. The evaluation framework is linked to a genetic algorithm software in order to optimize the morphology of a collaborative robot for a given task.
72

Compressible single and dual stream jet stability and adjoint-based sensitivity analysis in relationship with aeroacoustics / Stabilité d'un jet double flux et analyse de sensibilité sur la base d'un modèle adjoint en relation avec l'aeroacoustic

Ansaldi, Tobias 14 October 2016 (has links)
La thèse est relative à la compréhension de la physique et au contrôle des émissions acoustiques dans les jets turbulents simples et double-flux. La génération du bruit est associé à des structures turbulentes de grandes tailles caractéristiques et à la turbulence de petites échelles. i Il est maintenant admis que les structures de grandes échelles sont des instabilités se propageant dans un champ moyen turbulent. Ici elle sont analysées sur la base de la théorie linéaire non locale appelées PSE pour Parabolized Stability Equations. Ces instabilités inflexionnelles associées à la présence de couche de cisaillement sont des modes de Kelvin-Helmhotz. Dans le cas du jet sous détentu des cellules de choc apparaissent et influencent très fortement les taux d'amplification et fréquences des modes propres. Divers écoulements sont investigués, de faible nombre de Mach au jet double-flux supersonique dont le champ moyen provient de simulation LES (Cerfacs). Le champ acoustique lointain est déterminé par l'analogie de Ffowcs-Williams-Hawkings. Ensuite une étude de sensibilité originales des instabilités et du bruits par rapport à divers forage locaux est produite sur la base deséquations de stabilité PSE adjointes. Les fortes sensibilités apparaissent dans les couches de cisaillements et aussi dans une moindre mesure autour des cellules de chocs. Les sensibilités sont plus complexes pour le jet double flux et dépendent du mode instable étudié lié soit au jet primaire soit au jet secondaire. Les sensibilités maximales se trouvent auvoisinage de la sortie de la tuyère et à la limite ou à l’extérieur du cne potentiel. En complément une étudesur le jet simple flux permet de mettre en rapport les approches de quantification d'incertitude et la sensibilité calculée par des équations adjointes. Les résultats de sensibilité vont permettre de contribuer à proposer des stratégies de contrôle aero-acoustique dans les jets de turboréacteurs. / This thesis leads to a better knowledge of the physic and of the control of acoustic radiation in turbulent single and dual-stream jets.It is known that jet noise is produced by the turbulence present in the jet that can be separated in large coherent structures and fine structures. It is also concluded that these large-scale coherent structures are the instability waves of the jet and can be modelled as the flow field generated by the evolution of instability waves in a given turbulent jet. The growth rate and the streamwise wavenumber of a disturbance with a fixed frequency and azimuthal wavenumber are obtained by solving the non-local approach called Parabolized Stability Equations (PSE). Typically the Kelvin-Helmholtz instability owes its origin into the shear layer of the flow and, moreover, the inflection points of the mean velocity profile has a crucial importance in the instability of such a flow. The problem is more complex in case of imperfectly expanded jet where shock-cells manifest inside the jet and strongly interaction with the instability waves has been observed. Several configurations are tested in this thesis, from a subsonic incompressible case to the dual-stream underexpanded supersonic jet obtained by solving Large Eddy Simulations LES (CERFACS). The acoustic far-field is determined by the Ffowcs-Williams-Hawkings acoustic analogy. Then a sensitivity analysis of the jet with respect to external forcing acting in a localized region of the flow are investigated by solving the adjoint PSE equations. High sensitivity appeared in the shear-layer of the flow showing, also, a high dependency in the streamwise and radial direction. In the case of dual-stream jet the propagation of the instability in the inner and outer shear layer should be taken into account. This configuration leads to two different distinct Klevin-Helmholtz modes that are computed separately. The highest sensitivity is determined in the exit of the nozzle outside of the potential core of the jet. In addition, comparison between sensitivity computed by adjoint equations and Uncertainty Quantification (UQ) methods has been done, in the case of a single-stream jet, showing a link between these two methods for small variations of the input parameters. This result leads to the application of a lower cost tool for mathematical analysis of complex problem of industrial interest. This work and in particular the sensitivity theory investigated in this thesis contribute to a development of a new noise control strategy for aircraft jet.
73

Diagnostic du colmatage des générateurs de vapeur à l'aide de modèles physiques et statistiques / Steam generators clogging diagnosis through physical and statistical modelling

Girard, Sylvain 17 December 2012 (has links)
Les générateurs de vapeur sont d'imposants échangeurs de chaleur qui alimentent les turbines des centrales nucléaires à eau pressurisée. Au cours de leur exploitation, des dépôts d'oxydes s'y accumulent et obstruent progressivement des trous prévus pour le passage du fluide. Ce phénomène, appelé colmatage, pose des problèmes de sûreté. Une méthode de diagnostic est nécessaire pour optimiser la stratégie de maintenance permettant de s'en prémunir. La piste explorée dans cette thèse est l'analyse de la réponse dynamique des générateurs de vapeur lors de transitoire de puissance, à l'aide d'un modèle physique monodimensionnel. Deux améliorations ont été apportées au modèle existant au cours de la thèse : la prise en compte des débits perpendiculaires à l'axe du générateur de vapeur et la modélisation du déséquilibre cinématique entre la phase liquide et la phase vapeur. Ces éléments ont ajouté des degrés de liberté permettant de mieux reproduire le comportement réel des générateurs de vapeur. Une nouvelle méthodologie de calage et de validation a alors été proposée afin de garantir la robustesse du modèle.Le problème inverse initial était mal posé car plusieurs configurations spatiales de colmatage peuvent donner des réponses identiques. La magnitude relative de l'effet des dépôts suivant leur localisation a été évaluée par analyse de sensibilité avec la méthode de Sobol'. La dimension de la sortie fonctionnelle du modèle a au préalable été réduite par une analyse en composantes principales.Enfin, une méthode de réduction de dimension appelée régression inverse par tranches a été mise en œuvre pour déterminer dessous-espaces de projection optimaux pour le diagnostic. Une méthode de diagnostic plus robuste et mieux maitrisée que celle existante a pu être proposée grâce à cette nouvelle formulation. / Steam generators are massive heat exchangers feeding the turbines of pressurised water nuclear power plants. Internal parts of steam generators foul up with iron oxides which gradually close some holes aimed for the passing of the fluid. This phenomenon called clogging causes safety issues and means to assess it are needed to optimise the maintenance strategy. The approach investigated in this thesis is the analysis of steam generators dynamic behaviour during power transients with a monodimensional physical model. Two improvements to the model have been implemented. One was taking into account flows orthogonal to the modelling axis, the other was introducing a slip between phases accounting for velocity difference between liquid water and steam. These two elements increased the model's degrees of freedom and improved the adequacy of the simulati onto plant data. A new calibration and validation methodology has been proposed to assess the robustness of the model. The initial inverse problem was ill posed: different clogging spatial configurations can produce identical responses. The relative importance of clogging, depending on its localisation, has been estimated by sensitivity analysis with the Sobol' method. The dimension of the model functional output had been previously reduced by principal components analysis. Finally, the input dimension has been reduced by a technique called sliced inverse regression. Based on this new framework, a new diagnosis methodology, more robust and better understood than the existing one, has been proposed.
74

Development of an Integrated Approach for PHM - Prognostics and Health Management : Application to a Turbofan Fuel System / Développement d’une approche intégrée de PHM – Prognostics and Health Management : Application au Circuit Carburant d’un Turboréacteur

Lamoureux, Benjamin 30 June 2014 (has links)
Pour les constructeurs de moteurs d'avions comme Snecma, la disponibilité est un des enjeux clés de l'avenir. En effet, la limitation des retards et annulations de vols ainsi que la réduction de la fréquence et de la durée des opérations de maintenance pourraient entraîner des économies importantes. Pour accroître la disponibilité, l'outil le plus utilisé actuellement est le "prognostics and health management" (PHM). La première contribution de la thèse est de proposer des cadres terminologique et fonctionnel pour le développement du PHM adapté aux spécificités des moteurs d'avions. Par la suite, une approche intégrée basée sur le nouveau modèle en V3 est formalisée. La seconde contribution est un processus basé sur les modèles pour le développement de la partie embarquée chargée de l'extraction des indicateurs de santé. Elle est basée sur l'analyse de sensibilité, la régression par vecteurs supports et des nouveaux indicateurs de performances. Puisque ce processus est réalisé avant l'entrée en service, les données stochastiques sont obtenues par propagation d'incertitudes. Pour surmonter les temps de calcul liés aux évaluations du modèle, des métamodèles sont utilisés. Plus particulièrement, la troisième contribution de la thèse est une technique originale combinant régression par vecteurs supports et Krigeage. L'approche globale est finalement testée sur le système carburant d'un moteur d'avion. Les résultats sont prometteurs, tant au niveau industriel pour les précieuses informations qu'elle fournit sur la qualité du jeu d'indicateurs de santé qu'au niveau académique pour la précision apportée par la nouvelle approche du Krigeage-SVR. / For manufacturers of aircraft engines such as Snecma, the increase of systems availability is one of the key challenges of the future. Indeed, the limitation of delays and cancellations and the reduction of maintenance operations frequency and duration could lead to important costs savings. To improve availability, the most proven tool is currently prognostics and health management (PHM). The first contribution of this thesis work is to propose complete terminological and functional frameworks for the development of PHM adapted to the specific application on aircraft engines. Subsequently, an integrated development approach based on the original V3-model is formalized. The second contribution is an original model-based process for the development of the embedded extraction of health indicators, based on sensitivity analysis, support vector regression and original performance indicators for the validation. Since it is aimed at being performed before the entry into service, the stochastic data are issued from Monte-Carlo based uncertainties propagation. In order to overcome the prohibitive computation time of the model evaluations, surrogate models are used. More particularly, the third contribution of this thesis work is an original technique combining support vector regression with Kriging. The whole approach is finally tested on an aircraft engine fuel system. The results are promising, both at the industrial level with the release of valuable information about the quality of the health indicators set and at the academic level with the proven accuracy of the novel SVR-Kriging approach.
75

Etude expérimentale et numérique de la décomposition thermique du bois résineux / Kinetic study and modeling of the thermal decomposition of solid materials. Application to the wood degradation in case of fire

Batiot, Benjamin 19 September 2014 (has links)
Les incendies sont complexes et mettent en jeu une multitude de phénomènes. Afin de les étudier, l’approche multiéchelle permet de séparer les processus.Parmi ceux-ci, la décomposition thermique des solides joue un rôle très important. Terme source, elle traduit la quantité, le débit et la nature des composés volatils émis. Sa description numérique est donc capitale. Les modèles utilisés aujourd’hui sont formés d’une loi de variation de la vitesse de forme « Arrhenius », couplée à une fonction de conversion de la masse pour chaque espèce étudiée et d’un mécanisme réactionnel organisant les réactions entre elles. Toutefois, ce modèle s’appuie sur les théories utilisées dans la phase gazeuse et de sérieux doutes peuvent être émis sur sa représentativité pour une application dans la phase condensée.Les travaux de thèse exposés dans ce rapport se focalisent sur le développement d’un modèle en partant des réactions et des processus les plus fondamentaux dans la phase condensée afin de permettre la simulation de la cinétique de décomposition des matériaux solides. Le second aspect concerne l’étude de ce modèle pour déterminer la méthode de résolution et d’optimisation la plus adéquate, le rôle de chacun des paramètres, les éventuels mécanismes de compensation et l’unicité de la solution.Finalement, l’ensemble de la démarche est appliquée à un matériau complexe, le bois. Les résultats obtenus, à partir d’une nouvelle démarche développée lors de ces travaux de thèse, montrent une amélioration significative du modèle aux aspects physiques et chimiques de la dégradation thermique des matériaux solides. / Fires are complex and a variety of phenomena are involved. In order to study them, the up-scaling approach separates all the processes.Among them, the solid thermal decomposition has an important role to play. Source term, it reflects the amount, rate and nature of volatile compounds emitted and its numerical description is essential. The models used currently are formed by a law of variable speed (the Arrhenius law) coupled with a conversion function of mass for each species and a kinetic mechanism organizing all reactions between them. However, this model is based on the theories used in the gas phase and serious doubts might be raised with regard to the representativeness for application in the condensed phase.The thesis works exposed in this report are focused on the model development departing from the reactions and the processes the more fundamental in the condensed phase in order to permit the simulation of the solid kinetic decomposition. The second aspect concerns the study of this model to determine the resolution and the optimization method the most appropriate, the role of each parameter, the possible compensation mechanisms and the uniqueness of the solution.Finally, the entire process is applied to a complex material, the wood. The results obtained from a new approach developed in this work, show a significant improvement of the model to the physical and chemical aspects of the thermal degradation of solid materials.
76

Parametric LCA approaches for efficient design / Approches d'ACV paramétriques pour une conception performante

Kozderka, Michal 13 December 2016 (has links)
Ces travaux de recherche portent sur la problématique de la mise en pratique de l'analyse de cycle de vie (ACV). La question principale est : comment faire une ACV plus rapide et plus facilement accessible pour la conception des produits ? Nous nous concentrons sur deux problématiques qui prolongent l'inventaire de Cycle de Vie (ICV) : • recherche des données manquantes : Comment ranger les données manquantes selon leur importance? Comment traiter l'intersection des aspects qualitatifs et les aspects quantitatifs des données manquantes? • Modélisation du cycle de vie : Comment réutiliser le cycle de vie existant pour un nouveau produit? Comment développer un modèle de référence? Pour la recherche des solutions nous avons utilisé l'approche "Case study" selon Robert Yin. Nos contributions font résultat de trois études de cas, dont la plus importante est l'ACV du High Impact Polypropylene (HIPP) recyclé. Nous avons publié les résultats de celle-ci dans la revue scientifique Journal of Cleaner Production. Suite aux études de cas nous proposons deux approches d'amélioration d'efficacité en ICV : nous proposons l'analyse de sensibilité préalable pour classifier les données manquantes selon leur impact sur les résultats d'ACV. L'approche combine les aspects quantitatifs avec les aspects quantitatifs en protégeant le respect des objectives d'étude. Nous appelons cette protection "LCA Poka-Yoké". La modélisation du cycle de vie peut être assistée grace à la méthode basée sur l'algorithme de King. Pour la continuation de la recherche nous proposons huit perspectives, dont six font l'objet d'intégration des nouvelles approches d'amélioration dans les concepts d'ACV basés sur la norme ISO 14025 ou dans le projet de la Commission Européenne PEF. / This work addresses the different issues that put a brake to using Lifecycle assessment (LCA) in product design by answering the main question of the research: How to make Lifecycle assessment faster and easier accessible for manufactured product design? In the LCA methodology we have identified two issues to deal with and their consecutive scientific locks : • Research of missing data : How to organize missing data? How to respect quantitative and qualitative dimensions? • Modeling of the lifecycle scenario : How to translate methodological choices into the lifecycle scenario model? How to transform the reference scenario into a new one? We have dealt with these issues using the scientific approach Case study according toRobert Yin. Our contributions are based on three case studies, between which the most important is study of High Impact Polypropylene recycling in the automotive industry. We have published it in the Journal of Cleaner Production. As result of our research we present two methods to improve efficiency of the LifecycleInventory Analysis (LCI) : To organize the missing data: Preliminary sensitivity analysis with LCA Poka-Yoke ; To help with scenario modeling: Method of workflows factorization, based on Reverse engineering. For further research we propose eight perspectives, mostly based on integration of our methods into Product Category Rules (PCR)-based platforms like EPD International or the European PEF.
77

Assimilation variationnelle des données dans le modèle de surface continentale ORCHIDEE grâce au logiciel YAO / Variarional data assimilation in the land surface model ORCHIDEE using YAO

Benavides Pinjosovsky, Hector Simon 27 March 2014 (has links)
Un modèle de surface continentale (LSM en anglais) est un modèle numérique décrivant les échanges d'eau et d'énergie entre la surface terrestre et l'atmosphère. La physique de la surface de la terre comprend une vaste collection de processus complexes. L'équilibre entre la complexité du modèle et sa résolution, confronté à des limitations de calcul, représente une question fondamentale dans le développement d'un LSM. Les observations des phénomènes étudiés sont nécessaires afin d’adapter la valeur des paramètres du modèle à des variables reproduisant le monde réel. Le processus d'étalonnage consiste en une recherche des paramètres du modèle qui minimisent l’écart entre les résultats du modèle et un ensemble d'observations. Dans ce travail, nous montrons comment l'assimilation variationnelle de données est appliquée aux bilans d'énergie et d'eau du modèle de surface continentale ORCHIDEE afin d’étalonner les paramètres internes du modèle. Cette partie du modèle est appelé SECHIBA. Le logiciel YAO est utilisé pour faciliter la mise en œuvre de l'assimilation variationnelle 4DVAR. Une analyse de sensibilité a été réalisée afin d'identifier les paramètres les plus influents sur la température. Avec la hiérarchie des paramètres obtenue, des expériences jumelles à partir d'observations synthétiques ont été mises en œuvre. Les résultats obtenus suggèrent que l'assimilation de la température de surface a le potentiel d'améliorer les estimations de variables, en ajustant correctement les paramètres de contrôle. Enfin, plusieurs assimilations ont été faites en utilisant des observations de données réelles du site SMOSREX à Toulouse, France. Les expériences faites en utilisant différentes valeurs initiales pour les paramètres, montrent les limites de l'assimilation de la température pour contraindre les paramètres de contrôle. Même si l'estimation des variables est améliorée, ceci est dû à des valeurs finales des paramètres aux limites des intervalles prescrit de la fonction de coût. Afin de parvenir à un minimum, il faudrait permettre aux paramètres de visiter des valeurs irréalistes. Les résultats montrent que SECHIBA ne simule pas correctement simultanément la température et les flux et la relation entre les deux n’est pas toujours cohérente selon le régime (ou les valeurs des paramètres que l’on utilise). Il faut donc travailler sur la physique pour mieux simuler la température. En outre, la sensibilité des paramètres à la température n’est pas toujours suffisante, donnant une fonction de coût plate dans l’espace des paramètres prescrit. Nos résultats montrent que le système d'assimilation mis en place est robuste, puisque les résultats des expériences jumelles sont satisfaisants. Le couplage entre l'hydrologie et la thermodynamique dans SECHIBA doit donc être revu afin d'améliorer l'estimation des variables. Une étude exhaustive de l'erreur des mesures doit être menée afin de récupérer des termes de pondération dans la fonction de coût. Enfin, l'assimilation d'autres variables telles que l'humidité du sol peut maintenant être réalisée afin d'évaluer l'impact sur les performances de l’assimilation. / A land surface model (LSM) is a numerical model describing the exchange of water and energy between the land surface and the atmosphere. Land surface physics includes an extensive collection of complex processes. The balance between model complexity and resolution, subject to computational limitations, represents a fundamental query in the development of a LSM. With the purpose of adapting the value of the model parameters to values that reproduces results in the real world, measurements are necessary in order to compare to our estimations to the real world. The calibration process consists in an optimization of model parameters for a better agreement between model results and a set of observations, reducing the gap between the model and the available measurements. Here we show how variational data assimilation is applied to the energy and water budgets modules of the ORCHIDEE land surface model in order to constrain the model internal parameters. This part of the model is denoted SECHIBA. The adjoint semi-generator software denoted YAO is used as a framework to implement the 4DVAR assimilation. A sensitivity analysis was performed in order to identify the most influent parameters to temperature. With the parameter hierarchy resolved, twin experiments using synthetic observations were implemented for controlling the most sensitive parameters. Results obtained suggest that land surface temperature assimilation has the potential of improving the output estimations by adjusting properly the control parameters. Finally, several assimilations were made using observational meteorology dataset from the SMOSREX site in Toulouse, France. The experiments implemented, using different prior values for the parameters, show the limits of the temperature assimilation to constrain control parameters. Even though variable estimation is slightly improved, this is due to final parameter values are at the edge of a variation interval in the cost function. Effectively reaching a minimum would require allowing the parameters to visit unrealistic values. SECHIBA does not correctly simulates simultaneously temperature and fluxes and the relationship between the two is not always consistent according to the regime (or parameter values that are used). We must therefore work on the physical aspects to better simulate the temperature. Likewise, the parameter sensitivity to temperature is not always sufficient, giving as a result a flat cost function. Our results show that the assimilation system implemented is robust, since performances results in twin experiments are satisfactory. The coupling between the hydrology and the thermodynamics in SECHIBA must be reviewed in order to improve variable estimation. An exhaustive study of the prior errors in the measurements must be conducted in order to retrieve more adapted weighing terms in the cost function. Finally, the assimilation of other variables such as soil moisture should be performed to evaluate the impacts in constraining control parameters
78

Amélioration de la fiabilité des évaluations environnementales des bâtiments / Improving the reliability of environmental assessments of buildings

Hoxha, Endrit 23 January 2015 (has links)
Le travail de la thèse a consisté en l'élaboration d'une méthodologie pour permettre des comparaisons robustes des modèles ACV bâtiments. Cette thèse a permis :-Le développement d'une méthodologie d'évaluation des incertitudes dans l'ACV du bâtiment ;-La construction et l'enrichissement d'une base de données capitalisant les incertitudes à l'échelle matériau et produit et utilisable en support à l'évaluation des bâtiments ;-Le développement d'une méthodologie d'analyse de contribution et de sensibilité, qui a été mise en application au travers de la modélisation de 16 projets de maisons individuelles et 16 projets d'immeubles collectifs, ce qui a permis d'identifier les paramètres clés qui influencent les plus les résultats de l'évaluation ainsi que la robustesse de l'étude.-Le développement d'une méthodologie permettant des comparaisons robustes des projets basée sur la méthodologie d'analyse de contribution et de sensibilité.-L'identification des optimums environnementaux des dimensions des structures porteuses des immeubles collectifs. Cette étude a permis également d'identifier l'évolution des impacts environnementaux en fonction des paramètres de dimensionnement des structures. Pour les dimensions optimales, les comparaisons – basées sur la méthodologie de comparaison précédemment développée – des impacts environnementaux de deux structures en béton armé ont été effectuées.Les méthodologies mises en place sont utilisables :-Elles peuvent être utiles aux développeurs de logiciels d'ACV pour améliorer les fonctionnalités d'aide aux comparaisons des projets (au CSTB ce travail sera implémenté dans le logiciel ELODIE).Les résultats obtenus sont utilisables :-Par les architectes, ingénieurs du génie civil, thermiciens, statisticiens, ingénieurs de l'ACV, en leur permettant d'identifier les contributeurs les plus impactant et ceux dont l'influence sur les résultats est la plus incertaines / The work of this thesis focused on the improvement of the reliability of environmental assessments of buildings by a better control of the origin and amplitude of uncertainties. This thesis has permitted:-The development of a methodology for evaluating the uncertainties in the LCA of building;-The construction and enrichment of a database capitalizing uncertainties in material and product scale used in support of the assessment of building's uncertainties;-Development of a contribution and sensitivity analysis, which allowed the identification of key parameters influencing on the LCA results and in the robustness of study;-The development of a methodology for robust comparisons of projects based on contribution analysis and sensitivity analysis.-Identification of optimal environmental dimensions of reinforcing concrete structures. This study also identified the evolution of environmental impacts on function of building's dimensions. The methodologies used are suitable to developers of LCA software to enhance the functionality of using comparisons of projects (this work can be implemented in the ELODIE software).The results can be used by architects, civil engineers, thermal engineers, statisticians, environment and life cycle Engineers, enabling the identification of the most impacting contributors and those influencing most the outcome's uncertainties
79

Etude de l'exposition des personnes aux ondes électromagnétiques en environnement complexe / Study of people's exposure to electromagnetic waves in complex environment

Jawad, Ourouk 22 October 2014 (has links)
Les recherches en dosimétrie numérique non-ionisante ont connu des avancées considérables notamment grâce à la capacité de calcul croissante des ordinateurs. Ces dernières années, la prise en compte de la variabilité dans la dosimétrie est devenue un enjeu majeur. Les sources de variabilité sont nombreuses, parmi elles, les conditions d'exposition au rayonnement électromagnétique peuvent induire des doses absorbées très différentes. La modélisation de canal de propagation en environnement intérieur a permis d'avoir une connaissance précise des conditions d'exposition d'un corps humain plongé dans cet environnement. Cette thèse a pour but de développer une méthode statistique du calcul de la dose absorbée par le corps et d'adapter le modèle de canal stochastique à la dosimétrie. L'étude statistique de l'exposition a révélé la nécessité d'obtenir les valeurs de Débit d'Absorption Spécifique corps entier dans le cas d'expositions à une onde plane pour tous les angles d'incidence possibles. Compte tenu des temps de calcul particulièrement long en dosimétrie, une méthode d'interpolation efficace, le krigeage, des valeurs de Débit d'Absorption Spécifique a été mise en oeuvre. L'analyse de sensibilité aux paramètres du canal des moments du Débit d'Absorption Spécifique a permis de connaître l'impact de chacun de ces paramètres. Le modèle de canal a pu être simplifié et donc adapté à la dosimétrie tout en quantifiant l'erreur d'approximation qu'implique cette simplification. Cette thèse répond à l'enjeu de la prise en compte de la variabilité en dosimétrie dans un environnement complexe. / Research in non-ionizing numerical dosimetry has been improved thanks to high calculation capacity of computers. These years, integrating variability in the field of dosimetry has become a major issue. Sources of variability are numerous; among them, there are the exposure conditions to electromagnetic radiation which can lead to very different absorbed doses. Indoor channel modeling enables to have a deep knowledge of the exposure conditions of a human body located inside this indoor environment. The aim of this thesis is to develop a statistical method of calculation of the absorbed dose by the human body and to adapt the stochastic channel model to dosimetry. The statistical study of exposure reveals the need to obtain Specific Absorption Rate values for a plane wave exposure for all possible angles of incidence. Taking into account that computation in dosimetry is time consuming, an efficient interpolation method, kriging method, is implemented in order to get whole body Specific Absorption Rate values. Kriging method enables to obtain Specific Absorption Rate for all possible angles of incidence and then to calculate expectation and variance of Specific Absorption Rate. Sensitivity Analysis of expectation and variance to the statistical channel parameters reveals the impact of each parameter. The channel model has been simplified and then adapted to dosimetry by estimating the approximation error induced by this reduction. This thesis answers to the issue of integrating variability in dosimetry in a complex environment and develop the tools that open a new path in studying exposure in any complex environment.
80

Modélisation de la température du sol avec un bilan d’énergie, application à la prédiction de l’émergence du maïs (Zea mais) / Modelling soil temperature with an energy balance model, application to prediction of maize (Zea mais) emergence

Claverie, Etienne 18 May 2018 (has links)
La croissance en début de cycle des grandes cultures est principalement influencée par la température et la teneur en eau du sol. Nous avons développé un modèle capable de prédire ces variables grâce à l’utilisation de données climatiques largement disponibles. Des analyses de la sensibilité du modèle nous ont permis d’identifier les composants qui contribuent à son incertitude. Après calibration, une erreur moyenne relative de moins de 10 % est constatée pour la température et la teneur en eau à 30 cm de profondeur.Dans des conditions de semis standard en Suisse, l’émergence du maïs a été mieux prédite en utilisant notre température de sol simulée plutôt que la température de l’air, plus couramment utilisée. Ce travail est une application d’un modèle biophysique complexe à un problème agronomique. Les résultats participeront à l’optimisation de l’effort de sélection des variétés tolérantes au froid. Deux pistes de recherche peuvent être considérées pour des futurs travaux: une meilleure modélisation de l’évaporation et une décomposition de l’émergence. / The beginning of crop growth is influenced by soil temperature and water content near the surface. We have developed a model that predicts the local temperature and water content surrounding the seed using easily available meteorological data. Our global sensitivity analysis helped us identify the components of the model with the largest contribution to the output uncertainty. After calibration, the model showed less than 10 % relative error for temperature and water content at 30 cm. In standard sowing conditions in north-western Switzerland, the emergence was better predicted when using our simulated seed bed temperature than air temperature, the classical proxy variable. Combining the emergence model with soil temperature simulation, an accurate prediction of emergence was achieved. This work is an example of applying complex biophysics model for understanding an agronomic problem. The results of this work will participate in optimising breeding efforts for cold-tolerant crop varieties. Future investigations should consider a finer modelling of processes for evaporation and emergence.

Page generated in 0.1195 seconds