• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 282
  • 109
  • 25
  • 1
  • 1
  • Tagged with
  • 425
  • 205
  • 99
  • 42
  • 39
  • 38
  • 38
  • 37
  • 36
  • 35
  • 32
  • 31
  • 30
  • 29
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

The cropping-plan decision-making : a farm level modelling and simulation approach / Les décisions d'assolement : une approche par modélisation et simulation a l'échelle de l'exploitation agricole

Dury, Jérôme 09 December 2011 (has links)
L'assolement' c'est à dire l'attribution des cultures sur les différentes parcelles de l'exploitation agricole' est un élément fondamental de la stratégie de l'agriculteur. Il provient d'un équilibre entre des contraintes et objectifs multiples alliant les dimensions sociale' économique' agronomique et environnementale (utilisation des ressources). Il reflète deux dimensions: une dimension stratégique (lié aux orientations de l'exploitation) et une dimension tactique plus lié à l'adaptation des attributions suite à des contextes changeant (climatique' prix). Afin représenter ces deux niveaux et ainsi structurer les enjeux relatifs aux choix d'assolement à l'échelle de l'exploitation nous proposons une approche basées sur : i) une analyse du processus décisionnel par le biais d'enquêtes en exploitation; ii) une modélisation dynamique aussi bien sur des processus biophysiques (modèles de culture) que sur des processus de gestion (modèle de décision) pour comprendre et simuler. / Evolutions of the institutional and environmental contexts are driving search for alternative cropping systems to reduce water use while maintaining high levels of productivity. This thesis is an account of the long tradition of research on cropping-plan choices at the farm level. It concerns the scope of modelling agricultural systems with an opening to economy. The objective of the research described in this thesis is to produce formalised knowledge on farmers’ croppingplan choices under uncertain environment (price and weather) by analysing and modelling their decision-making processes. Formalising and modelling decision-making processes is becoming a crucial point to develop decision support systems that go beyond limitations of formerly developed prescriptive approaches. This thesis contributes to the development of a formalised and integrated methodology to study and model complex decision-making process. This methodology enables to fill the gap between field surveys and decision-model implementation. The methodology is drawn upon a theoretical background of the decision-making' and consistently combined tools to respectively survey' analyse' model and implement coupled agent and biophysical models. In this thesis' I address the question of uncertainty in two directions. I first analyse the spatio-temporal dynamic of individual farmers’ decision-making process. Then I estimate farmers’ aversion to risk by comparing stated and revealed elicitation methods. On the basis of field survey results' I develop a decision model called CRASH. The approach to develop the model stresses on explicit formalisation of the decision-making process in its temporal and spatial dimensions' and representation of the domain knowledge through generic concepts that are close to ones used by decision-makers. The implementation of developed models is carried out on the RECORD platform as trail blazing project. The originality relies on the use of dynamic models on both the biophysical and management processes. This research opens new perspectives for developing farm specific decision support systems that are based on simulating farmers’ decisionmaking processes. The modelling and simulating the cropping-plan decision-making processes should enable to design with farmers cropping systems that re-conciliate the required adaptive capacities and needs to maintain cropping systems productivity.
222

Stratégies de modélisation des conséquences d’une dispersion atmosphérique de gaz toxique ou inflammable en situation d’urgence au regard de l’incertitude sur les données d’entrée. / Modeling strategies of toxic or flammable gas spreading consequences according to input data uncertainties in crisis situations.

Pagnon, Stéphane 30 October 2012 (has links)
En cas d’accident impliquant des produits chimiques, il peut être fait appel à des experts pour évaluer les effets générés par cet accident. Ces experts fournissent des distances d’effets à l’aide de modélisations informatiques et sont confrontés à une difficulté majeure : peu d’éléments à leur disposition pour caractériser la situation.L’objectif de cette thèse est de proposer une méthodologie permettant de prendre en compte les incertitudes relatives aux données d’entrée dans les modélisations effectuées en situation d’urgence tout en restituant de manière explicite cette incertitude au gestionnaire de la situation d’urgence.Une première phase a consisté à évaluer, pour une situation à même de générer un nuage toxique ou explosible, la dispersion des résultats des modélisations. Il a été établi une hiérarchisation des variables d’entrée en fonction de leur influence sur le résultat final. Cette phase a été réalisée au moyen d’une analyse de sensibilité dont la stratégie a été spécifiquement développée.Une seconde phase a eu pour but d’établir une méthodologie d’estimation des distances d’effets en situation d’urgence en tenant compte du niveau d’incertitude des variables d’entrée. Une méthodologie de classification opérationnelle des données d’entrée a été réalisée. Elle s’appuie sur deux critères : la sensibilité du modèle au paramètre d’entrée et l’incertitude sur sa valeur (imprécision ou variabilité). Sur cette base, une nouvelle manière d’utiliser ces variables a été proposée. Enfin, différentes façons de restituer de manière opérationnelle les résultats des modélisations ont été proposées. / During accidents involving chemicals, experts can be asked to assess the effects generated. These experts provide distance effects using computer modeling and are faced with a major difficulty: little (or no) information available in order to assess the situation.The objective of this thesis is to suggest a methodology able to take into account uncertainties in the input data for the modeling carried out in emergency situations and to return explicitly these uncertainties to the manager of the crisis.A first step was to evaluate, for a given situation generating a toxic or flammable cloud, the dispersion of modeling results. A ranking of the input variables according to their influence on the final result was established. This phase was carried out on the basis of a sensitivity analysis with a specifically developed strategy.A second phase aimed to establish a methodology for estimating distance effects (in crisis situations), which takes into account the level of uncertainty in the input variables. A methodology for the classification of input operational data was carried out. This methodology is based on two criteria: the sensitivity of the model to the input parameter and the uncertainty about its value (imprecision or variability). On this basis, a new way of using these variables was suggested. Finally, several methods aimed to restore explicitly the results of this modeling were suggested.
223

Appréciation quantitative des risques pour l'évaluation de mesures de maîtrise sanitaire dans une filière agro-alimentaire. Application à Clostridium perfringens en restauration hospitalière / Quantitative risk assessment for assessment of control measures in a food chain. Application to Clostridium perfringens in an hospital kitchen

Sevrin-Jaloustre, Séverine 24 October 2011 (has links)
Dans ce travail, un modèle d'appréciation quantitative des risques microbiens a été développé pour proposer des mesures de maitrise sanitaire et les relier à des métriques du risque. A partir d'observations réalisées dans un hôpital, nous avons pu caractériser le procédé de fabrication et de distribution de deux plats de boeuf en sauce, de manière à prédire l'évolution du danger Clostridium perfringens tout au long de ce procédé en utilisant les outils de la microbiologie prévisionnelle. Dans le modèle d'exposition, nous avons construit un modèle décrivant la germination puis la croissance de Clostri- dium perfringens pendant deux étapes du procédé, et un modèle décrivant la destruction thermique finale des cellules végétatives de Clostridium perfrin- gens. Ensuite, pour estimer un risque de diarrhée lié à la consommation de ces plats, nous avons construit un modèle dose réponse. De manière à pouvoir prédire la gamme des situations possibles, nous avons cherché à décrire, dans chacun des modèles, la variabilité de la réponse biologique modélisée en utilisant des données issues de méta analyse, obtenues dans des conditions variées. L'utilisation de l'inférence bayésienne sur des données issues de méta analyse nous a permis de décrire séparément variabilité et incertitude, suivant les recommandations des instances internationales. Des simulations de Monte Carlo à deux dimensions sur l'ensemble du procédé nous ont ensuite permis d'estimer le risque moyen de maladie lié à la consommation des plats et d'estimer l'incertitude sur ce risque moyen. Ces simulations nous ont aussi permis d'identifier deux étapes importantes pour la maitrise du risque et de proposer, pour chacune de ces étapes, des mesures de maitrise sanitaire, dont nous avons ensuite mesuré l'efficacité. / In this study, a quantitative risk assessment model was developed in order to propose control measures making it possible to reach some `risk based' targets. A survey, carried out in an hospital, made it possible to describe a food chain, from raw material until consumption, of two beef-in-sauce products, such as to predict the evolution of Clostridium perfringens along the whole process using predictive microbiology tools. In the exposure assessment model, we described Clostridium perfringens germination, outgrowth and growth in a first model, applied on two process steps, and final thermal inactivation of Clostridium perfringens vegetative cells in a second model. Then, in order to estimate the risk of diarrhea after the consumption of the two products, we established a dose response model. In order to predict in our model the full range of possible outcomes, we aimed at describing, in each proposed model, the variability on the modelled biological response using meta analysis data, obtained on various experimental conditions. Performing Bayesian inference on these published data, we separated variability and uncertainty, according to recommendations of international organizations. Second order Monte Carlo simulations on the whole process made it possible to estimate the mean risk of diarrhea after to the consumption of the products and to estimate the uncertainty on this median risk. Based on these simulations, two key steps for food safety were then identified in the process, leading us to propose, for each step, control measures and to measure their efficacy.
224

Exploitation des connaissances issues des processus de retour d'expérience industriels / Exploitation of knowledge extracted from Industrial Feedback Processes

Jabrouni, Hicham 22 October 2012 (has links)
Depuis plusieurs années, dans le secteur industriel, l’amélioration continue constitue un aspect important de la famille de normes ISO 9000 maintenue par l’organisation ISO (International Organization for Standardization). Elle se concentre sur l’amélioration de la satisfaction du client en passant par des améliorations continues et incrémentales des produits, des services et des processus. Afin de répondre à ces exigences, un point clé consiste à optimiser le processus de résolution de problèmes qui vise à analyser et résoudre les problèmes courants pour éviter de nouvelles occurrences. Différents processus de résolution de problèmes ont été définis et sont implantés dans les entreprises. L’un des plus connu est sans doute la méthode PLAN-DO-CHECK-ACT (PDCA), également connue sous le nom de « Roue de Deming ». D’autres méthodes sont également utilisées comme : 8 Disciplines (8D) également appelée TOPS (Team-Oriented Problem Solving), Six sigma ou DMAIC (Define, Measure, Analyze, Improve and Control), 7 step, etc. Les activités principales dans ces processus sont : la formation d’une équipe de résolution de problème, la description et l’évaluation de la criticité des événements, l’analyse des événements afin d’en rechercher les causes racine et valider cette analyse, la proposition d’une solution au problème et son application (solution curative), la suggestion d’actions pour éviter une nouvelle occurrence du problème (solution préventive, leçons apprises, etc.). Dans cette logique d’amélioration continue, un processus de Retour d’Expérience (Rex) est une représentation générique focalisé sur l'acquisition des connaissances des experts en phase de résolution de problème et sur la réutilisation de ces connaissances pour résoudre ou éviter de nouveaux problèmes. Une base de connaissances de retour d'expérience va servir de pivot entre la phase d'acquisition et la phase d'exploitation. Les points abordés dans le travail de thèse seront les suivants : Représenter les différentes composantes d'une expérience en utilisant les processus de résolution de problème comme support de capitalisation. Instrumenter les processus de capitalisation et d’exploitation Formaliser des mécanismes de recherche d’expérience, Formaliser des mécanismes de réutilisation d’analyses expertes - Développer un outil support de retour d’expérience sur une architecture Web. / Continuous improvement of industrial processes is increasingly a key element of competitiveness for industrial systems. Management of experience feedback takes place in this framework to build, analyze and facilitate the reuse of immaterial potential of an organization in order to make it better in achieving its processes and / or products. For several years, the need for continuous improvement of products and processes has led many companies to set up standardized problem solving processes. For this purpose, different Problem Solving Processes are commonly used in the industrial field such as: 8D, PDCA (Plan Do Check Act), DMAICS (Define Measure Analyze Improve Control Standardize) or, more recently, the 9S process (9Steps). The main activities in the problem solving process are: The composition of the problem solving team, the description and assessment of the problem highlighted by events, the analysis of events to identify their root causes and their validation, the formulation of the problem solutions and their application checking (corrective actions), the action suggestions to prevent from a new occurrence of the problem (preventive actions, lessons learned, etc.). During the Problem Solving Processes, the intellectual investment of experts is often considerable. We propose to define mechanisms to reuse previously performed analysis (already solved issues) to guide the resolution of a new problem. The main contributions of this research work are : The structuring of a cognitive experience feedback framework allowing a flexible exploitation of expert knowledge: we propose a formal representation of an experience (according to the problem solving processes). - The definition of two mechanisms to exploit the context and analysis in these experiences. The specification and development of Experience Feedback Support Framework ProWhy offering methodological and software support for knowledge management (KM), and in particular for capitalization and exploitation phases of experience feedback processes.
225

Analysis of the causes of delay in collaborative decision-making under uncertainty in pharmaceutical R and D projects / Analyse des causes de retard dans la prise de décision collaborative en situation d'incertitude dans les projets R and D pharmaceutiques

Hassanzadeh, Saïna 03 December 2012 (has links)
Les décisions collaboratives sous incertitude dans les situations non urgentes peuvent être retardées, surtout lorsque la santé humaine et des investissements élevés sont en jeu comme c’est le cas des projets de R and D pharmaceutiques. Cette thèse étudie les causes des retards récurrents dans la prise de décision collaborative sous incertitude et les pratiques efficientes pour réduire ces retards. Pour mieux comprendre le problème des retards dans la prise de décision face à l’incertitude, nous étudions d’abord la notion d’incertitude et proposons une définition de l’incertitude adaptée au management de projet. Ensuite, le processus de prise de décision dans les projets de développement de nouveaux médicaments est modélisé, mettant en évidence le cycle de vie de l’information à partir de sa production jusqu’à sa consommation c’est-à-dire la décision elle-même. Ce modèle comprend une étape de réflexion individuelle et une étape de l’interaction en groupe, en clarifiant comment l’information est traitée différemment par les décideurs. Afin d’analyser les conflits du passé et anticiper ceux du futur, sur la base de ce modèle, un indice est défini pour mesurer le risque d’invalidation d’une décision prise a posteriori. Finalement, à travers des entretiens approfondis, 252 facteurs clés qui influent la prise de décision sont identifiés. Les trois causes de retard les plus citées sont : la peur de l’incertitude, la peur de la hiérarchie et la difficulté des décisions d’arrêt. Sur la base des facteurs identifiés, un recueil de bonnes pratiques est construit pour les acteurs du processus de prise de décision qui aident à former, mûrir, communiquer, digérer, respecter et finalement exécuter les décisions collaboratives. / Collaborative decisions may be deferred when faced with a high degree of uncertainty, especially when public health and high investments are at stake and in situations that seem non-urgent, as is the case in pharmaceutical R and D projects. This thesis investigates the causes of recurrent delay in collaborative decision-making under uncertainty, and the efficient practices to reduce this delay. To better understand the problem of delay in decision-making under uncertainty, we first review the notion of uncertainty and propose a definition of uncertainty adapted to project management. Then, the decision-making process in drug development projects is modeled, highlighting the information life cycle from its generation to its consumption i.e. the decision itself. It includes individual reflection and group interaction, clarifying how information is processed differently by decision-makers. To analyze past conflicts and anticipate future ones, based on this model, an index is defined that measures the risk of invalidating a decision a posteriori. Finally, through an in-depth interview-based approach, 252 key factors that affect decision-making are pointed out. The three most-mentioned causes of delay are: fear of uncertainty, fear of hierarchy, and difficulty of No Go decisions. Based on the identified factors, a compendium of practices is constructed for the actors of the decision-making process that help collaborative decisions to be formed, matured, digested, respected, and finally executed.
226

Génération de prédiction par la combinaison de fusion de données et de modélisation spatio-temporelle : application à la localisation de la répartition de la maladie basal stem rot dans les plantations de palmiers à huile / Generating prediction through combination of data fusion technique and spatio-temporal modeling : an application to localize basal stem rot disease distribution in oil palm plantations

Tengku Mohd Azahar, Tuan Dir 03 December 2012 (has links)
Cette thèse constitue une nouvelle approche pour la prédiction des maladies des plantes dans une plantation par combinaison de fusion de données et modélisation spatio-temporelle. La maladie des plantes est un problème majeur dans le monde de l'agriculture. Par exemple en Malaisie, la maladie de la pourriture de basal de la tige (BSR) causée par le champignon Ganoderma Boninense est la maladie la plus grave pour les plantations de palmiers à huile. Le champignon infecte les palmiers à huile,causant des pertes de rendement et détruisant au final les arbres. Divers facteurs ont été précédemment signalés, qui influencent l'incidence de la BSR, tels que les cultures précédentes, les techniques de replantation, les types de sols et l'âge des arbres. Une gestion efficace et durable des stratégies pour contrôler le BSR se heurte principalement à un manque de compréhension des mécanismes d'établissement de la maladie, de son développement et de sa propagation. La présente recherche est une tentative d'appliquer la technique de fusion de données et la modélisation temporelle en système d'Information géographique (SIG) pour étudier le comportement des maladies des plantes dans un domaine particulier (zone artisanale). Cette recherche portera sur comment les SIG peuvent aider à évaluer la distribution des maladies des plantes dans une plantation de petite échelle. Avec les progrès simultanés dans les systèmes de positionnement global (GPS) et l'utilisation des systèmes d'Information géographique, ces techniques ont fourni de puissants outils d'analyse pour l'agriculture de précision. Les données pour l'analyse proviennent de palmiers à huile des expériences de densité de plantation aux stations de recherche MPOB à Teluk Intan, Perak, Malaisie.Dans le cas de la maladie de la BSR, les résultats de l'émission de modélisation prédictive ont observé une corrélation entre les maladies BSR prédites avec celles visuellement données par le BSR. Il a été constaté que la modélisation prédictive proposée a bien prédit la présence de la maladie de la BSR. Même si au début d'infection des maladies BSR, le modèle n'a pas fixé exactement la distribution de la maladie, la performance du modèle sera améliorée avec la sélection de la source de données. Dans l'ensemble, le modèle a bien prédit la présence de maladies avec une précision allant jusqu'à 98,9 %. / This thesis represents a new approach for predicting plant disease in a plantation through combination of data fusion and spatio-temporal modelling. Plant disease is a major problem in the world of agriculture. Example in Malaysia, basalstem rot disease (BSR) caused by Ganoderma Boinense is the most serious disease for oil palm plantation in Malaysia. The fungus infects oil palm trees, initially causing yield loss and finally killing the trees. Various factors were previously reported to influence incidence of BSR, such as previous crops, techniques for replanting, types of soils and the age of trees. At present effective and sustainable management strategies to control BSR are hampered mainly by a lack of understanding of mechanisms of disease establishment, development and spread. The present research is an attempt to apply data fusion technique and temporal modelling in Geographical Information System (GIS) to investigate the behaviour of plant disease in a specific area (small skill area). This research will focus on how GIS can help to assess the distribution plant disease in a small scale plantation. With concurrent advances in global positioning systems (GPS) and the use of geographical Information Systems(GIS) techniques have provided powerful analysis tools for precision agriculture. Data for analysis were obtained from oil palm planting density experiments at MPOB research stations at Teluk Intan, Perak, Malaysia. In the case of BSR disease, the results of the predictive modelling show a significance correlation between predicted BSR diseases with visually observed BSR data. It found that the proposed predictive modelling has well predicted the presence of BSR disease. Although at the beginning stage of BSR diseases infection, the model has not fitted exactly the distribution of the disease, we believe that with the proper selection of the source of data, the performance of the model will be improved.Overall, the model has well predicted the presence of diseases with accuracy up to 98.9%.
227

Représentation et gestion de l'incertitude pour l'action / Representation and handling of uncertainty for action

Morel, Pierre 07 January 2011 (has links)
Nos entrées sensorielles, comme nos mouvements, sont entachés d’incertitudes. Pourtant, notre système nerveux central semble être aussi précis que possible compte tenu de ces incertitudes: il les gère de manière optimale, par exemple en pondérant des informations sensorielles redondantes en fonction de leur fiabilité, ou en prenant en compte ses incertitudes motrices lors de la réalisation de mouvements. Si les modalités des combinaisons d’informations redondantes sont bien connues lors de tâches statiques, elles le sont moins en conditions dynamiques, lors de mouvements. La partie expérimentale de cette thèse a permis de confirmer l’existence de mécanismes d’estimation et de contrôle optimaux des mouvements chez l’humain. En effet, nous avons mis en évidence l’intégration optimale d’information visuelle lors de la réalisation de saccades à la lumière: lors de séquences de saccades, le système visuomoteur est capable d’utiliser l’information visuelle pour mettre à jour ses estimations internes de la position de l’œil. Une étude complémentaire des sources de variabilité des saccades suggère un rôle similaire pour la proprioception extra-oculaire. Par une troisième expérience, novatrice, nous avons montré que le toucher est pris en compte en temps réel lors de mouvements de la main en contact avec une surface. Nous avons également inféré une mesure de la variance de l'information tactile. Enfin, à partir des connaissances sur la représentation des variables sensorimotrices dans le système nerveux, nous avons construit plusieurs réseaux de neurones qui implémentent de manière proche de l'optimum statistique la planification et le contrôle de mouvements / Our sensory inputs, as well as our movements, are uncertain. Nevertheless, our central nervous systems appears to be as accurate as possible: these uncertainties are handled in an optimal fashion. For example, redundant sensory signals are weighted according to their accuracy, and motor uncertainties are taken in account when movements are made. The characteristics of the combination of redundant sensory signals are well known for static tasks. However, they are less known in dynamic conditions. The experimental part of this thesis allowed to confirm the use of statistically optimal sensorimotor processes during movements. We showed that visual information can be integrated during sequences of saccades, the oculomotor system being able to use visual information to update its internal estimate of eye position. A complementary study on the sources of variability for saccadic eye movements suggests a similar role for extra-ocular proprioception. In a third original experiment, we showed that tactile input is optimally taken in account for the on-line control of arm movements during which fingertips are in contact with a textured surface. Last, we built several neuronal networks models simulating optimal movement planning. These networks were based on current knowledge about probabilistic representations in the nervous system
228

Conception de lignes de fabrication sous incertitudes : analyse de sensibilité et approche robuste. / Production line design under uncertainty : sensitivity analysis and robust approach

Gurevsky, Evgeny 13 December 2011 (has links)
Les travaux présentés dans cette thèse portent sur la conception de systèmes de fabrication en contexte incertain. La conception d’un tel système peut être vue comme un problème d’optimisation qui consiste à trouver une configuration qui permet d’optimiser certains objectifs tout en respectant des contraintes technologiques et économiques connues. Les systèmes de fabrication étudiés dans ce mémoire sont des lignes d’assemblage et d’usinage. La première est une ligne qui se présente comme une chaîne de postes de travail où, dans chaque poste, les opérations d’assemblage s’exécutent de manière séquentielle. La deuxième, quant à elle, est une ligne particulière qui se compose de machines de transfert comportant plusieurs boîtiers multibroches où les opérations s’exécutent simultanément. Dans un premier temps, nous décrivons de différentes approches permettant de modéliser l’incertitude des données en optimisation. Une attention particulière est portée sur les deux approches suivantes : l’approche robuste et l’analyse de sensibilité. Puis, nous présentons trois applications : la conception d’une ligne d’assemblage et d’une ligne d’usinage soumises aux variations de temps opératoires et la conception d’une ligne d’assemblage avec les temps opératoires connus sous la forme d’intervalles des valeurs possibles. Pour chaque application, nous identifions les performances attendues ainsi que la complexité de la prise en compte de l’incertitude. Ensuite, nous proposons de nouveaux critères d’optimisation en adéquation avec la problématique introduite. Enfin des méthodes de résolution sont développées pour appréhender les différents problèmes mis en évidence par ces critères. / The presented work deals with the design of production systems in uncertain context. The design of such systems can be interpreted as an optimization problem that consists to find a configuration optimizing certain objectives and respecting technological and economical constraints. The production systems studied in this thesis are the assembly and transfer lines. The first one is the line that can be represented as a flow-oriented chain of workstations where, at each workstation, the tasks are executed in a sequential manner. The second is a particular line that is composed of transfer machines including several multi-spindle heads where the tasks are executed simultaneously. At first, we describe different approaches that permit to model the uncertainty of data in optimization. A particular attention is attracted to two following approaches: robust approach and sensitivity analysis. Then, we present three applications: the design of assembly and transfer lines under variations of task processing times and the design of an assembly line with interval task processing times. For each application, we identify the expected performances as well as the complexity of taking into account the uncertainty. Thereafter, we propose some new optimization criteria in adequacy with the introduced problematic. Finally, resolution methods are developed to solve different problems engendered by these criteria.
229

Contribution to the modelling of aircraft tyre-road interaction / Contribution à la modélisation de l'interface pneu-piste du train d'atterissage des avions

Kiébré, Rimyalegdo 10 December 2010 (has links)
La présente thèse est une partie du projet national français dénommé MACAO (Modélisation Avancée de Composants Aéronautiques et Outils associés). En collaboration avec Messier-Dowty (constructeur d'atterrisseurs d'avion), cette thèse contribue à une meilleure compréhension du comportement du pneu sur piste dans le domaine de l'aéronautique. L'objectif est de mettre en place des modèles capables de représenter le torseur des efforts au niveau de l'interface pneu-piste lors des différentes manœuvres de l'avion au sol en régime établi. Une priorité est accordée aux modèles dont les paramètres sont physiquement interprétables. De ce fait, un état de l'art des modèles de pneu en régime établi est d'abord réalisé. Un classement de ces modèles selon leurs motivations et limitations est aussi proposé. A l'aide de cette classification et en prenant en compte les exigences de l'étude, un choix a priori de modèles a été analysé. Les limites de ces modèles sont soulignées et une amélioration est proposée. Par ailleurs, une étude exhaustive de la déformation du pneu en situation de virage a été menée. Elle a permis de décrire la génération de la composante longitudinale de la force totale au niveau de l'interface pneu-piste. Elle est dite force longitudinale induite. Puis, en prenant en compte cette force, il a été possible d'expliquer pourquoi le moment d'auto-alignement peut repasser par zéro sans que le pneu ne soit en glissement total. Enfin, l'analyse de sensibilité est proposée comme une méthode permettant de déterminer les paramètres les plus influents de chaque modèle. Ces paramètres doivent alors être déterminés avec précision afin de réduire l'incertitude sur le modèle. / This thesis is a part of the French national project called MACAO (Modélisation Avancée de Composants Aéronautiques et Outils associés). In collaboration with Messier-Dowty company (a landing gears manufacturer), the thesis has contributed to better understand the actual literature studies in the field of aircraft tyre-road interaction modelling and therefore, to help making an optimal choice of model for a specifie application. The objectives have been to propose models for representing the tyre behaviour on the ground with respect to the aircraft run types. Physical oriented models are preferred. To complete this study, a literature survey of the previous researches in tyre modelling for steady­state responses is first carried out. Then, based on the main factors playing an important role in tyre modelling, it is proposed a classification for the physical and the semi-empirical models, which are also investigated. Based on this classification, the study requirements and the measurement data constraints, an a priori choice of suitable models are studied. A further investigation of the tyre deformation at pure lateral slip is carried out. It has allowed to physically describe the mechanism of generation of the longitudinal component of the tyre force at pure lateral slip. This force is refened as induced longitudinal force. By taking this force into consideration, it has been possible to explain why the self-aligning moment can drop to zero before the tyre gets to full sliding at pure lateral slip. Besides, the sensitivity analysis is proposed as a means for determining the parameters that have most influence on the model output and thus, are responsible for the output uncertainty.
230

A Resource-Oriented Architecture for Integration and Exploitation of Linked Data / Conception d'une architecture orientée services pour l'intégration et l'exploitation de données liées

De Vettor, Pierre 29 September 2016 (has links)
Cette thèse porte sur l'intégration de données brutes provenant de sources hétérogènes sur le Web. L'objectif global est de fournir une architecture générique et modulable capable de combiner, de façon sémantique et intelligente, ces données hétérogènes dans le but de les rendre réutilisables. Ce travail est motivé par un scenario réel de l'entreprise Audience Labs permettant une mise à l'échelle de cette architecture. Dans ce rapport, nous proposons de nouveaux modèles et techniques permettant d'adapter le processus de combinaison et d'intégration à la diversité des sources de données impliquées. Les problématiques sont une gestion transparente et dynamique des sources de données, passage à l'échelle et responsivité par rapport au nombre de sources, adaptabilité au caractéristiques de sources, et finalement, consistance des données produites(données cohérentes, sans erreurs ni doublons). Pour répondre à ces problématiques, nous proposons un méta-modèle pour représenter ces sources selon leurs caractéristiques, liées à l'accès (URI) ou à l'extraction (format) des données, mais aussi au capacités physiques des sources (latence, volume). En s'appuyant sur cette formalisation, nous proposent différentes stratégies d'accès aux données, afin d'adapter les traitements aux spécificités des sources. En se basant sur ces modèles et stratégies, nous proposons une architecture orientée ressource, ou tout les composants sont accessibles par HTTP via leurs URI. En se basant sur les caractéristiques des sources, sont générés des workflows d'exécution spécifiques et adapté, permettant d'orchestrer les différentes taches du processus d'intégration de façon optimale, en donnant différentes priorités à chacune des tâches. Ainsi, les temps de traitements sont diminuées, ainsi que les volumes des données échangées. Afin d'améliorer la qualité des données produites par notre approches, l'accent est mis sur l'incertitude qui peut apparaître dans les données sur le Web. Nous proposons un modèle, permettant de représenter cette incertitude, au travers du concept de ressource Web incertaines, basé sur un modèle probabiliste ou chaque ressource peut avoir plusieurs représentation possibles, avec une certaine probabilité. Cette approche sera à l'origine d'une nouvelle optimisation de l'architecture pour permettre de prendre en compte l'incertitude pendant la combinaison des données / In this thesis, we focus on data integration of raw data coming from heterogeneous and multi-origin data sources on the Web. The global objective is to provide a generic and adaptive architecture able to analyze and combine this heterogeneous, informal, and sometimes meaningless data into a coherent smart data set. We define smart data as significant, semantically explicit data, ready to be used to fulfill the stakeholders' objective. This work is motivated by a live scenario from the French {\em Audience Labs} company. In this report, we propose new models and techniques to adapt the combination and integration process to the diversity of data sources. We focus on transparency and dynamicity in data source management, scalability and responsivity according to the number of data sources, adaptability to data source characteristics, and finally consistency of produced data (coherent data, without errors and duplicates). In order to address these challenges, we first propose a meta-models in order to represent the variety of data source characteristics, related to access (URI, authentication) extraction (request format), or physical characteristics (volume, latency). By relying on this coherent formalization of data sources, we define different data access strategies in order to adapt access and processing to data source capabilities. With help form these models and strategies, we propose a distributed resource oriented software architecture, where each component is freely accessible through REST via its URI. The orchestration of the different tasks of the integration process can be done in an optimized way, regarding data source and data characteristics. This data allows us to generate an adapted workflow, where tasks are prioritized amongst other in order to fasten the process, and by limiting the quantity of data transfered. In order to improve the data quality of our approach, we then focus on the data uncertainty that could appear in a Web context, and propose a model to represent uncertainty in a Web context. We introduce the concept of Web resource, based on a probabilistic model where each resource can have different possible representations, each with a probability. This approach will be the basis of a new architecture optimization allowing to take uncertainty into account during our combination process

Page generated in 0.0372 seconds