• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 139
  • 54
  • 13
  • 3
  • Tagged with
  • 204
  • 204
  • 124
  • 112
  • 55
  • 50
  • 34
  • 33
  • 32
  • 32
  • 25
  • 24
  • 23
  • 22
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

De l'utilisation de méta-modèles pour la modélisation et l'analyse de la réponse radar des forêts / On the use of metamodeling for modeling and analysis of the radar response of forests

Piteros, Panagiotis 15 April 2016 (has links)
Dans ce travail, une nouvelle approche de conduite des observations radar de la forêt est proposée. Elle combine des méthodes statistiques pour l’analyse de sensibilité et les plans d’expériences numériques séquentiels et un code de calcul simulant la rétrodiffusion d’une forêt en vue de l’élaboration d’un modèle approché (métamodèle) à moindre coût numérique. L’introduction de ces outils mathématiques a pour objectif d’aider à la planification et à l’exécution des simulations radar et à l’organisation et l’analyse de leurs résultats. D’une part, les techniques de l’analyse de sensibilité sont appliquées afin de classer par ordre d’importance les paramètres d’entrée du modèle et d’identifier les paramètres de la forêt les plus significatifs ainsi que leurs effets sur le signal radar. D’autre part, la construction d’un métamodèle adaptable accélère le code de calcul, en préservant la physique du phénomène. Le cadre opérationnel de ce modèle approché sert finalement à introduire le principe du radar cognitif dans notre stratégie. Dans ce cas, une analyse rapide du signal reçu est nécessaire pour concevoir, en temps réel, le nouveau signal à émettre. De cette façon, les observations du radar simulées incluent en temps réel l’effet de l’environnement illuminé grâce aux simulations plus rapides et ciblées. / In this work, a new approach to conduct the radar observations of forests is proposed. It combines statistical methods for sensitivity analysis and adaptive design of simulation experiments and a numerical code simulating the the forest backscattering for the use of a approximate model (metamodel) with less computational cost. The introduction of these mathematical tools has as an objective to assist the design and the execution of radar simulations and at the organization and the analysis of their results. On the one hand, the sensitivity analysis techniques were applied in order to classify the input parameters by means of their importance and to identify the most significant forest parameters as well as their effects on the radar signal. On the other hand, the construction of an adaptive metamodel accelerates the simulation model, while keeping the physics of the phenomenom. The operational frame of this approximate model serves finally in the introduction of the cognitive radar principle in our strategy. In that case, a fast analysis of the received signal is necessary to design, in real time, the new signal to be emitted. That way, the simulated radar observations take into account in real time the effect of the illuminated environment, thanks to the more focused and fast simulations.
92

Échantillonnages Monte Carlo et quasi-Monte Carlo pour l'estimation des indices de Sobol' : application à un modèle transport-urbanisme / Monte Carlo and quasi-Monte Carlo sampling methods for the estimation of Sobol' indices : application to a LUTI model

Gilquin, Laurent 17 October 2016 (has links)
Le développement et l'utilisation de modèles intégrés transport-urbanisme sont devenus une norme pour représenter les interactions entre l'usage des sols et le transport de biens et d'individus sur un territoire. Ces modèles sont souvent utilisés comme outils d'aide à la décision pour des politiques de planification urbaine.Les modèles transport-urbanisme, et plus généralement les modèles mathématiques, sont pour la majorité conçus à partir de codes numériques complexes. Ces codes impliquent très souvent des paramètres dont l'incertitude est peu connue et peut potentiellement avoir un impact important sur les variables de sortie du modèle.Les méthodes d'analyse de sensibilité globales sont des outils performants permettant d'étudier l'influence des paramètres d'un modèle sur ses sorties. En particulier, les méthodes basées sur le calcul des indices de sensibilité de Sobol' fournissent la possibilité de quantifier l'influence de chaque paramètre mais également d'identifier l'existence d'interactions entre ces paramètres.Dans cette thèse, nous privilégions la méthode dite à base de plans d'expériences répliqués encore appelée méthode répliquée. Cette méthode a l'avantage de ne requérir qu'un nombre relativement faible d'évaluations du modèle pour calculer les indices de Sobol' d'ordre un et deux.Cette thèse se focalise sur des extensions de la méthode répliquée pour faire face à des contraintes issues de notre application sur le modèle transport-urbanisme Tranus, comme la présence de corrélation entre paramètres et la prise en compte de sorties multivariées.Nos travaux proposent également une approche récursive pour l'estimation séquentielle des indices de Sobol'. L'approche récursive repose à la fois sur la construction itérative d'hypercubes latins et de tableaux orthogonaux stratifiés et sur la définition d'un nouveau critère d'arrêt. Cette approche offre une meilleure précision sur l'estimation des indices tout en permettant de recycler des premiers jeux d'évaluations du modèle. Nous proposons aussi de combiner une telle approche avec un échantillonnage quasi-Monte Carlo.Nous présentons également une application de nos contributions pour le calage du modèle de transport-urbanisme Tranus. / Land Use and Transportation Integrated (LUTI) models have become a norm for representing the interactions between land use and the transportation of goods and people in a territory. These models are mainly used to evaluate alternative planning scenarios, simulating their impact on land cover and travel demand.LUTI models and other mathematical models used in various fields are most of the time based on complex computer codes. These codes often involve poorly-known inputs whose uncertainty can have significant effects on the model outputs.Global sensitivity analysis methods are useful tools to study the influence of the model inputs on its outputs. Among the large number of available approaches, the variance based method introduced by Sobol' allows to calculate sensitivity indices called Sobol' indices. These indices quantify the influence of each model input on the outputs and can detect existing interactions between inputs.In this framework, we favor a particular method based on replicated designs of experiments called replication method. This method appears to be the most suitable for our application and is advantageous as it requires a relatively small number of model evaluations to estimate first-order or second-order Sobol' indices.This thesis focuses on extensions of the replication method to face constraints arising in our application on the LUTI model Tranus, such as the presence of dependency among the model inputs, as far as multivariate outputs.Aside from that, we propose a recursive approach to sequentially estimate Sobol' indices. The recursive approach is based on the iterative construction of stratified designs, latin hypercubes and orthogonal arrays, and on the definition of a new stopping criterion. With this approach, more accurate Sobol' estimates are obtained while recycling previous sets of model evaluations. We also propose to combine such an approach with quasi-Monte Carlo sampling.An application of our contributions on the LUTI model Tranus is presented.
93

Uncertainty quantification in the simulation of road traffic and associated atmospheric emissions in a metropolitan area / Quantification d'incertitude en simulation du trafic routier et de ses émissions atmosphériques à l'échelle métropolitaine

Chen, Ruiwei 25 May 2018 (has links)
Ce travail porte sur la quantification d'incertitude dans la modélisation des émissions de polluants atmosphériques dues au trafic routier d'une aire urbaine. Une chaîne de modélisations des émissions de polluants atmosphériques est construite, en couplant un modèle d’affectation dynamique du trafic (ADT) avec un modèle de facteurs d’émission. Cette chaîne est appliquée à l’agglomération de Clermont-Ferrand (France) à la résolution de la rue. Un métamodèle de l’ADT est construit pour réduire le temps d’évaluation du modèle. Une analyse de sensibilité globale est ensuite effectuée sur cette chaîne, afin d’identifier les entrées les plus influentes sur les sorties. Enfin, pour la quantification d’incertitude, deux ensembles sont construits avec l’approche de Monte Carlo, l’un pour l’ADT et l’autre pour les émissions. L’ensemble d’ADT est évalué et amélioré grâce à la comparaison avec les débits du trafic observés, afin de mieux échantillonner les incertitudes / This work focuses on the uncertainty quantification in the modeling of road traffic emissions in a metropolitan area. The first step is to estimate the time-dependent traffic flow at street-resolution for a full agglomeration area, using a dynamic traffic assignment (DTA) model. Then, a metamodel is built for the DTA model set up for the agglomeration, in order to reduce the computational cost of the DTA simulation. Then the road traffic emissions of atmospheric pollutants are estimated at street resolution, based on a modeling chain that couples the DTA metamodel with an emission factor model. This modeling chain is then used to conduct a global sensitivity analysis to identify the most influential inputs in computed traffic flows, speeds and emissions. At last, the uncertainty quantification is carried out based on ensemble simulations using Monte Carlo approach. The ensemble is evaluated with observations in order to check and optimize its reliability
94

Schemes and Strategies to Propagate and Analyze Uncertainties in Computational Fluid Dynamics Applications / Schémas et stratégies pour la propagation et l’analyse des incertitudes dans la simulation d’écoulements

Geraci, Gianluca 05 December 2013 (has links)
Ce manuscrit présente des contributions aux méthodes de propagation et d’analyse d’incertitude pour des applications en Mécanique des Fluides Numérique. Dans un premier temps, deux schémas numériques innovantes sont présentées: une approche de type ”Collocation”, et une autre qui est basée sur une représentation de type ”Volumes Finis” dans l’espace stochastique. Dans les deux, l’élément clé est donné par l’introduction d’une représentation de type ”Multirésolution” dans l’espace stochastique. L’objectif est à la fois de réduire le nombre de dimensions et d’appliquer un algorithme d’adaptation de maillage qui puisse être utilisé dans l’espace couplé physique/stochastique pour des problèmes non-stationnaires. Pour finir, une stratégie d’optimisation robuste est proposée, qui est basée sur une analyse de décompositionde la variance et des moments statistiques d’ordre plus élevé. Dans ce cas, l’objectif est de traiter des problèmes avec un grand nombre d’incertitudes. / In this manuscript, three main contributions are illustrated concerning the propagation and the analysis of uncertainty for computational fluid dynamics (CFD) applications. First, two novel numerical schemes are proposed : one based on a collocation approach, and the other one based on a finite volume like representation in the stochastic space. In both the approaches, the key element is the introduction of anon-linear multiresolution representation in the stochastic space. The aim is twofold : reducing the dimensionality of the discrete solution and applying a time-dependent refinement/coarsening procedure in the combined physical/stochastic space. Finally, an innovative strategy, based on variance-based analysis, is proposed for handling problems with a moderate large number of uncertainties in the context of the robust design optimization. Aiming to make more robust this novel optimization strategies, the common ANOVA-like approach is also extended to high-order central moments (up to fourth order). The new approach is more robust, with respect to the original variance-based one, since the analysis relies on new sensitivity indexes associated to a more complete statistic description.
95

Analyse de sensibilité paramétrique d’un outil de modélisation des conséquences de scénarios d’accidents. Application à la dispersion atmosphérique de rejets avec le logiciel Phast / Parametric sensitivity analysis of a modelling tool for consequence estimation. Application to the atmospheric dispersion of accidental releases with the Phast software

Pandya, Nishant 01 December 2009 (has links)
L’objectif de la thèse est d’effectuer l’analyse de sensibilité paramétrique du logiciel Phast de modélisation de la dispersion atmosphérique de gaz toxiques et/ou inflammables. La technique a consisté à coupler Phast et l’outil d’analyse de sensibilité SimLab, ce qui permet d’exécuter automatiquement un grand nombre de simulations en faisant varier l’ensemble des paramètres du modèle de façon simultanée. La méthode d’analyse de sensibilité globale choisie, E-FAST, est basée sur l’analyse de la variance des sorties du modèle pour le calcul des indices de sensibilité. Nous avons étudié des scénarios de rejet continus pour six produits différents (monoxyde d’azote, ammoniac, chlore, azote, n-hexane et fluorure d’hydrogène), sélectionnés pour couvrir une large gamme de caractéristiques physiques et de conditions de stockage. L’analyse du modèle de dispersion de Phast, Unified Dispersion Model, a été séparée en deux étapes : étape de « screening » avec pour but de comparer l’influence de l’ensemble des paramètres puis étude de l’influence globale des paramètres de modélisation, autres que les paramètres météo et du terme source, sur une plage large de valeurs. Pour chaque produit, nous avons décomposé les scénarios de base en sous-scénarios correspondant à des conditions de rejet différentes. Ce travail a notamment permis de classifier les paramètres du modèle selon leur degré d’influence sur la variabilité de différentes sorties et d’effectuer une analyse comparative par produit indiquant, pour des conditions de rejet données, quels paramètres sont les plus influents sur les sorties. Une étude complémentaire a consisté à effectuer une analyse de sensibilité locale de ces paramètres autour de leur valeur par défaut. / We have undertaken a parametric sensitivity analysis of the Phast software tool’s models for atmospheric dispersion of toxic and/or inflammable gases. We have coupled Phast with the sensitivity analysis tool SimLab, and have automated the execution of a large number of simulations while varying simultaneously selected model parameters. The global sensitivity analysis method used, E-FAST, is based on analysis of the variance of model outputs, and allows us to estimate sensitivity indices. We have studied continuous release scenarios for six different products (nitric oxide, ammonia, chlorine, nitrogen, n-hexane and hydrogen fluoride), which were chosen to cover a wide range of physical characteristics and storage conditions. Our analysis of Phast’s Unified Dispersion Model comprises two phases: a screening phase which allows the sensitivity of a wide range of parameters to be compared, followed by a phase focusing on the sensitivity of internal model parameters (excluding weather and source term variables), over a wide input range. For each product, we have broken down base-case scenarios into a number of sub-scenarios corresponding to different release conditions. This work has allowed us to rank model parameters according to their influence on the variability of a number of model outputs. It also includes a per-product comparative analysis indicating, for each release condition studied, which parameters have the most influence on the outputs. In the final part of the work, we have analyzed the local sensitivity of these parameters in a narrow range around their default values.
96

Dimensionnement multi-physique des véhicules hybrides, de leurs composants et de la commande du système / Multiphysics sizing of components and energy management of hybrid electric vehicle systems

Le guyadec, Mathias 01 October 2018 (has links)
Le transport routier est au cœur des enjeux environnementaux actuels. Les véhicules électriques hybrides (VEH) sont une alternative intéressante, notamment en milieu urbain. Cependant, la conception de tels systèmes est complexe car la chaîne de traction (composants et architecture), la mission et la gestion énergétique du véhicule sont intimement liées.Les travaux de V. Reinbold ont permis de mettre au point une méthodologie de dimensionnement de VEH. Les composants sont optimisés conjointement avec la gestion énergétique sur un cycle de fonctionnement afin de minimiser la consommation de carburant du véhicule. Une attention particulière est portée à la conception fine de la machine électrique via un modèle électromagnétique adapté à l’optimisation.Dans la suite de ces travaux, nous approfondissons plusieurs aspects du dimensionnement des VEH. Tout d’abord, nous introduisons la possibilité de gérer des paramètres discrets de la machine, comme le nombre de paires de pôles. Dans un second temps, nous développons un modèle thermique de la machine prenant notamment en compte les échanges autour des têtes de bobine. Ce modèle analytique par réseau de résistances thermiques est intégré puis utilisé dans le processus de dimensionnement par optimisation. Il a été préalablement validé via un modèle par éléments finis. Des méthodes d’analyse d’incertitude et de sensibilité sont appliquées afin de quantifier l’influence de certains paramètres thermiques. Enfin, nous appliquons la méthodologie de dimensionnement par optimisation à une architecture série/parallèle, intégrant deux machines électriques. / Road transportation has a huge impact on the environment. Hybrid electric vehicles (HEV) are an interesting alternative, especially for urban uses. However, HEV are complex systems to design because of the strong interaction between the component sizing, the energy management and the driving cycle.V. Reinbold previously developed a sizing methodology for HEV. The components and the energy management are simultaneously optimized to reduce the fuel consumption of the vehicle over a driving cycle. A specific electromagnetic model is used during the optimization process to describe accurately the electrical machine.As a continuation, we introduce firstly the possibility to deal with discrete variables such as the pole number of the electrical machine. Then, we develop a thermal model of the machine considering the convection exchanges around the end-windings. This analytical lumped parameter thermal network is used during the optimization process after being validated thanks to a finite element model. Uncertainty and sensitivity analysis are used to check the influence of some of the thermal parameters. Finally, the sizing methodology is applied to a series/parallel HEV including two electrical machines.
97

Contribution de la future mission altimétrique à large fauchée SWOT pour la modélisation hydrologique à grande échelle / Contribution of the wide-swath altimetry mission SWOT to improve large-scale hydrological modeling

Emery, Charlotte 03 February 2017 (has links)
L'objectif scientifique de ce travail de thèse est d'améliorer l'estimation des flux d'eau à la surface des continents, à l'échelle saisonnière et interannuelle (de quelques années à décennale). En particulier, il s'agit d'étudier l'apport de données satellites, notamment de la future mission SWOT (Surface Water and Ocean Topography, lancement prévu en 2021), pour l'étude de la partie continentale du cycle de l'eau à l'échelle globale, à l'aide du modèle global de surfaces continentales ISBA-TRIP (Intéractions Sol-Biosphère-Atmosphère/Total Runoff and Integrating Pathways). Dans ce travail de thèse, j'explore le potentiel des données d'altimétrie satellitaire, pour corriger certains paramètres du modèle de routage de rivière TRIP et aussi pour corriger ses variables d'état. Pour ce faire, une plateforme d'assimilation de données virtuelles SWOT, mais aussi de données d'altimètres nadirs actuels a été mise en place. Mais avant l'assimilation de ces données de télédétection, il a été nécessaire de faire une analyse de sensibilité du modèle TRIP à ses paramètres, pour déterminer quels paramètres ont le plus d'influence sur les observables SWOT et qui donc pourront être corrigés. L'analyse de sensibilité (ANOVA) a alors été menée sur les principaux paramètres de TRIP. L'analyse de sensibilité a été menée sur le bassin de L'Amazone et les résultats ont été publiés. Les résultats ont montré que les hauteurs d'eau simulées sont sensibles aux paramètres géomorphologiques locaux exclusivement tandis que les débits simulés sont sensibles à l'ensemble des paramètres amont (selon le réseau de routage TRIP) et surtout au paramètre lié au temps de résidence des eaux souterraines. Enfin, les anomalies de hauteurs présentent des sensibilités similaires aux hauteurs d'eau mais avec des variations temporelles plus marquées. Ces résultats nous ont permis de faire les choix algorithmiques dans le cadre de l'assimilation de données. Ensuite, je me suis concentrée sur le développement de la maquette d'assimilation de données consistant en un Filtre de Kalman d'Ensemble (EnKF) et permet de faire soit de l'estimation de paramètres, soit de l'estimation d'état. La maquette en " estimation de paramètres " est testée et validée par une série d'expériences jumelles. On a assimilé des pseudo-observations de hauteurs et d'anomalies d'eau le long des traces du satellite SWOT, afin de corriger les coefficients de Manning du lit de la rivière, avec possibilité d'étendre à d'autres paramètres. Les premiers résultats montrent que la maquette est capable de retrouver la bonne distribution des coefficients de Manning en assimilant les hauteurs d'eau et les anomalies. Pour l'estimation d'état, on réalise des étapes d'assimilation journalières pour corriger le stock d'eau initial (condition initiale du modèle), en assimilant des débits estimés à partir de séries altimétriques de côtes d'eau ENVISAT. A partir de courbe de tarage hauteurs d'eau-débits calibrées sur le bassin de l'Amazone avec le modèle hydrologique MGB-IPH, les côtes d'eau ont été transformées en " débits altimétriques " que l'on assimile alors dans la maquette. Ces expériences d'estimation d'état nous permettent de sortir du cadre idéalisé des expériences jumelles en assimilant des données réelles, mais nous permet aussi de tester l'apport d'un premier jeu de données de débits provenant de mesures satellites, qui préfigure le futur produit de débit SWOT. Les résultats montrent que les erreurs sur le débits sont globalement améliorées : le run libre donne un RMSE de 2,79x103 m3/s (73,6 %) par rapport aux données in situ disponible sur le bassin et le run corrigé un RMSE de 1,98 x 103 m3/s (53,9 %). / Scientific objective of this PhD work is to improve water fluxes estimation on the continental surfaces, at interanual and interseasonal scale (from few years to decennial time period). More specifically, it studies contribution of remotely-sensed measurements to improve hydrology model. Notably, this work focuses on the incoming SWOT mission (Surface Water and Ocean Topography, launch scheduled for 2021) for the study of the continental water cycle at global scale, and using the land surface model ISBA-TRIP. In this PhD work, I explore the potential of satellite data to correct both input parameters of the river routing scheme TRIP and its state variables. To do so, a data assimilation platform has been set to assimilate SWOT virtual observation as well as discharge estimated from real nadir altimetry data. Beforehand, it was necessary to do a sensibility analysis of TRIP model to its parameters. The aim of such study was to highlight what are the most impacting parameters on SWOT-observed variables and therefore select the ones to correct via data assimilation. The sensibility analysis (ANOVA) has been led on TRIP main parameters. The study has been done over the Amazon basin. The results showed that the simulated water levels are sensitive to local geomorphological parmaters exclusively. On the other hand, the simulated discharges are sensitive to upstream parameters (according to the TRIP river routing network) and more particularly to the groundwater time constant. Finally, water anomalies present sensitivities similar to those of the water levels but with more pronounced temporal variations. These results also lead me to do some choices in the implementation of the assimilation scheme and have been published. Therefore, in the second part of my PhD, I focused on developing a data assimilation platform which consists in an Ensemble Kalman Filter (EnKF). It could either correct the model input parameters or directly its state. A series of twin experiments is used to test and validate the parameter estimation module of the platform. SWOT virtual-observations of water heights and anomalies along SWOT tracks are assimilated to correct the river manning coefficient, with the possibility to easily extend to other parameters. First results show that the platform is able to recover the "true" Manning distribution assimilating SWOT-like water heights and anomalies. In the state estimation mode, daily assimilation cycles are realized to correct TRIP river water storage initial state by assimilating ENVISAT-based discharge. Those observations are derived from ENVISAT water elevation measures, using rating curves from the MGB-IPH hydrological model (calibrated over the Amazon using in situ gages discharge). Using such kind of observation allows going beyond idealized twin experiments and also to test contribution of a remotely-sensed discharge product, which could prefigure the SWOT discharge product. The results show that discharge after assimilation are globally improved : the root-mean-square error between the analysis discharge ensemble mean and in situ discharges is reduced by 28 \%, compared to the root-mean-square error between the free run and in situ discharges (RMSE are respectively equal to 2.79 x 103 m3/s and 1.98 x 103 m3/s).
98

Contribution à l'analyse de sensibilité des systèmes complexes : application à la dynamique du véhicule / Contribution to sensitivity analysis of complex systems : application to vehicle dynamics

Hamza, Sabra 15 July 2015 (has links)
Le véhicule est un système dynamique complexe, composé de différents sous-systèmes de nature différente (moteur, système de freinage, suspension ...). Chaque sous-système est décrit par un modèle mathématique dépendant d’un nombre important de paramètres, très souvent incertains (méconnaissance, manque de mesures,…). L’incertitude sur les paramètres se propage à travers le modèle et se retrouve sur la sortie. Cette dernière représente les forces et moments mis en jeu dans le véhicule. L’incertitude sur la sortie n’est pas toujours tolérable pour des raisons de sécurité, précision,…Situé dans ce contexte, les travaux de la thèse consistent à proposer des méthodes d’analyse de sensibilité permettant de déterminer les paramètres dont les incertitudes ont un effet significatif sur le comportement d’un système donné, en particulier le véhicule. Dans une première partie, le cas des modèles à paramètres dépendants et suivant une distribution arbitraire est étudié. Une méthode, basée sur la décorrélation des paramètres par la décomposition de Cholesky, a été proposée. Pour résoudre le problème de la distribution arbitraire, l’approximation par polynôme du chaos arbitraire est adoptée, en construisant une base orthonormale en termes de moments statistiques non centrés des paramètres. Les indices de sensibilité, permettant de quantifier la contribution de chaque paramètre à la variance de la sortie, sont obtenus directement à partir des coefficients des polynômes du chaos ainsi obtenus. La méthode proposée est appliquée et validée sur un modèle de pneumatique. Dans la deuxième partie, le cas des modèles dynamiques est traité. Une méthode basée sur les dérivées partielles est explorée, puis une approche alternative est proposée. Elle utilise de façon originale des outils de l’Automatique, les grammiens d’atteignabilité et d’observabilité. L’influence des paramètres sur l’énergie consommée en entrée et restituée par le système en sortie est ainsi déterminée. L’avantage de cette technique est que les paramètres peuvent être classifiés selon leurs influences sur l’énergie consommée ou restituée, tout au long de la dynamique du système. D’autre part, l’étude de la sensibilité des paramètres sur les échanges de l’énergie, permet de déterminer un placement optimal des paramètres pour une optimisation de l’énergie consommée et restituée en sortie. Les deux méthodes proposées sont appliquées et validées sur un modèle bicyclette décrivant le comportement dynamique d’un véhicule. Dans la dernière partie, des tests sur véhicule d’essais ont été réalisés sur circuit. Les différentes approches d’analyse de sensibilité ont été appliquées sur les résultats d’essais, afin de recaler des modèles de pneumatique. / The vehicle is a complex dynamic system, composed of various subsystems of different kind (engine, braking system, suspension, etc.). Each subsystem is described by a mathematical model depending on a significant number of parameters, very often uncertain (unknown, lack of measures, etc.). The uncertainty on the parameters is propagated through the model and takes place on the model output. The model output represents the forces and moments involved in the vehicle. The uncertainty on the model output is not always tolerable for safety reasons, precision, etc. In this context, the aim of the thesis is to propose sensitivity analysis methods allowing to determine parameters whose uncertainties have a significant effect on the behavior of a given system. In the first part, the case of models with dependent parameters which follow an arbitrary distribution is studied. A method based on the decorrelation of the parameters using the decomposition of Cholesky, is proposed. To solve the problem of the arbitrary distribution, an approximation using arbitrary polynomial chaos is adopted and an orthonormal data basis is constructed in terms of non central statistical moments of parameters. Sensitivity indices, allowing to quantify the contribution of every parameter to the model output variance, is directly obtained from the polynomial chaos coefficients.The proposed method is applied and validated on a tyre model. In the second part, the case of the dynamic models is studied. A method based on partial derivative is explored. Then a new alternative approach is proposed. This method uses in an original way the control theory tools, the reachability and observability Gramians. The influence of the parameters is formulated in terms the energy consumed and restored by the system. The advantage of this technique is that the parameters can be classified according to their influences on the consumed or restored energy throughout the system dynamics. On the other hand, the study of the parameters sensitivity based on ratio energy exchanged, allows to determine an optimal placement of the parameters for an optimization of consumed and/or restored energy. Both proposed methods are applied and validated using bicycle model describing vehicle dynamic behavior. Finally, the various sensitivity approaches are applied to adjust tyre model parameters using vehicle measurements acquired during a steady-state maneuver.
99

Conception Robuste de Mécanismes

Caro, Stéphane 17 December 2004 (has links) (PDF)
Les travaux présentés dans cette thèse portent sur l'étude de la robustesse de la conception de mécanismes. Ses principales contributions résident dans la détermination d'un indice de robustesse, le développement de deux méthodes d'analyse de sensibilité pour les manipulateurs d'architecture parallèle de type Delta-Linéaire, la formulation d'une procédure de synthèse de tolérances et l'étude de la robustesse d'une famille de manipulateurs d'architecture sérielle génériques et non-génériques<br />à trois degrés de liberté. Le mémoire est ainsi divisé en quatre chapitres. Le premier chapitre est consacré à une énumération des propriétés générales des mécanismes étudiés, à une étude bibliographique de la conception robuste et à la formulation d'un problème de conception robuste. Le deuxième chapitre traite de l'analyse de sensibilité de l'Orthoglide, manipulateur d'architecture parallèle de type Delta-Linéaire à trois degrés de liberté de translation. L'étude permet de connaître la sensibilité<br />de la situation de l'effecteur du manipulateur aux variations de ses paramètres géométriques et de repérer les configurations pour lesquelles cette sensibilité est minimale et maximale. Le troisième chapitre présente un indice de robustesse optimal pour<br />les mécanismes étudiés et une procédure de synthèse de tolérances dimensionnelles décomposée en deux étapes séquentielles. Par ailleurs, ils sont illustrés par plusieurs études de cas, notamment un amortisseur et un manipulateur d'architecture parallèle. Finalement, le quatrième chapitre décrit une étude de la robustesse d'une famille de manipulateurs d'architecture sérielle à trois degrés de liberté. Cette étude vise à identifier les corrélations entre les notions de robustesse et de généricité.<br />A cet effet, différentes notions de la robotique sont exploitées, telles que la parcourabilité, la précision et la dextérité d'un manipulateur. Il s'avère que la généricité d'un manipulateur n'a pas d'influence sur ses performances cinématiques, ni sur la sensibilité de la position de son effecteur aux variations de ses paramètres géométriques.
100

Contributions à l'analyse de sensibilité et à l'analyse discriminante généralisée

Jacques, Julien 05 December 2005 (has links) (PDF)
Deux thèmes sont abordés dans cette thèse : l'analyse de sensibilité et l'analyse discriminante généralisée.<br /><br />L'analyse de sensibilité globale d'un modèle mathématique étudie comment les variables de sortie de ce dernier réagissent à des perturbations de ses entrées. Les méthodes basées sur l'étude de la variance quantifient les parts de variance de la réponse du modèle dues à chaque variable d'entrée et chaque sous-ensemble de variables d'entrée. Le premier problème abordé est l'impact d'une incertitude de modèle sur les résultats d'une analyse de sensibilité. Deux formes particulières d'incertitude sont étudiées : celle due à une mutation du modèle de référence, et celle due à l'utilisation d'un modèle simplifié à la place du modèle de référence. Un second problème relatif à l'analyse de sensibilité a été étudié au cours de cette thèse, celui des modèles à entrées corrélées. En effet, les indices de sensibilité classiques n'ayant pas de signification (d'un point de vue interprétation) en présence de corrélation des entrées, nous proposons une approche multidimensionnelle consistant à exprimer la sensibilité de la sortie du modèle à des groupes de variables corrélées. Des applications dans le domaine de l'ingénierie nucléaire illustrent ces travaux.<br /><br />L'analyse discriminante généralisée consiste à classer les individus d'un échantillon test en groupes, en utilisant l'information contenue dans un échantillon d'apprentissage, lorsque ces deux échantillons ne sont pas issus d'une même population. Ce travail étend les méthodes existantes dans un cadre gaussien au cas des données binaires. Une application en santé publique illustre l'utilité des modèles de discrimination généralisée ainsi définis.

Page generated in 0.0855 seconds