Spelling suggestions: "subject:"probabilistic""
171 |
Application au désaccordage des roues aubagées.Dynamique des structures tournantes à symétrie cyclique en présence d'incertitudes aléatoiresCapiez-Lernout, Evangéline 14 October 2004 (has links) (PDF)
L'objet de ce travail de recherche est de proposer de nouvelles méthodologies probabilistes pour l'analyse<br />dynamique basses fréquences du désaccordage des structures tournantes à symétrie cyclique. La classe de structure étudiée est<br />la roue aubagée. Tout d'abord, un modèle probabiliste non paramétrique récent est utilisé pour construire une approche<br />probabiliste directe, permettant d'analyser l'amplification dynamique de la réponse forcée des aubes, induite par le<br />désaccordage. En particulier, une telle approche permet de modéliser de manière cohérente le désaccordage en fréquences des<br />aubes et le désaccordage en modes des aubes. Ensuite, une approche probabiliste inverse, reposant sur une méthode<br />d'identification des paramètres de dispersion du modèle probabiliste non paramétrique, est construite afin de déterminer les<br />tolérances des aubes, conduisant à une probabilité donnée du facteur d'amplification dynamique de la réponse forcée. Enfin, ces<br />méthodologies sont mises en oeuvre numériquement sur un exemple numérique simple et sur un modèle complexe de roue aubagée.<br />Les réponses forcées désaccordées obtenues par le modèle probabiliste non paramétrique et par le modèle probabiliste<br />paramétrique classiquement utilisé pour la problématique du désaccordage sont comparées. Par ailleurs, la méthodologie du<br />problème inverse permet d'optimiser les tolérances de l'aube pour réduire l'amplification de la réponse forcée. L'analyse des<br />résultats valide la pertinence des méthodologies proposées.
|
172 |
Modèles statistiques d'apparence non gaussiens. Application à la création d'un atlas probabiliste de perfusion cérébrale en imagerie médicaleVik, Torbjorn 21 September 2004 (has links) (PDF)
La tomoscintigraphie par émission mono-photonique (TEMP) est une méthode d'imagerie fonctionnelle 3D qui apporte des informations sur le débit sanguin cérébral (également appelé perfusion cérébrale). Cette méthode d'imagerie, par la détection visuelle d'anomalies de perfusion caractérisées par des zones hypo- ou hyper-intenses, est utilisée pour le diagnostic chez des patients atteints d'accidents vasculaires cérébraux, de démence, d'épilepsie ou d'autres pathologies cérébrales. La détection d'anomalies focalisées observées chez les patients ayant une attaque cérébrale est relativement aisée, alors que les anomalies diffuses, observées en début de démence, lors d'un accident entraînant une oxygénation insuffisante du cerveau ou suite à une exposition à une substance toxique, sont plus difficilement observables. Dans ces cas, une analyse quantitative des images, utilisant un atlas et des outils statistiques s'appuyant sur une base d'images de cas normaux, peut apporter une aide précieuse au diagnostic. Le travail présenté dans cette thèse est centré sur la problématique de la construction et de l'évaluation d'un atlas probabiliste de perfusion cérébrale à partir des images TEMP de sujets dits normaux. Les objectifs d'un tel atlas sont doubles : (1) création d'une cartographie statistique de la perfusion cérébrale d'une population normale, décrite de manière compacte, et (2) identification des différences de perfusion cérébrale qui sont statistiquement significatives entre une image TEMP d'un individu et l'atlas probabiliste. L'utilisation d'un atlas devrait avoir un impact important sur les applications cliniques où l'analyse qualitative d'images TEMP est pratique courante. Afin d'atteindre ces objectifs, trois points ont été abordés : le développement de modèles statistiques qui décrivent de façon fidèle la perfusion cérébrale, les outils de traitement d'images utilisés pour rendre les cerveaux "comparables", et enfin, l'évaluation expérimentale de l'atlas.
|
173 |
L'aléa mouvements de terrain dans la province de Chefchaouen (Rif Central, Maroc). Analyse Spatiale, et Modélisation Probabiliste Multi-Echelle.Mastere, Mohamed 10 November 2011 (has links)
L‟aléa géologique constitue un axe de recherche en développement constant, les zones habitées étant de plus en plus envahissantes et les exigences pour la maîtrise des aléas étant de plus en plus fortes. Les zones de montagne sont des régions très concernées par différents types d'aléas. Cette étude s'est attachée à l‟évaluation de l‟aléa Mouvements de terrain (MT) qui constituent l‟aléa le plus important dans le Rif Nord - Ouest, Maroc. Ce travail présente une procédure en trois étapes pour l‟évaluation de l‟aléa mouvements de terrains (AMT). Neuf paramètres disponibles de prédisposition et de déclenchement du milieu géologique (lithologie, fracturation, sismicité, gradient de pente, hypsométrie, exposition des versants, réseau hydrographique, précipitations, et occupation des sols) ont été cartographiés et hiérarchisés dans le but de mieux comprendre leurs interrelations et leurs effets respectifs dans la genèse des MT. Ensuite, la classification, l‟inventaire, la description et l‟analyse des MT ont été réalisés par interprétation d‟images satellitaires THR associée à un travail de terrain. Enfin, l‟AMT a été évalué par l‟utilisation d‟une approche multi-échelle (petite = 1/100 000ème, et moyenne = 1/50 000ème). A petite échelle, cette évaluation a été effectuée par la combinaison de cartes d‟index (CCI) où les poids et les pondérations pour chaque paramètre ont été introduits en se basant sur les données statistiques réelles afin de réduire l‟aspect subjectif de la méthode. A une échelle moyenne, cette évaluation a été effectuée par l‟application et la comparaison de deux approches probabilistes. Il s‟agit - de l‟approche bivariée de la théorie de l‟évidence, et, - de l‟approche multivariée des régressions logistiques ; la première approche s‟est avérée plus performante à prédire l‟aléa glissements de terrain, alors que la seconde est plus performante pour modéliser l‟aléa écroulements et coulées de débris à cette échelle, dans un environnement montagneux maghrébin. Les différentes cartes réalisées constituent un puissant outil d‟aide à la décision pour présenter, comparer et discuter des scénarios d‟aménagement du territoire : aménagements urbains, ouvrages ou tracés routiers. Ces résultats s‟inscrivent dans le cadre du développement durable et permettront d‟atténuer les impacts socio-économiques habituellement constatés, lors de déclenchement des MT.
|
174 |
Développement de modèles graphiques probabilistes pour analyser et remailler les maillages triangulaires 2-variétésVidal, Vincent 09 December 2011 (has links) (PDF)
Ce travail de thèse concerne l'analyse structurelle des maillages triangulaires surfaciques, ainsi que leur traitement en vue de l'amélioration de leur qualité (remaillage) ou de leur simplification. Dans la littérature, le repositionnement des sommets d'un maillage est soit traité de manière locale, soit de manière globale mais sans un contrôle local de l'erreur géométrique introduite, i.e. les solutions actuelles ne sont pas globales ou introduisent de l'erreur géométrique non-contrôlée. Les techniques d'approximation de maillage les plus prometteuses se basent sur une décomposition en primitives géométriques simples (plans, cylindres, sphères etc.), mais elles n'arrivent généralement pas à trouver la décomposition optimale, celle qui optimise à la fois l'erreur géométrique de l'approximation par les primitives choisies, et le nombre et le type de ces primitives simples. Pour traiter les défauts des approches de remaillage existantes, nous proposons une méthode basée sur un modèle global, à savoir une modélisation graphique probabiliste, intégrant des contraintes souples basées sur la géométrie (l'erreur de l'approximation), la qualité du maillage et le nombre de sommets du maillage. De même, pour améliorer la décomposition en primitives simples, une modélisation graphique probabiliste a été choisie. Les modèles graphiques de cette thèse sont des champs aléatoires de Markov, ces derniers permettant de trouver une configuration optimale à l'aide de la minimisation globale d'une fonction objectif. Nous avons proposé trois contributions dans cette thèse autour des maillages triangulaires 2-variétés : (i) une méthode d'extraction statistiquement robuste des arêtes caractéristiques applicable aux objets mécaniques, (ii) un algorithme de segmentation en régions approximables par des primitives géométriques simples qui est robuste à la présence de données aberrantes et au bruit dans la position des sommets, (iii) et finalement un algorithme d'optimisation de maillages qui cherche le meilleur compromis entre l'amélioration de la qualité des triangles, la qualité de la valence des sommets, le nombre de sommets et la fidélité géométrique à la surface initiale.
|
175 |
Les glissements de terrain dans le bassin tertiaire volcanisé du Puy-en-Velay (Massif central, France) : caractérisation, facteurs de contrôle et cartographie de l'aléaPoiraud, Alexandre 28 September 2012 (has links) (PDF)
[néant]
|
176 |
Méthodes probabilistes d'extraction de signaux cachés appliquées à des problèmes de sciences de l'atmosphèreGazeaux, Julien 07 February 2011 (has links) (PDF)
Ce travail de thèse est consacré à la problématique de l'extraction de signaux dans le domaine des sciences de l'atmosphère. Le point commun des problèmes considérés est la notion de détection et d'estimation de signaux cachés. L'approche par la modélisation probabiliste s'est avérée y être bien adaptée. Nous nous sommes attachés à répondre à différentes questions telles que : quel type d'information s'attend-on à trouver dans un jeu de données ? Le signal supposé caché se trouve-t-il réellement dans les données d'étude ? Comment détecter l'instant d'occurrence d'un phénomène, comment le caractériser (timing, amplitude ...) ? Si un tel signal est détecté, quelle (in)certitude est associée à cette détection ? Nous répondons à ces différentes questions au travers du développement de différents modèles probabilistes de détection d'évènements cachés. Nous nous sommes intéressés à différents modèles non stationnaires, dont deux sont notamment présentés dans un cadre multivarié. Au travers de trois modèles probabilistes décrivant des signaux cachés divers (rupture de variance, signaux éruptifs et changement de moyenne), nous avons aussi développé des méthodes associées de détection. Le premier modèle est appliqué à la détection de nuages stratosphériques polaires dans des profils lidar, le deuxième à des éruptions volcaniques dans des séries chronologiques de sulfate et enfin le troisième est appliqué à la détection de la date de l'onset de la mousson Africaine dans des données géophysiques liées à la dynamique atmosphérique et aux précipitations. Les différentes méthodes mises en place font appel à une variété de techniques de modélisation probabiliste allant de la maximisation de rapport de vraisemblance associée à des tests d'hypothèses à la résolution de filtres de Kalman dans un cadre non stationnaire et non linéaire pour la décomposition de séries multivariées couplée à la détection des signaux cachés. Les difficultés techniques liées à l'extraction de signaux cachés sont analysées et les performances des différents algorithmes sont évaluées. Les résultats obtenus confirment l'intérêt des méthodes probabilistes appliquées à ces problématiques de signaux cachés en sciences de l'atmosphère.
|
177 |
Vers l'intégration de post-éditions d'utilisateurs pour améliorer les systèmes de traduction automatiques probabilistesPotet, Marion 09 April 2013 (has links) (PDF)
Les technologies de traduction automatique existantes sont à présent vues comme une approche prometteuse pour aider à produire des traductions de façon efficace et à coût réduit. Cependant, l'état de l'art actuel ne permet pas encore une automatisation complète du processus et la coopération homme/machine reste indispensable pour produire des résultats de qualité. Une pratique usuelle consiste à post-éditer les résultats fournis par le système, c'est-à-dire effectuer une vérification manuelle et, si nécessaire, une correction des sorties erronées du système. Ce travail de post-édition effectué par les utilisateurs sur les résultats de traduction automatique constitue une source de données précieuses pour l'analyse et l'adaptation des systèmes. La problématique abordée dans nos travaux s'intéresse à développer une approche capable de tirer avantage de ces retro-actions (ou post-éditions) d'utilisateurs pour améliorer, en retour, les systèmes de traduction automatique. Les expérimentations menées visent à exploiter un corpus d'environ 10 000 hypothèses de traduction d'un système probabiliste de référence, post-éditées par des volontaires, par le biais d'une plateforme en ligne. Les résultats des premières expériences intégrant les post-éditions, dans le modèle de traduction d'une part, et par post-édition automatique statistique d'autre part, nous ont permis d'évaluer la complexité de la tâche. Une étude plus approfondie des systèmes de post-éditions statistique nous a permis d'évaluer l'utilisabilité de tels systèmes ainsi que les apports et limites de l'approche. Nous montrons aussi que les post-éditions collectées peuvent être utilisées avec succès pour estimer la confiance à accorder à un résultat de traduction automatique. Les résultats de nos travaux montrent la difficulté mais aussi le potentiel de l'utilisation de post-éditions d'hypothèses de traduction automatiques comme source d'information pour améliorer la qualité des systèmes probabilistes actuels.
|
178 |
Étude probabiliste de systèmes de particules en interaction : applications à la simulation moléculaireRoux, Raphaël 06 December 2010 (has links) (PDF)
Ce travail présente quelques résultats sur les systèmes de particules en interaction pour l'interprétation probabiliste des équations aux dérivées partielles, avec des applications à des questions de dynamique moléculaire et de chimie quantique. On présente notamment une méthode particulaire permettant d'analyser le processus de la force biaisante adaptative, utilisé en dynamique moléculaire pour le calcul de différences d'énergies libres. On étudie également la sensibilité de dynamiques stochastiques par rapport à un paramètre, en vue du calcul des forces dans l'approximation de Born-Oppenheimer pour rechercher l'état quantique fondamental de molécules. Enfin, on présente un schéma numérique basé sur un système de particules pour résoudre des lois de conservation scalaires, avec un terme de diffusion anormale se traduisant par une dynamique de sauts sur les particules
|
179 |
Application des méthodes fiabilistes à l'analyse et à la synthèse des tolérances / Application of reliable methods to the analysis and synthesis of tolerancesBeaucaire, Paul 29 November 2012 (has links)
En conception de systèmes mécaniques, la phase de cotation fonctionnelle consiste à affecter des cotes, constituées d’une valeur nominale et d’un intervalle de tolérance, à des dimensions de pièces. En particulier, l’analyse des tolérances consiste à vérifier que les intervalles de tolérance choisis permettent le respect de la fonctionnalité du mécanisme. A l’inverse, la synthèse des tolérances vise à déterminer ces intervalles de tolérance, si possible de manière optimale, permettant le respect des exigences fonctionnelles. Les approches statistiques traditionnelles, bien que très utiles en phase de préconception, ne sont pas capables d’estimer avec précision le risque de non qualité. Cette thèse aborde ces problèmes selon un angle de vue différent, non plus pour garantir le respect d’exigences fonctionnelles, mais pour garantir le Taux de Non-Conformité (TNC) du mécanisme. Il s’agit de la probabilité que l’exigence fonctionnelle ne soit pas respectée. Les méthodes fiabilistes, s’appuyant sur la théorie des probabilités, permettent un calcul précis et efficace de cet indicateur. L’objectif de cette thèse est d’explorer le domaine de l’analyse et de la synthèse des tolérances afin d’identifier et d’exposer les apports des méthodes fiabilistes sur ces problématiques. Dans ces travaux de thèse, différents outils fiabilistes sont mis à disposition permettant l’analyse des tolérances de tous types de mécanismes avec ou sans jeu. La théorie probabiliste permet une modélisation très complète des dimensions des pièces. En particulier, l’approche APTA (Advanced Probability-based Tolerance Analysis of products) est développée afin de prendre en compte l’évolution aléatoire de certains paramètres de modélisation, notamment les décalages de moyenne, responsables de fortes variations du TNC. L’analyse des tolérances étant plus complexe pour les mécanismes avec jeux, une méthodologie spécifique a été développée basée sur une décomposition en situations de points de contacts et l’utilisation d’une méthode fiabiliste système. Différents indices de sensibilité sont aussi proposés afin d’aider à identifier les cotes ayant le plus d’influence sur le TNC d’un mécanisme. Enfin, l’optimisation du coût de production, sous contrainte de TNC, permet une synthèse des tolérances optimale. Les gains potentiels en termes de coût dépassent 50% par rapport aux conceptions initiales tout en maitrisant le niveau de qualité du produit. Les sociétés RADIALL SA et VALEO Système d’Essuyages, concepteurs et fabricants de produits pour l’automobile et l’aéronautique, ont proposé des cas d’études sur lesquels est démontrée la pertinence des travaux effectués. Sur la base de ces travaux, Phimeca Engineering, spécialisée dans l’ingénierie des incertitudes, développe et commercialise un outil informatique professionnel. / To design mechanical systems, functional dimensioning and tolerancing consists in allocating a target value and a tolerance to part dimensions. More precisely, tolerance analysis consists in checking that chosen tolerances allow the mechanism to be functional. In the opposite, the tolerance synthesis goal is to determine those tolerances, optimaly if possible, such as functional requirements are respected. Traditional statistical approaches are very useful in pre-design phases, but are incapable of estimating precisely non-quality risks. This PhD thesis adresses this problem from a different point of view. The objective is no longer to respect functional requirements but to guarantee the Non-Conformity Rate (NCR) of the mechanism. It is the probability that the functional requirement is not respected. Reliability methods, based on probabilistic theory, allow a precise and efficient calculation of the NCR. The main goal of this thesis is to explore tolerance analysis and synthesis domains in order to identify potential contributions of reliability methods to these issues. In this work, different reliability tools are provided enabling tolerance analysis of all kind of mechanisms with or without gaps. The probability theory allows a detailed modeling of parts dimensions. In particular, the APTA (Advanced Probability-based Tolerance Analysis of products) approach is designed to take into account random variations of some parameters such as mean shifts which influence highly the NCR. As tolerance analysis is more complex for mechanisms with gaps, a specific method is designed based on a decomposition of contact points situations and the use of a reliability system method. Several sensitivity indexes are also proposed to identify the leading dimensions on the NCR. The optimization of the production cost, under a NCR constraint, enables an optimal tolerance synthesis. The potential benefits in terms of costs exceed 50% compared to initial designs while keeping under control quality levels of products. Companies RADIALL SA and VALEO Wiping Systems, designers and manufacturers of products for the automotive and aeronautic industries, have provided case studies on which is demonstrated the relevance of the presented work. Based on this work, the company Phimeca Engineering, specialized in uncertainties, is developing and commercializing a professional computer tool.
|
180 |
Un modèle d'évaluation de la vulnérabilité sismique du bâti existant selon l'Eurocode : essai méthodologique et application sur un territoire / A model for the evaluation of the seismic vulnerability of collective buildings based on eurocode 8 : a case applied to Mulhouse and BaselLemaire, Jean 12 February 2018 (has links)
Le risque sismique est un sujet d’étude pluridisciplinaire qui fait l’objet de nombreux travaux de recherches. Pendant longtemps, il a été étudié sous l’aspect de l’aléa et ce n’est qu’au milieu du XXe siècle que nous nous sommes intéressés à la vulnérabilité des éléments exposés. Malgré la multiplicité des études sur le risque sismique, aucune d’entre elles n’adopte une démarche globale en utilisant la règlementation parasismique. Dans le cadre de cette thèse, nous soutenons l’hypothèse selon laquelle il est possible d’évaluer la vulnérabilité des lieux d’habitation à l’échelle de plusieurs bâtiments en utilisant la norme Européenne, l’Eurocode 8. Utiliser cette règlementation a l’avantage de réduire les temps d’étudede la vulnérabilité physique puisque l’on évalue la résistance sismique d’un unique bâtiment dont ce dernier représente une population de plusieurs immeubles à usage d’habitation collective. La méthodologie proposée, illustrée sur l’exemple de la conurbation Mulhouse-Bâle, se compose de deux phases. La première consiste à étudier l’aléa sismique de la zone urbaine de Mulhouse et de Bâle à travers les études bibliographiques de quelques auteurs. Cette phase consiste aussi à examiner la compatibilité de la règlementation parasismique européenne et helvétique. En dernier lieu, un diagnostic du bâti existant et de la population est réalisé pour évaluer la vulnérabilité de ces deux territoires urbains, après un découpage des deux villes en secteurs historico géographiques. Une seconde phase consiste à proposer un modèle simplifié d’évaluation déterministe et probabiliste de la vulnérabilité du bâti, Celui-ci est fondé à partir de la nouvelle règlementation Européenne et de la mécanique des structures, pour évaluer la résistance sismique des bâtiments. L’aspect probabiliste a permis d’affiner le modèle proposé afin d’intégrer certaines incertitudes. Une étude de cas simulant un séisme important de magnitude Mw égale à 6 sur l’échelle de Richter, intégrant les phénomènes d’effets de site comme le préconise l’Eurocode 8, a permis de valider l’application du modèle envisagé. Le modèle d’évaluation proposé a pour intérêt de fournir un outil permettant d’évaluer la vulnérabilité du bâti sans effectuer de calcul mécanique. Il se veut donc accessible à tous(géographes, ingénieurs, sismologues, etc.…). Plus généralement, ce modèle pour objectif de fournir un outil d’aide à la décision dans la démarche de prévention que doivent les autorités publiques à la population, puisqu’ils permettent de déterminer la plus ou moins grande vulnérabilité des zones étudiées. / The seismic risk is a subject of multidisciplinary study which is the object of numerous research works. For a long time, it was studied in terms of hazard and it is only in the middle of the 20th century that we became interested in the vulnerability of the exposed elements. In spite of the multiplicity of the studies on the seismic risk, none of them adopts a global approach by using the earthquake-resistant regulations. Within the framework of thesis, we support the hypothesis that it possible to estimate the vulnerability of dwellings on the scale of several buildings by using the European standard, Eurocode 8. Using these regulations has the advantage reducing the time to study physical vulnerability by assessing the seismic resistance of a single building, where the latter represents a population of several buildings used as collective dwellings. The proposed methodology, illustrated on the example of the Mulhouse-Basel conurbation, consists of two phases. The first one consists in studying the seismic hazard of the urban area of Mulhouse and Basel through the bibliographical studies of some authors. This phase also consists in examining the compatibility of the European and Helvetian seismic regulations. Finally, a diagnosis of the existing structures and of the population is made to assess the vulnerability of these two urban territories, after a division of both cities into historic-geographical sectors. A second phase consists in proposing a simplified model of deterministic and probabilistic assessment of the vulnerability of the built, based on the new European regulation and the mechanics of the structures, to evaluate the seismic resistance of buildings. The probability aspect allowed to refine the proposed model to integrate certain uncertainties. A case study feigning an important earthquake of magnitude Mw equal to 6 on the Richter scale, integrating the phenomena of site effects as recommended by Eurocode 8, validated the application of the envisaged model. The proposed evaluation model is intended to provide a tool for assessing the vulnerability of the built without performing mechanical calculations. Thus, it aims to be accessible to all (geographers, engineers, seismologists, etc…). More generally, this model aims to provide a decision-making tool in the approach of prevention which the public authorities owe to the population, because they allow to determine the more or less big vulnerability of the studied areas.
|
Page generated in 0.0939 seconds