• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 132
  • 65
  • 22
  • 1
  • Tagged with
  • 221
  • 100
  • 60
  • 57
  • 52
  • 41
  • 38
  • 33
  • 32
  • 28
  • 26
  • 23
  • 21
  • 20
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Programmation bayésienne des bras manipulateurs

Garcia Ramirez, Ruben 27 May 2003 (has links) (PDF)
Cette thèse porte sur la programmation bayesienne de bras manipulateurséquipés d'un système de vision stéréoscopique. L'implantation d'une tâche de prise et de dépose d'un objet est <br />donnée en exemple pourévaluer l'approche. Cette tâche met en jeu des modèles géométriques <br />du bras, du système de vision stéréoscopique et des objets manipulés. L'incertitude associée aux <br />modèles géométriques, aux capteurs des robots et au système de vision est prise en compte. <br />La méthode de programmation est formelle et systématique. Elle consiste en trois parties : La <br />description où sont définies les variables pertinentes et la distribution de probabilité conjointe. <br />L'inférence qui vise à construire une distribution de probabilité sur les commandes motrices sachant les informations sensorielles, et enfin le choix d'une commande à partir de la distribution <br />précédente. <br />Une nouvelle méthode de programmation de robot dite «inverse» est introduite. Des méthodes de résolutions approchées sont présentées visant à combattre la complexité du calcul liée à <br />cette approche. Une expérimentation qualitative du système de programmation est présentée.
122

Modèles probabilistes de matrices d'impédance. Application à l'interaction dynamique sol-structure

Cottereau, Régis 18 January 2007 (has links) (PDF)
Dans de nombreux domaines d'application, comme en génie civil ou en aéronautique, les ingénieurs sont confrontés a des problèmes dedimensionnement de structures en contact avec un domaine non-borné. Pour ces problèmes, seule la structure intéresse réellement les ingénieurs, et le domaine extérieur n'a d'importance que par sa raideur équivalente, en statique, ou sa matrice d'impédance, en dynamique. Par ailleurs, les domaines infinis considérés dans ces applications sont souvent mal connus ou complexes à modéliser. Cela entraîne des erreurs et incertitudes pour les estimations faites sur la structure, qui peuvent être en partie prises en compte par des approches probabilistes.<br /><br />On propose donc dans cette thèse un modèle probabiliste des matrices d'impédance, qui généralise l'approche non-paramétrique proposée récemment par Soize pour les prédictions des vibrations de structures aléatoires. La construction de ce modèle probabiliste nécessite tout d'abord la construction d'un modèle déterministe approché, dit à variables cachées, des matrices d'impédance suivant leurs propriétés de base, dont, notamment, la causalité. Ce modèle doit être identifié à partir de calculs numériques ou de mesures, et la procédure d'identification est également developpée dans le cadre de la thèse.<br /><br />Deux applications sont proposées. Le modèle non-paramétrique de matrice d'impédance est d'abord comparé, sur un cas simple d'interaction dynamique sol-structure, à un modèle paramétrique pour illustrer les principales différences entre les approches. Ensuite, un cas plus industriel de dimensionnement sismique permet d'envisager l'utilisation pratique du modèle probabiliste non-paramétrique.
123

De l'identification de structure de réseaux bayésiens à la reconnaissance de formes à partir d'informations complètes ou incomplètes.

Francois, Olivier 28 November 2006 (has links) (PDF)
Durant ces travaux de thèse, une comparaison empirique de différentes<br />techniques d'apprentissage de structure de réseaux bayésiens a été<br />effectuée, car même s'il peut en exister très ponctuellement, il<br />n'existe pas de comparaisons plus globales de ces algorithmes.<br />De multiples phases de tests nous ont permis d'identifier quelles<br />méthodes souffraient de difficultés d'initialisation et nous avons<br />proposé une technique pour les résoudre.<br />Nous avons ensuite adapté différentes méthodes d'apprentissage de<br />structure aux bases de données incomplètes et avons notamment<br />introduit une technique pour apprendre efficacement une structure arborescente.<br />Cette méthode est ensuite adaptée à la problématique plus spécifique<br />de la classification et permet d'apprendre efficacement et en toute<br />généralité un classifieur de Bayes Naïf augmenté.<br />Un formalisme original permettant de générer des bases de données<br />incomplètes ayant des données manquantes vérifiant les hypothèses MCAR<br />ou MAR est également introduit.<br />De nombreuses bases synthétiques ou réelles ont alors été utilisées<br />pour tester ces méthodes d'apprentissage de structure à partir de<br />bases incomplètes.
124

Estimation statistique d'atlas probabiliste avec les données multimodales et son application à la segmentation basée sur l'atlas

Xu, Hao 31 March 2014 (has links) (PDF)
Les atlases d'anatomie informatisé jouent un rôle important dans l'analyse d'images médicales. Cependant un atlas se réfère généralement à une image standard ou une moyenne d'image aussi appelé template, qui probablement représente bien d'une population observée, il ne suffit pas pour caractériser la population observée en détail. Un template doit être apprises conjointement avec la variabilité géométrique des formes représentées dans les observations. Ces deux quantités seront par la suite former l'atlas de la population correspondante. La variabilité géométrique est modélisée comme des déformations du template de sorte qu'il s'adapte aux observations. Dans la première partie du travail, nous fournissons un nouveau modèle statistique générative basée sur des templates déformables denses qui représente plusieurs types de tissus observés dans les images médicales. Notre atlas contient à la fois une estimation des templates probabiliste de chaque tissu (appelée classes) et la métrique de déformation. Nous utilisons un algorithme stochastique pour l'estimation de l'atlas probabilistes donné un ensemble de données. Cet atlas est ensuite utilisé pour la méthode de segmentation basée sur l'atlas pour segmenter les nouvelles images. Expériences sont montrées sur les images T1 du cerveau. Les analyses traditionnelles d'imagerie de résonance magnétique fonctionnelle utilisent peu d'informations anatomies. Le recalage des images vers un template est basé sur l'anatomie individuelle et ne tient pas compte des informations fonctionnelles, donc les activations détectées ne se limitent pas à la matière grise. Dans la deuxième partie du travail, on propose un modèle statistique pour estimer un atlas probabiliste de l'IRM fonctionnelle et T1 qui résume à la fois des informations anatomies et fonctionnelles et la variabilité géométrique de la population. Le recalage et la segmentation sont effectuées conjointement pendant l'estimation de l'atlas et l'activité fonctionnelle est limitée à la matière grise, augmenter la précision de l'atlas. Inférer l'abondance des protéines de l'intensité de peptides est l'étape clé dans la protéomique quantitative. La conclusion est nécessairement plus précis quand de nombreux peptides sont pris en compte pour une protéine donnée. Pourtant, l'information apportée par les peptides partagées par différentes protéines est souvent jeté. Dans la troisième partie du travail, nous proposons un système statistique basée sur une modèle hiérarchique à inclure cette information. Notre méthodologie, basée sur une analyse simultanée de tous les peptides quantifiés, gère les erreurs biologiques et techniques ainsi que l'effet des peptides. En outre, nous proposons une mise en œuvre pratique adapté à l'analyse de grandes bases de données. Par rapport à une méthode basée sur l'analyse d'une protéine à la fois (ce qui ne comprend pas les peptides partagés), notre méthodologie s'est révélée être beaucoup plus fiable pour estimer l'abondance de protéines et de tester les changements d'abondance.
125

Analyse de dépendance des programmes à objet en utilisant les modèles probabilistes des entrées

Bouchoucha, Arbi 09 1900 (has links)
La tâche de maintenance ainsi que la compréhension des programmes orientés objet (OO) deviennent de plus en plus coûteuses. L’analyse des liens de dépendance peut être une solution pour faciliter ces tâches d’ingénierie. Cependant, analyser les liens de dépendance est une tâche à la fois importante et difficile. Nous proposons une approche pour l'étude des liens de dépendance internes pour des programmes OO, dans un cadre probabiliste, où les entrées du programme peuvent être modélisées comme un vecteur aléatoire, ou comme une chaîne de Markov. Dans ce cadre, les métriques de couplage deviennent des variables aléatoires dont les distributions de probabilité peuvent être étudiées en utilisant les techniques de simulation Monte-Carlo. Les distributions obtenues constituent un point d’entrée pour comprendre les liens de dépendance internes entre les éléments du programme, ainsi que leur comportement général. Ce travail est valable dans le cas où les valeurs prises par la métrique dépendent des entrées du programme et que ces entrées ne sont pas fixées à priori. Nous illustrons notre approche par deux études de cas. / The task of maintenance and understanding of object-oriented programs is becoming increasingly costly. Dependency analysis can be a solution to facilitate this engineering task. However, dependency analysis is a task both important and difficult. We propose a framework for studying program internal dependencies in a probabilistic setting, where the program inputs are modeled either as a random vector, or as a Markov chain. In that setting, coupling metrics become random variables whose probability distributions can be studied via Monte-Carlo simulation. The obtained distributions provide an entry point for understanding the internal dependencies of program elements, as well as their general behaviour. This framework is appropriate for the (common) situation where the value taken by the metric does depend on the program inputs and where those inputs are not fixed a priori. We provide a concrete illustration with two case studies.
126

Approche probabiliste pour l’analyse de l’impact des changements dans les programmes orientés objet

Zoghlami, Aymen 06 1900 (has links)
Nous proposons une approche probabiliste afin de déterminer l’impact des changements dans les programmes à objets. Cette approche sert à prédire, pour un changement donné dans une classe du système, l’ensemble des autres classes potentiellement affectées par ce changement. Cette prédiction est donnée sous la forme d’une probabilité qui dépend d’une part, des interactions entre les classes exprimées en termes de nombre d’invocations et d’autre part, des relations extraites à partir du code source. Ces relations sont extraites automatiquement par rétro-ingénierie. Pour la mise en oeuvre de notre approche, nous proposons une approche basée sur les réseaux bayésiens. Après une phase d’apprentissage, ces réseaux prédisent l’ensemble des classes affectées par un changement. L’approche probabiliste proposée est évaluée avec deux scénarios distincts mettant en oeuvre plusieurs types de changements effectués sur différents systèmes. Pour les systèmes qui possèdent des données historiques, l’apprentissage a été réalisé à partir des anciennes versions. Pour les systèmes dont on ne possède pas assez de données relatives aux changements de ses versions antécédentes, l’apprentissage a été réalisé à l’aide des données extraites d’autres systèmes. / We study the possibility of predicting the impact of changes in object-oriented code using bayesian networks. For each change type, we produce a bayesian network that determines the probability that a class is impacted given that another class is changed. Each network takes as input a set of possible relationships between classes. We train our networks using historical data. The proposed impact-prediction approach is evaluated with two different scenarios, various types of changes, and five systems. In the first scenario, we use as training data, the changes performed in the previous versions of the same system. In the second scenario training data is borrowed from systems that are different from the changed one. Our evaluation showed that, in both cases, we obtain very good predictions, even though they are better in the first scenario.
127

Approche probabiliste de la propagation des incertitudes dans le modèle mécano-numérique du système couplé "fémur-prothèse non cimentée"

Hu, Xiaosu, Hu, Xiaosu 15 November 2010 (has links) (PDF)
L' arthroplastie de la hanche par prothèse non cimentée est une solution couramment employée pour les patients rencontrant des problèmes du système locomoteur. Une telle solution présente toutefois un inconvénient majeur, souligné par tous les utilisateurs : le manque de stabilité primaire de la prothèse. Or, cette faiblesse peut provoquer des complications graves, voire l'échec de l'opération chirurgicale. Par conséquent, parvenir à une bonne fixation primaire est un point crucial de ce type d'opération chirurgicale pour assurer cliniquement une satisfaction à court et long terme.Dans le but de mieux appréhender cette problématique centrale, une piste préopératoire a été adoptée. Un modèle éléments finis permettant de décrire le comportement mécanique du système couplé " os-prothèse non cimentée : DePuy Corail® " a été développé et validé par des expérimentations in vitro. Puis, pour tenir compte de la forte variabilité des paramètres du modèle, inhérente à la nature même du problème, une modélisation stochastique de ces derniers a été introduite et une stratégie mécano-probabiliste proposée, destinée d'une part à quantifier en termes probabilistes l'effet sur la réponse des incertitudes affectant les paramètres du modèle, et d'autre part à évaluer la stabilité primaire du système os-prothèse en contexte fiabiliste. La mise en oeuvre pratique de cette approche a été réalisée à l'aide d'outils numériques basés sur la méthode de Monte-Carlo standard et une procédure de collocation stochastique.L'originalité du travail présenté réside avant tout dans la proposition d'une méthodologie probabiliste capable de prendre en compte les incertitudes dans la problématique de la stabilité primaire des prothèses de hanche non cimentées. Elle tient également dans la potentialité de cette méthodologie à être facilement transplantable en contexte industriel.
128

Application des méthodes fiabilistes à l'analyse et à la synthèse des tolérances

Beaucaire, Paul 29 November 2012 (has links) (PDF)
En conception de systèmes mécaniques, la phase de cotation fonctionnelle consiste à affecter des cotes, constituées d'une valeur nominale et d'un intervalle de tolérance, à des dimensions de pièces. En particulier, l'analyse des tolérances consiste à vérifier que les intervalles de tolérance choisis permettent le respect de la fonctionnalité du mécanisme. A l'inverse, la synthèse des tolérances vise à déterminer ces intervalles de tolérance, si possible de manière optimale, permettant le respect des exigences fonctionnelles. Les approches statistiques traditionnelles, bien que très utiles en phase de préconception, ne sont pas capables d'estimer avec précision le risque de non qualité. Cette thèse aborde ces problèmes selon un angle de vue différent, non plus pour garantir le respect d'exigences fonctionnelles, mais pour garantir le Taux de Non-Conformité (TNC) du mécanisme. Il s'agit de la probabilité que l'exigence fonctionnelle ne soit pas respectée. Les méthodes fiabilistes, s'appuyant sur la théorie des probabilités, permettent un calcul précis et efficace de cet indicateur. L'objectif de cette thèse est d'explorer le domaine de l'analyse et de la synthèse des tolérances afin d'identifier et d'exposer les apports des méthodes fiabilistes sur ces problématiques. Dans ces travaux de thèse, différents outils fiabilistes sont mis à disposition permettant l'analyse des tolérances de tous types de mécanismes avec ou sans jeu. La théorie probabiliste permet une modélisation très complète des dimensions des pièces. En particulier, l'approche APTA (Advanced Probability-based Tolerance Analysis of products) est développée afin de prendre en compte l'évolution aléatoire de certains paramètres de modélisation, notamment les décalages de moyenne, responsables de fortes variations du TNC. L'analyse des tolérances étant plus complexe pour les mécanismes avec jeux, une méthodologie spécifique a été développée basée sur une décomposition en situations de points de contacts et l'utilisation d'une méthode fiabiliste système. Différents indices de sensibilité sont aussi proposés afin d'aider à identifier les cotes ayant le plus d'influence sur le TNC d'un mécanisme. Enfin, l'optimisation du coût de production, sous contrainte de TNC, permet une synthèse des tolérances optimale. Les gains potentiels en termes de coût dépassent 50% par rapport aux conceptions initiales tout en maitrisant le niveau de qualité du produit. Les sociétés RADIALL SA et VALEO Système d'Essuyages, concepteurs et fabricants de produits pour l'automobile et l'aéronautique, ont proposé des cas d'études sur lesquels est démontrée la pertinence des travaux effectués. Sur la base de ces travaux, Phimeca Engineering, spécialisée dans l'ingénierie des incertitudes, développe et commercialise un outil informatique professionnel.
129

Estimation du risque aux intersections pour applications sécuritaires avec véhicules communicants

Lefèvre, Stéphanie 22 October 2012 (has links) (PDF)
Les intersections sont les zones les plus dangereuses du réseau routier. Les statistiques montrent que la plupart des accidents aux intersections sont causés par des erreurs des conducteurs, et que la plupart pourraient être évités à l'aide de systèmes d'aide à la conduite. En particulier, les communications inter-véhiculaires ouvrent de nouvelles opportunités pour les applications sécuritaires aux intersections. Le partage d'informations entre les véhicules via des liens sans fil permet aux véhicules de percevoir leur environnement au-delà des limites du champ de vision des capteurs embarqués. Grâce à cette représentation élargie de l'environnement dans l'espace et dans le temps, la compréhension de situation est améliorée et les situations dangereuses peuvent être détectées plus tôt. Cette thèse aborde le problème de l'estimation du risque aux intersections d'un nouveau point de vue : une structure de raisonnement est proposée pour analyser les situations routières et le risque de collision à un niveau sémantique plutôt qu'au niveau des trajectoires. Le risque est déterminé en estimant les intentions des conducteurs et en identifiant les potentiels conflits, sans avoir à prédire les futures trajectoires des véhicules. L'approche proposée a été validée par des expérimentations en environnement réel à l'aide de véhicules équipés de modems de communication véhicule-véhicule, ainsi qu'en simulation. Les résultats montrent que l'algorithme permet de détecter les situations dangereuses à l'avance et qu'il respecte les contraintes temps-réel des applications sécuritaires. Il y a deux différences principales entre l'approche proposée et les travaux existants. Premièrement, l'étape de prédiction de trajectoire est évitée. Les situations dangereuses sont identifiées en comparant ce que les conducteurs ont l'intention de faire avec ce qui est attendu d'eux d'après les règles de la circulation et le contexte. Le raisonnement sur les intentions et les attentes est réalisé de manière probabiliste afin de prendre en compte les incertitudes des mesures capteur et les ambiguïtés sur l'interprétation. Deuxièmement, le modèle proposé prend en compte les informations sur le contexte situationnel, c'est-à-dire que l'influence de la géométrie de l'intersection et des actions des autres véhicules est prise en compte lors de l'analyse du comportement d'un véhicule.
130

Extraction de corpus parallèle pour la traduction automatique depuis et vers une langue peu dotée

Do, Thi Ngoc Diep 20 December 2011 (has links) (PDF)
Les systèmes de traduction automatique obtiennent aujourd'hui de bons résultats sur certains couples de langues comme anglais - français, anglais - chinois, anglais - espagnol, etc. Les approches de traduction empiriques, particulièrement l'approche de traduction automatique probabiliste, nous permettent de construire rapidement un système de traduction si des corpus de données adéquats sont disponibles. En effet, la traduction automatique probabiliste est fondée sur l'apprentissage de modèles à partir de grands corpus parallèles bilingues pour les langues source et cible. Toutefois, la recherche sur la traduction automatique pour des paires de langues dites "peu dotés" doit faire face au défi du manque de données. Nous avons ainsi abordé le problème d'acquisition d'un grand corpus de textes bilingues parallèles pour construire le système de traduction automatique probabiliste. L'originalité de notre travail réside dans le fait que nous nous concentrons sur les langues peu dotées, où des corpus de textes bilingues parallèles sont inexistants dans la plupart des cas. Ce manuscrit présente notre méthodologie d'extraction d'un corpus d'apprentissage parallèle à partir d'un corpus comparable, une ressource de données plus riche et diversifiée sur l'Internet. Nous proposons trois méthodes d'extraction. La première méthode suit l'approche de recherche classique qui utilise des caractéristiques générales des documents ainsi que des informations lexicales du document pour extraire à la fois les documents comparables et les phrases parallèles. Cependant, cette méthode requiert des données supplémentaires sur la paire de langues. La deuxième méthode est une méthode entièrement non supervisée qui ne requiert aucune donnée supplémentaire à l'entrée, et peut être appliquée pour n'importe quelle paires de langues, même des paires de langues peu dotées. La dernière méthode est une extension de la deuxième méthode qui utilise une troisième langue, pour améliorer les processus d'extraction de deux paires de langues. Les méthodes proposées sont validées par des expériences appliquées sur la langue peu dotée vietnamienne et les langues française et anglaise.

Page generated in 0.1076 seconds