• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 81
  • 20
  • 7
  • Tagged with
  • 108
  • 108
  • 53
  • 41
  • 33
  • 31
  • 29
  • 28
  • 21
  • 20
  • 17
  • 17
  • 16
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Modélisation stochastique pour le raisonnement médical et ses applications à la télémédecine / Stochastic models for medical reasonning and their application to telemedicine

Rose, Cédric 27 May 2011 (has links)
La télémédecine est une approche nouvelle de la pratique médicale qui est particulièrement porteuse d'espoir face à l'enjeu sociétal posé par l'incidence croissante des maladies chroniques. Le développement de la télésurveillance médicale réalisée grâce au recueil de données physiologiques ou biologiques au domicile du patient implique de développer nos capacités à analyser un volume important de données. Le problème auquel s'intéresse cette thèse est d'établir ou d'apprendre automatiquement la fonction qui lie les données fournies par les capteurs à l'état de santé du patient. La difficulté principale tient à ce qu'il est difficile d'établir de manière sûre l'état de santé d'un patient, la seule référence disponible étant alors celle que peut donner le médecin traitant. Nous montrons dans cette thèse que la modélisation stochastique et plus particulièrement le formalisme graphique bayésien permet d'aborder cette question sous trois angles complémentaires. Le premier est celui de la représentation explicite de l'expertise médicale. Cette approche est adaptée aux situations dans lesquelles les données ne sont pas accessibles et où il est donc nécessaire de modéliser directement la démarche du médecin. La seconde approche envisagée est celle de l'apprentissage automatique des paramètres du modèles lorsque suffisamment de données sur les sorties attendues sont disponibles. Nous nous intéressons enfin à la possibilité d'apprendre les actions pertinentes par renforcement sous les contraintes de la problématique médicale à savoir d'après l'observation de l'expert dans sa pratique normale / Telemedicine is a new approach of medical practice that is expected to be one of the answers for facing the challenge of chronic diseases management. Development of remote medical surveillance at home relies on our capacity to interpret a growing amount of collected data. In this thesis, we are interested in defining the function that connects the state of the patient to the data given by the different sensors. The main difficulty comes from the uncertainty when assessing the state of the patient. The only reference available is the one that can be given by the medical doctor. We show in this thesis that stochastic modelling and more specifically graphical bayesian formalism allows to treat this question in three ways. The first one consists in representing explicitly the medical expertise. This approach is adapted to the cases in which data is not accessible, and as a consequence, where it is necessary to model directly the diagnosis rules. The second approach that we study is the automatic learning of model parameters that can be performed when enough information is available concerning the expected outputs of the system. Finally, we propose the use of reinforcement for learning medical actions from the observation of the human expert in its everyday practice. Considering the specificity of the medical domain, we study the likelihood criterion for learning an efficient representation of the state space
32

Évaluation probabiliste de l’efficacité des barrières humaines prises dans leur contexte organisationnel / Probabilistic evaluation of the effectiveness of human barriers in their organizational context

De Galizia, Antonello 28 February 2017 (has links)
Les travaux menés dans cette thèse CIFRE s’inscrivent dans le cadre d’une collaboration pérenne entre le CRAN et l'EDF R&D dont un des résultats majeurs a été le développement d'une méthodologie d’analyse de risques, appelée Analyse Intégrée des Risques (AiDR). Cette méthodologie traite des systèmes sociotechniques sous les angles technique, humain et organisationnel et dont les équipements sont soumis à des actions de maintenance et/ou de conduite. La thèse a pour objet ainsi de proposer une évolution du modèle dit de « barrière humaine » développé dans l'AiDR pour évaluer l'efficacité de ces actions humaines prises leur contexte organisationnel. Nos contributions majeures s'organisent autour de 3 axes : 1. Une amélioration de la structure préexistante du modèle de barrière humaine afin d’aboutir à un modèle basé sur des facteurs de forme appelés performance shaping factors (PSF) fournis par les méthodes d’Évaluation Probabiliste de la Fiabilité Humaine (EPFH) ;2. L’intégration de la résilience et la modélisation de l’interaction entre mécanismes résilients et pathogènes impactant l'efficacité des actions dans les relations causales probabilistes ;3. Un traitement global des jugements d’expert cohérent avec la structure mathématique du modèle proposé permettant d’estimer d’une manière objective les paramètres du modèle. Ce traitement se fonde sur la construction d’un questionnaire permettant de "guider" l’expert vers l’évaluation d’effets conjoints issus de l’interaction entre mécanismes pathogènes et résilients. L’ensemble des contributions proposées a été validé sur un cas d’application portant sur une barrière humaine mise en place dans un cas d’inondation externe d’une unité de production d’électricité d’EDF / The work carried out in this CIFRE PhD thesis is part of a long-term collaboration between CRAN and EDF R&D, one of the major results of which was the development of a risk analysis methodology called Integrated Risk Analysis (AiDR). This methodology deals with sociotechnical systems from technical, human and organizational points of view and whose equipment is subjected to maintenance and/or operation activities. This thesis aims to propose an evolution of the so-called "human barrier" model developed in the AiDR in order to evaluate the effectiveness of these human actions taken their organizational context. Our major contributions are organized around 3 axes: 1. Improvement of the pre-existing structure of the human barrier model to achieve a model based on performance shaping factors (PSF) provided by the Human Reliability Assessment (HRA) methods; 2. Integration of resilience and modeling of the interaction between resilient and pathogenic mechanisms impacting the effectiveness of activities in a probabilistic causal framework; 3. A global treatment of the expert judgments consistent with the mathematical structure of the proposed model in order to objectively estimate the parameters of the model. This treatment is based on a questionnaire to guide experts towards the evaluation of joint effects resulting from the interaction between pathogenic and resilient mechanisms. All of the proposed contributions have been validated on an application case involving a human barrier put in place during an external flooding occurring at an EDF power plant
33

Approches évolutionnaires pour la reconstruction de réseaux de régulation génétique par apprentissage de réseaux bayésiens.

Auliac, Cédric 24 September 2008 (has links) (PDF)
De nombreuses fonctions cellulaires sont réalisées grâce à l'interaction coordonnée de plusieurs gènes. Identifier le graphe de ces interactions, appelé réseau de régulation génétique, à partir de données d'expression de gènes est l'un des objectifs majeurs de la biologie des systèmes. Dans cette thèse, nous abordons ce problème en choisissant de modéliser les relations entre gènes par un réseau bayésien. Se pose alors la question de l'apprentissage de la structure de ce type de modèle à partir de données qui sont en général peu nombreuses. Pour résoudre ce problème, nous recherchons parmi tous les modèles possibles le modèle le plus simple, expliquant le mieux les données. Pour cela, nous introduisons et étudions différents types d'algorithmes génétiques permettant d'explorer l'espace des modèles. Nous nous intéressons plus particulièrement aux méthodes de spéciation. ces dernières, en favorisant la diversité des solutions candidates considérées, empêchent l'algorithme de converger trop rapidement vers des optima locaux. Ces algorithmes génétiques sont comparés avec différentes méthodes d'apprentissage de structure de réseaux bayésiens, classiquement utilisées dans la littérature. Nous mettons ainsi en avant la pertinence des approches evolutionnaires pour l'apprentissage de ces graphes d'interactions. Enfin, nous les comparons à une classe alternative d'algorithmes évolutionnaires qui s'avère particulièrement prometteuse : les algorithmes à estimation de distribution. Tous ces algorithmes sont testés et comparés sur un modèle du réseau de régulation de l'insuline de 35 noeuds dont nous tirons des jeux de données synthétiques de taille modeste.
34

Contribution à la formalisation unifiée des connaissances fonctionnelles et organisationnelles d'un système industriel en vue d'une évaluation quantitative des risques et de l'impact des barrières envisagées

Léger, Aurélie 28 May 2009 (has links) (PDF)
Depuis la révolution industrielle, l'Homme développe des systèmes industriels pour satisfaire ses exigences de production. Mais exploiter ces installations n'est pas sans risques pour les utilisateurs. De ce fait, l'analyse des risques s'est largement développée durant ces dernières décennies. En effet, si dans les années 70, les études se focalisaient sur les défaillances technologiques, des accidents ont souligné l'importance des facteurs humains et organisationnels dans leur occurrence. Si bien que dans les années 80, des méthodes consacrées à l'identification de ces facteurs ont émergées. Ces études, impliquant différentes disciplines, étaient jusqu'alors conçues et conduites séparément les unes des autres. Cet état de fait amène à une sectorisation des analyses et ne permet pas d'avoir une vision globale de la situation étudiée. Mais, depuis peu, des méthodologies proposent d'intégrer (partiellement) ces dimensions dans la démarche d'analyse. Le manque d'intégration constitue aujourd'hui une problématique, scientifique et industrielle, pour les exploitants de systèmes critiques. Ainsi, notre contribution porte sur le développement d'une méthodologie permettant l'analyse de risques de systèmes socio-techniques en exploitation. Ce type d'analyse vise à probabiliser le risque à des fins d'aide à la décision. En ce sens, nous proposons une démarche de formalisation, d'intégration, de représentation et de modélisation des différentes connaissances du système. Le modèle présenté permet d'identifier l'ensemble des causes menant à l'occurrence d'un événement critique, en considérant les données techniques du système et les données liées aux opérateurs et à l'organisation.
35

Algorithmique pour les Réseaux Bayésiens et leurs extensions

Smail, Linda 30 April 2004 (has links) (PDF)
Cette thèse est consacrée à la présentation d'un algorithme nouveau et à la formalisation et l'amélioration d'algorithmes existants pour le calcul des lois marginales et conditionnelles dans les réseaux bayésiens.<br /> Le chapitre 1 présente la théorie des réseaux bayésiens. Nous introduisons une nouvelle notion, celle de réseau bayésien de niveau deux, utile pour l'introduction de notre algorithme de calcul sur les réseaux bayésiens ; nous donnons également quelques résultats fondamentaux et nous situons dans notre formalisme un exemple d'école de réseau bayésien dit «Visite en Asie» .<br />Dans le second chapitre, nous exposons une propriété graphique appelée «d-séparation» grâce à laquelle on peut déterminer, pour tout couple de variables aléatoires ou de groupes de variables, et tout ensemble de conditionnement, s'il y a nécessairement, ou non, indépendance conditionnelle. Nous présentons également dans ce chapitre des résultats concernant le calcul de probabilités ou probabilités conditionnelles dans les réseaux bayésiens en utilisant les propriétés de la d-séparation. Ces résultats, qui concernent des écritures à notre connaissance originales de la factorisation de la loi jointe et de la loi conditionnée d'une famille de variables aléatoires du réseau bayésien (en liaison avec la notion de réseau bayésien de niveau deux) doivent trouver leur utilité pour les réseaux bayésiens de grande taille.<br />Le troisième chapitre donne la présentation détaillée et la justification d'un des algorithmes connus de calcul dans les réseaux bayésiens : il s'agit de l'algorithme LS (Lauritzen and Spigelhalter), basé sur la méthode de l'arbre de jonction. Pour notre part, après avoir présenté la notion de suite recouvrante propre possédant la propriété d'intersection courante, nous proposons un algorithme en deux versions (dont l'une est originale) qui permet de construire une suite de parties d'un réseau bayésien possédant cette propriété. Cette présentation est accompagnée d'exemples. <br />Dans le chapitre 4, nous donnons une présentation détaillée de l'algorithme des restrictions successives que nous proposons pour le calcul de lois (dans sa première version), et de lois conditionnelles (dans sa deuxième version). Cela est présenté après l'introduction d'une nouvelle notion : il s'agit de la descendance proche. Nous présentons également une application de l'algorithme des restrictions successives sur l'exemple «Visite en Asie» présenté en chapitre 1, et nous comparons le nombre d'opérations élémentaires effectuées avec celui qui intervient dans l'application de l'algorithme LS sur le même exemple. Le gain de calcul qui, à la faveur de cet exemple, apparaît au profit de l'algorithme des restrictions successives, sera comme toujours, d'autant plus marqué que la taille des réseaux et le nombre de valeurs prises par les variables seront plus élevés. C'est ce qui justifie l'insertion de notre algorithme au seins de « ProBT » , un logiciel d'inférence probabiliste, réalisé et diffusé par l'équipe Laplace localisée dans le laboratoire Gravir à INRIA Rhône Alpes. <br />En annexes nous rappelons les propriétés des graphes orientés sans circuits, les notions de base sur l'indépendance conditionnelle et l'équivalence de plusieurs définitions des réseaux bayésiens.
36

Aide à l'optimisation de maintenance à partir de réseaux bayésiens et fiabilité dans un contexte doublement censuré

Corset, Franck 22 January 2003 (has links) (PDF)
La première partie traite de l'application des réseaux bayésiens en maintenance et propose une méthodologie de construction à partir d'avis d'experts. Pour évaluer les probabilités, le réseau est décrit par un modèle log-linéaire saturé. Des indices permettant l'analyse du réseau et l'identification des variables critiques sont donnés. Les actions de maintenance sont intégrées comme nouveaux noeuds du graphe. Une intégration du retour d'expérience est proposée par une inférence bayésienne, en quantifiant la confiance attribuée aux avis d'experts. La deuxième partie traite de la fiabilité dans un contexte doublement censuré. Nous étudions les propriétés asymptotiques des estimateurs du maximum de vraisemblance pour la loi de Weibull. Une inférence bayésienne est proposée avec des lois a priori informatives et non informatives. De plus, nous modélisons par des variables cachées un facteur humain, représentant des manques d'information lors d'opérations de maintenance et résolvons ce problème par maximum de vraisemblance et par une inférence bayésienne.
37

Modélisation pangénomique du déséquilibre de liaison à l'aide de réseaux bayésiens hiérarchiques latents et applications

Mourad, Raphaël 22 September 2011 (has links) (PDF)
Les récentes technologies génomiques à haut-débit ont ouvert la voie aux études d'association visant la caractérisation systématique à l'échelle du génome des facteurs génétiques impliqués dans l'apparition des maladies génétiques complexes, telles que l'asthme et le diabète. Dans ces études, le déséquilibre de liaison (linkage disequilibrium, LD) reflète l'existence de dépendances complexes au sein des données génétiques et joue un rôle central, puisqu'il permet une localisation précise des facteurs génétiques. Néanmoins, la haute complexité du LD, ainsi que la dimension élevée des données génétiques, constituent autant de difficultés à prendre en compte. Les travaux de recherche réalisés au cours de cette thèse se sont placés dans cette perspective. La contribution des travaux de recherche présentés est double, puisqu'elle est à la fois théorique et appliquée. Sur le plan théorique, nous avons proposé une nouvelle approche de modélisation du LD. Elle est basée sur le développement d'un modèle issu du domaine de l'intelligence artificielle et de l'apprentissage automatique, la forêt de modèles hiérarchiques à classes latentes (FMHCL). Les nouveautés les plus significatives introduites sont la possibilité de prendre en compte la nature floue du LD et de hiérarchiser les différents degrés de LD. Un nouvel algorithme d'apprentissage supportant le passage à l'échelle, nommé CFHLC, a été développé et décliné en deux versions: la première nécessitant le découpage du génome en fenêtres contiguës pour résoudre le problème de passage à l'échelle, et la seconde (CFHLC+), plus récente et évoluée, résolvant le problème au moyen d'une fenêtre glissante sur le chromosome. A l'aide d'un jeu de données réelles, la comparaison de la méthode CFHLC avec des méthodes concurrentes a montré qu'elle offre une modélisation plus fine du LD. En outre, l'apprentissage sur des données présentant des patrons de LD variés a démontré la capacité de la FMHCL a reproduire fidèlement la structure du LD. Enfin, l'analyse empirique de la complexité de l'apprentissage a montré la linéarité en temps lorsque le nombre de variables à traiter augmente. Sur le plan appliqué, nous avons exploré deux pistes de recherche: la recherche de causalités et la visualisation synthétique et intuitive du LD. D'une part, une étude systématique de la capacité des FMHCL à la recherche de causalités est illustrée dans le contexte de la génétique d'association. Ce travail a établi les bases du développement de nouvelles méthodes de recherche dédiées à la découverte de facteurs génétiques causaux pour les études d'association à l'échelle du génome. D'autre part, une méthode a été développée pour la visualisation synthétique et intuitive du LD adaptée aux trois principales situations que peut rencontrer le généticien: la visualisation du LD de courte distance, de longue distance et dans un contexte pangénomique. Cette nouvelle méthode apporte des atouts majeurs qui sont les suivants: (i) le LD par paires (deux variables) et le LD multilocus (deux variables ou plus) sont simultanément visualisés, (ii) le LD de courte distance et le LD de longue distance sont facilement distingués, et (iii) l'information est synthétisée de manière hiérarchique.
38

Co-conception d'un système commandé en réseau sans fil à l'aide de réseaux bayésiens distribués

Mechraoui, Amine 14 December 2010 (has links) (PDF)
Cette thèse traite le problème de la co-conception des systèmes commandés à travers un réseau sans fil (WNCS). L'intégration du réseau sans fil (WN) dans la boucle de commande influence la Qualité de Contrôle (QoC) du système en terme de la Qualité de Service (QoS) du réseau sans fil. Nous présentons une approche de co-conception basée sur des réseaux bayésiens distribués. Cette approche permet de prendre des décisions pour assurer une bonne QoC pour le robot et aussi faire en sorte que la QoS soit toujours suffisante pour maintenir une bonne QoC. Maintenir une QoS suffisante dépend de la méthode d'ordonnancement utilisée et donc l'approche proposée vise également à déterminer une méthode d'ordonnancement pour maintenir les performances du système. Nous proposons dans nos travaux d'utiliser des robots unicycles mobiles (Khepera III) comme benchmark pour tester nos approches et comparer les résultats de simulation avec les résultats de l'expérimentation.
39

Intégration du contexte par réseaux bayésiens pour la détection et le suivi multi-cibles

Jida, B. 09 December 2008 (has links) (PDF)
Ces travaux se placent dans le cadre général de l'assistance au conducteur et plus particulièrement de la sécurité. L'objectif est ici de surveiller l'environnement d'un véhicule grâce à un capteur télémétrique à balayage et d'informer le conducteur de situations potentiellement dangereuses. Ce dispositif permet alors d'envisager une manoeuvre d'évitement ou d'atténuation de collision. Deux points particuliers ont retenu notre attention : la détection d'objets qui occupe une place privilégiée car elle conditionne directement les performances globales de la méthode, et le processus d'association/suivi qui doit permettre d'associer efficacement les mesures disponibles à chaque objet suivi. Les données télémétriques utilisées nécessitent de passer par une étape de détection afin d'estimer le nombre d'objets présents dans la scène et leur distance au capteur, en procédant à une agrégation des mesures liées au même objet. Nous proposons en particulier dans ce mémoire une méthode de détection d'objets qui exploite non seulement la nature des mesures disponibles mais également les caractéristiques géométriques particulières liées au contexte applicatif. L'approche retenue pour l'étape d'association repose sur les méthodes d'association probabiliste de données qui permettent notamment de considérer le fait qu'une mesure disponible puisse ne pas être liée à un objet, en exploitant donc directement les notions de probabilité de détection et de fausse alarme. Ces probabilités, et notamment la probabilité de détection, demeurent non seulement fortement liées au détecteur, mais également au contexte de la scène : contexte capteur/objet et contexte objet/objet. Pour pouvoir intégrer ces informations globales de contexte, nous proposons une méthode d'association-suivi basée sur les réseaux bayésiens qui autorise l'intégration de paramètres liés aux caractéristiques des objets et du capteur dans la détermination de la probabilité de détection.
40

Modèles graphiques probabilistes pour la reconnaissance de formes

Barrat, Sabine 04 December 2009 (has links) (PDF)
La croissance rapide d'Internet et de l'information multimédia a suscité un besoin en développement de techniques de recherche d'information multimédia, et en particulier de recherche d'images. On peut distinguer deux tendances. La première, appelée recherche d'images à base de texte, consiste à appliquer des techniques de recherche d'information textuelle à partir d'images annotées. Le texte constitue une caractéristique de haut-niveau, mais cette technique présente plusieurs inconvénients : elle nécessite un travail d'annotation fastidieux. De plus, les annotations peuvent être ambiguës car deux utilisateurs peuvent utiliser deux mots-clés différents pour décrire la même image. Par conséquent, plusieurs approches ont proposé d'utiliser l'ontologie Wordnet, afin de réduire ces ambiguïtés potentielles. La seconde approche, appelée recherche d'images par le contenu, est plus récente. Ces techniques de recherche d'images par le contenu sont basées sur des caractéristiques visuelles (couleur, texture ou forme), calculées automatiquement, et utilisent une mesure de similarité afin de retrouver des images. Cependant, les performances obtenues ne sont pas vraiment acceptables, excepté dans le cas de corpus spécialisés. De façon à améliorer la reconnaissance, une solution consiste à combiner différentes sources d'information : par exemple, différentes caractéristiques visuelles et/ou de l'information sémantique. Or, dans de nombreux problèmes de vision, on dispose rarement d'échantillons d'apprentissage entièrement annotés. Par contre, il est plus facile d'obtenir seulement un sous-ensemble de données annotées, car l'annotation d'un sous-ensemble est moins contraignante pour l'utilisateur. Dans cette direction, cette thèse traite des problèmes de modélisation, classification et annotation d'images. Nous présentons une méthode pour l'optimisation de la classification d'images naturelles, en utilisant une approche de classification d'images basée à la fois sur le contenu des images et le texte associé aux images, et en annotant automatiquement les images non annotées. De plus, nous proposons une méthode de reconnaissance de symboles, en combinant différentes caractéristiques visuelles. L'approche proposée est dérivée de la théorie des modèles graphiques probabilistes et dédiée aux deux tâches de classification d'images naturelles partiellement annotées, et d'annotation. Nous considérons une image comme partiellement annotée si son nombre de mots-clés est inférieur au maximum de mots-clés observés dans la vérité-terrain. Grâce à leur capacité à gérer les données manquantes et à représenter d'éventuelles relations entre mots-clés, les modèles graphiques probabilistes ont été proposés pour représenter des images partiellement annotées. Par conséquent, le modèle que nous proposons ne requiert pas que toutes les images soient annotées : quand une image est partiellement annotée, les mots-clés manquants sont considérés comme des données manquantes. De plus, notre modèle peut étendre automatiquement des annotations existantes à d'autres images partiellement annotées, sans intervention de l'utilisateur. L'incertitude autour de l'association entre un ensemble de mots-clés et une image est représentée par une distribution de probabilité jointe sur le vocabulaire des mots-clés et les caractéristiques visuelles extraites de nos bases d'images. Notre modèle est aussi utilisé pour reconnaître des symboles en combinant différents types de caractéristiques visuelles (caractéristiques discrètes et continues). De plus, de façon à résoudre le problème de dimensionnalité dû à la grande dimension des caractéristiques visuelles, nous avons adapté une méthode de sélection de variables. Enfin, nous avons proposé un modèle de recherche d'images permettant à l'utilisateur de formuler des requêtes sous forme de mots-clés et/ou d'images. Ce modèle intègre un processus de retour de pertinence. Les résultats expérimentaux, obtenus sur de grandes bases d'images complexes, généralistes ou spécialisées, montrent l'intérêt de notre approche. Enfin, notre méthode s'est montrée compétitive avec des modèles de l'état de l'art.

Page generated in 0.038 seconds