• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 44
  • 11
  • 7
  • Tagged with
  • 63
  • 29
  • 19
  • 15
  • 15
  • 15
  • 15
  • 13
  • 12
  • 11
  • 11
  • 9
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Opérateurs d'agrégation pour la mesure de similarité. Application à l'ambiguïté en reconnaissance de formes.

Le Capitaine, Hoel 17 November 2009 (has links) (PDF)
Dans cette thèse, nous nous intéressons à deux problèmes de reconnaissance de formes : l'option de rejet en classification supervisée, et la détermination du nombre de classes en classification non supervisée. Le premier problème consiste à déterminer les zones de l'espace des attributs où les observations n'appartiennent pas clairement à une seule classe. Le second problème repose sur l'analyse d'un nuage d'observations pour lesquelles on ne connait pas les classes d'appartenance. L'objectif est de dégager des structures permettant de distinguer les différentes classes, et en particulier de trouver leur nombre. Pour résoudre ces problèmes, nous fondons nos propositions sur des opérateurs d'agrégation, en particulier des normes triangulaires. Nous définissons de nouvelles mesures de similarité permettant la caractérisation de situations variées. En particulier, nous proposons de nouveaux types de mesures de similarité : la similarité d'ordre, la similarité par blocs, et enfin la similarité par une approche logique. Ces différentes mesures de similarité sont ensuite appliquées aux problèmes évoqués précédemment. Le caractère générique des mesures proposées permet de retrouver de nombreuses propositions de la littérature, ainsi qu'une grande souplesse d'utilisation en pratique. Des résultats expérimentaux sur des jeux de données standard des domaines considérés viennent valider notre approche.
32

MÉLIDIS : Reconnaissance de formes par modélisation mixte intrinsèque/discriminante à base de systèmes d'inférence floue hiérarchisés

Ragot, Nicolas 28 October 2003 (has links) (PDF)
La problématique de la reconnaissance de formes manuscrites est particulièrement riche et complexe. Il existe en effet un grand nombre de problèmes différents à traiter dans lesquels les formes à reconnaître sont nombreuses, soumises à une variabilité importante et donc sources de confusions. De plus, les contraintes applicatives, et notamment celles résultant de la volonté de diffusion des moyens informatiques au travers de l'informatique nomade (PDA, smart phone...), font que la conception et l'adaptation de systèmes de reconnaissance à des contextes précis d'utilisation sont particulièrement délicats.<br /><br />Pour faciliter cette mise au point nous proposons une méthodologie de classification visant à réunir un ensemble de propriétés rarement satisfaites dans une même approche : performances, généricité, fiabilité, robustesse, compacité et interprétabilité. Ce dernier point est particulièrement important puisqu'il permet au concepteur d'adapter, de maintenir et d'optimiser le système plus facilement. L'approche proposée, centrée sur la notion de connaissances dans un classifieur, est entièrement guidée par les données. L'originalité réside notamment dans l'exploitation conjointe de connaissances intrinsèques et discriminantes extraites automatiquement et organisées sur deux niveaux pour bénéficier au mieux de leur complémentarité. Le premier niveaux modélise les classes de façon explicite par des prototypes flous. Ceux-ci sont notamment utilisés pour décomposer le problème initial en sous-problèmes dans lesquels les formes possèdant des propriétés intrinsèques similaires sont regroupées. Le second niveau effectue ensuite une discrimination ciblée sur ces sous-problèmes par des arbres de décision flous. L'ensemble est formalisé de façon homogène par des systèmes d'inférence floue qui sont combinés pour la classification.<br /><br />Cette approche a conduit à la réalisation du système Mélidis qui a été validé sur plusieurs benchmarks dont des problèmes de reconnaissance de caractères manuscrits en ligne.
33

ÉVALUATION DU RISQUE POUR LA SÉCURITÉ DES RÉSEAUX ÉLECTRIQUE FACE AUX ÉVÉNEMENTS INTENTIONNELS

Tranchita, Carolina 30 April 2008 (has links) (PDF)
Les réseaux électriques sont des infrastructures critiques fortement interconnectées et dépendantes d'autres infrastructures essentielles pour assurer diverses activités humaines. Compte tenu ce rôle clef, le secteur électrique est, et continuera à l'être, une cible privilégiée pour les groupes terroristes. Pour palier à ces attaques terroristes, il est indispensable d'avoir une grande capacité d'anticipation, de moyens de réflexion lors des périodes d'accalmies, et une bonne gestion (de crise) de la part des exploitants. Ainsi, les aléas résultants des attaques terroristes doivent être pris en compte dans l'évaluation de la sécurité du réseau. Cette thèse présente une méthode basée sur l'évaluation du risque, ce qui permet aux exploitants et aux planificateurs d'estimer la sécurité du réseau en considérant l'occurrence d'actes malveillants. L'utilisation de l'inférence probabiliste et de la théorie de la possibilité, permet de prendre en considération les incertitudes liées à la dynamique terroriste ainsi que les incertitudes dues aux prévisions de charge et de production. Nous avons aussi étendu notre méthodologie aux actes de malveillance liés aux cyberattaques sur les systèmes de communication du réseau électrique qui peuvent affecter la sécurité de ce dernier. Les méthodes sont testées avec des réseaux test standards, en prenant comme exemple l'expérience de l'infrastructure électrique Colombienne, fortement menacée par les attaques terroristes.
34

Représentation, évaluation et utilisation de relations spatiales pour l'interprétation d'images. Application à la reconnaissance de structures anatomiques en imagerie médicale

Colliot, Olivier 30 September 2003 (has links) (PDF)
Les relations spatiales telles que l'adjacence, les distances, les directions ou encore les symétries <br />constituent un élément essentiel des descriptions d'agencement spatial entre les objets d'une scène et sont donc utiles à un grand nombre de tâches d'interprétation d'images. La reconnaissance de structures cérébrales constitue notre cadre d'application. Le cerveau est en effet une scène structurée dans <br /> laquelle les objets partagent une grand nombre de relations<br /> spatiales pertinentes. <br /> <br />Notre travail de thèse est articulé autour des questions suivantes. <br />Comment représenter des relations spatiales ? Comment les utiliser pour <br />formaliser la description d'une scène, en l'occurrence la description de <br />structures neuroanatomiques ? Comment les utiliser à des fins de segmentation <br />d'images et de reconnaissance de formes, en particulier dans le cadre des structures cérébrales ?<br />Dans un premier temps, nous nous intéressons à un type de relation particulier : <br />les symétries planes, qui sont importantes dans le cadre de l'imagerie <br />cérébrale et ont été l'objet de moins d'attention que d'autres types de relations.<br /> Nous proposons une méthode pour quantifier le degré de<br /> symétrie dans les objets flous et les images via une mesure de symétrie ainsi qu'un algorithme pour<br />localiser le plan de symétrie d'un objet donné. L'application de cette méthode au plan de symétrie du cerveau est précise et robuste comme l'a montré l'évaluation menée sur des images synthétiques et réelles.<br />Puis nous montrons comment la description des structures cérébrales peut se faire<br /> à l'aide d'un ensemble de relations spatiales et comment une telle description <br />peut être formalisée par un graphe hiérarchique synthétique. Cette description est <br />comparée avec celle obtenue à partir d'un atlas iconique, grâce à une structure appelée graphe hiérarchique exemple. <br />Enfin, les deux dernières parties traitent de l'utilisation des relations spatiales <br />en segmentation d'images. Une méthode pour intégrer de telles connaissances à un <br />modèle déformable via la construction d'une force externe est proposée. Elle se distingue nettement des autres approches disponibles puisque les relations sont directement introduites pour la recherche des contours des objets. Nous<br /> présentons ensuite une procédure complète de segmentation de structures cérébrales internes fondée <br />sur la description précédente et sur un modèle déformable. Les premiers résultats obtenus, évalués visuellement, sont prometteurs.
35

Analyse Quantifiée de la Marche : extraction de connaissances à partir de données pour l'aide à l'interprétation clinique de la marche digitigrade

ARMAND, Stéphane 29 June 2005 (has links) (PDF)
L'Analyse Quantifiée de la Marche (AQM) est un examen permettant d'identifier et de quantifier les défauts de marche d'un patient à partir de données biomécaniques. L'interprétation de cet examen, conduisant à l'explication des défauts de marche, est ardue. Parmi ces défauts, la marche digitigrade est un des plus courants et pour lequel l'identification des causes demeure difficile. Ce travail propose de fournir une aide à l'interprétation des données de l'AQM pour la marche digitigrade. Afin d'atteindre cet objectif, une méthode d'Extraction de Connaissances à partir de Données (ECD) est utilisée en combinant un apprentissage automatique non-supervisé et supervisé, pour extraire objectivement des connaissances intrinsèques et discriminantes des données de l'AQM. L'apprentissage non-supervisé (c-moyennes floues) a permis d'identifier trois patrons de marche digitigrade à partir de la cinématique de la cheville provenant d'une base de données de plus de 2500 AQM (Institut Saint-Pierre, Palavas, 34). L'apprentissage supervisé est utilisé pour expliquer ces trois patrons de marche par des mesures cliniques sous la forme de règles induites à partir d'arbres de décision flous. Les règles les plus significatives et interprétables (12) sont sélectionnées pour créer une base de connaissances qui est validée au regard de la littérature et des experts. Ces règles peuvent servir d'aide à l'interprétation des données de l'AQM pour la marche digitigrade. Ce travail ouvre différentes perspectives de recherche allant de la généralisation de la méthode utilisée à la création d'un simulateur de marche pathologique.
36

Estimation des caractéristiques du mouvement humain en station debout. Mise en œuvre d'observateurs flous sous forme descripteur

GUELTON, Kevin 16 December 2003 (has links) (PDF)
La neurophysiologie et la biomécanique constituent deux approches complémentaires à la compréhension globale de la régulation posturale. Le corps humain est considéré comme un système mécanique poly-articulé régulé par le système nerveux central. Ses entrées sont les couples articulaires et ses sorties les positions des segments corporels. Au vu des stratégies posturales employées en station debout, un modèle non linéaire en double pendule inversé est adopté. Il dépend de paramètres pouvant être estimés par des tables anthropométriques standards. Pour ajuster le modèle à un individu particulier, un recuit simulé est utilisé. Les couples articulaires sont classiquement estimés par des techniques de dynamique inverse sensibles aux incertitudes de mesure. Une méthode alternative issue du domaine de l'automatique, basée l'utilisation d'observateurs à entrées inconnues, est proposée. L'étude d'une classe d'observateurs flous de type Takagi-Sugeno basés sur une forme descripteur est proposée. Les conditions de convergence sont obtenues par une fonction de Lyapunov quadratique et peuvent être conservatives. Quatre approches, admettant une écriture sous la forme de problèmes LMI ou BMI, sont alors proposées afin de relâcher ces conditions. La mise en œuvre d'un observateur flou à entrées inconnues dans le cas de l'homme en station debout est proposée. Les résultats obtenus sont confrontés à ceux des différentes approches de la dynamique inverse. L'observateur flou semble mieux adapté à l'estimation des caractéristiques du mouvement en station debout. De plus son caractère temps réel est souligné et conduit à de nombreuses perspectives en rééducation.
37

Intelligence Ambiante Pro-Active : de la Spécification à l'Implémentation

Reignier, Patrick 16 September 2010 (has links) (PDF)
L'objectif de l'informatique ubiquitaire ou ambiante, telle que définit par Weiser dans son article de référence, est de faire disparaître l'informatique traditionnelle au profit d'un espace informatisé. L'ordinateur ambiant doit également offrir des capacités d'interaction plus naturelles, être transparent et utilisable sans effort. L'intelligence ambiante est la rencontre de l'intelligence artificielle et de l'informatique ambiante. Il s'agit de déterminer, grâce à l'ensemble des dispositifs de perception présents, l'activité des utilisateurs (le contexte) afin de mieux comprendre et anticiper leurs besoins et leur proposer automatiquement des services appropriés (assistants virtuels). On parle d'applications sensibles au contexte. La conception et la réalisation d'une application sensible au contexte est une tâche complexe, aussi bien du point de vue du développeur que de l'utilisateur final. Il est important de proposer une approche adaptée à ces deux catégories d'acteurs. Nous avons tout d'abord proposé un modèle formel de spécification de contexte permettant d'établir le dialogue entre l'utilisateur et le développeur de l'application. Notre objectif est ensuite de proposer des approches permettant d'automatiser une partie de la production du code de manière à raccourcir le chemin entre cette spécification du modèle de contexte et sa mise en oeuvre au sein d'une application. Dans le cadre de l'aide au développeur, nous avons proposé une approche basée sur l'apprentissage supervisé pour l'interprétation des données capteurs sous forme d'entités et de rôles. Cette interprétation des données capteurs sert d'entrée à la reconnaissance de contexte (scénarios). En nous appuyant sur une approche de type Ingénierie Dirigée par les Modèles, nous avons projeté la spécification du contexte vers deux méta-modèles pour la reconnaissance de scénarios : les réseaux de Petri synchronisés, et les réseaux de Petri Flous. Nous nous sommes également intéressés à l'apprentissage automatique d'un modèle de situations basé sur un ensemble d'observations annotées. Dans le cadre de l'aide à l'utilisateur final, nous avons proposé deux approches permettant à l'usager d'adapter précisément l'application à ses besoins réels. La première approche est basée sur une analyse hors ligne du comportement de l'application (apprentissage supervisé). La seconde approche propose une modification en situation (punition – récompense) en s'appuyant sur une approche de type apprentissage renforcé indirect.
38

Evaluation des risques de crise, appliquée à la détection des conflits armés intra-étatiques

Delavallade, Thomas 06 December 2007 (has links) (PDF)
Dans de nombreux domaines, l'analyse rationnelle des risques fait partie intégrante du processus de décision. Il s'agit d'un outil méthodologique essentiel pour les acteurs politiques et économiques qui leur permet d'anticiper le déclenchement de crises potentielles. Dans certains secteurs d'activité les conséquences de telles crises sont parfois telles que le recours à l'analyse de risque correspond à une contrainte réglementaire imposée par le législateur. L'objectif d'une telle analyse est de parvenir à identifier les situations à risque ainsi que les principaux facteurs de risque de manière à pouvoir mettre en place les politiques de prévention adéquates.<br />Si de nombreuses cellules de veille ont été mises en place, tant au niveau de l'entreprise, qu'au niveau des institutions nationales et internationales, la quantité d'information potentiellement pertinente pour un sujet donné est parfois telle que la mise à disposition d'outils automatisant tout ou partie du traitement de cette information répond à un besoin réel, sinon à une nécessité.<br />Dans cette optique, dans cette thèse, nous proposons un système générique d'aide à l'anticipation de crises. Notre objectif est de fournir une synthèse d'une situation donnée, d'un point de vue structurel et non événementiel, via l'identification des crises potentielles ainsi que des principaux facteurs de risque associés. Le système que nous proposons repose sur l'apprentissage supervisé de règles de décision floues.<br />La qualité des données d'apprentissage étant problématique dans de nombreuses applications, nous proposons, dans nos travaux, une étude approfondie sur la chaîne de prétraitement, et en particulier sur le traitement des valeurs manquantes et sur la sélection d'attributs. Nous avons également mis l'accent sur l'évaluation et la sélection de modèles afin de pouvoir adapter les modèles de détection au problème à traiter, ainsi qu'aux besoins de l'utilisateur final.<br />La synthèse des résultats fournis par notre système étant destiné à des utilisateurs en charge de la veille stratégique, des outils d'aide au raisonnement et à la compréhension de cette synthèse sont également proposés.<br />Pour juger de l'intérêt de notre méthodologie nous détaillons son application à un problème concret : la détection des conflits armés intra-étatiques.
39

Evaluation de paramètres de sûreté de fonctionnement en présence d'incertitudes et aide à la conception : application aux Systèmes Instrumentés de Sécurité

Sallak, Mohamed 19 October 2007 (has links) (PDF)
L'introduction de systèmes instrumentés dédiés aux applications de sécurité impose l'évaluation de leur sûreté de fonctionnement. On utilise généralement pour cela les bases de données de fiabilité génériques. Cependant, le retour d'expérience pour ces systèmes qui présentent en général des défaillances rares est insuffisant pour valider les résultats obtenus. En outre, la collecte de données de fiabilité et leur extrapolation à d'autres composants introduisent des incertitudes.<br />Les travaux de cette thèse portent sur la problématique de la prise en compte des incertitudes relatives aux données de fiabilité des composants pour l'évaluation de la sûreté de fonctionnement des systèmes par le formalisme des sous ensembles flous. La méthodologie proposée est appliquée à l'évaluation des probabilités de défaillance des Systèmes Instrumentés de Sécurité (SIS) en présence de données de fiabilité imprécises. Nous introduisons deux nouveaux facteurs d'importance pour aider le concepteur. En outre, nous proposons une méthodologie d'aide à la conception des SIS basée sur la modélisation par réseaux de fiabilité et l'optimisation par des algorithmes génétiques de la structure des SIS pour le respect des niveaux d'intégrité de sécurité (SIL) exigés.
40

Détection des galaxies à faible brillance de surface et segmentation hyperspectrale dans le cadre de l'observatoire virtuel

Petremand, Matthieu 20 November 2006 (has links) (PDF)
Les progrès technologiques de l'instrumentation astronomique soulèvent des problématiques variées. L'imagerie monobande permet, grâce aux capteurs de résolution et de sensiblité croissante, de découvrir des objets autrefois inobservables. En particulier, le développement des capteurs multispectraux permet l'acquisition de masses de données porteuses d'une information très riche. Néanmoins, l'interprétation et le traitement de tels volumes de données restent délicats pour la communauté astronomique. Dans le cadre de cette thèse nous proposons un ensemble de méthodes facilitant le processus d'interprétation réalisé par l'astronome. Nous introduisons une nouvelle méthode de segmentation floue par champs de Markov permettant de prendre en compte les spécificités des observations astronomiques : frontières des objets non définies et objets diffus. Un pixel flou de la carte de segmentation appartient ainsi à une ou deux classes dures en fonction d'un certain degré d'appartenance. Nous proposons également une méthode de détection de galaxies à faible brillance de surface (galaxies LSB) basée sur l'utilisation d'une segmentation markovienne par quadarbre. Cette segmentation permet de dégager les galaxies LSB du fond de ciel grâce à une estimation fine de la statistique du bruit présent dans l'observation. Un ensemble d'étapes de sélection est ensuite mis en oeuvre afin de caractériser la galaxie. Nous proposons deux méthodes de visualisation d'images multispectrales permettant de synthétiser l'information portée par toutes les bandes dans une composition colorée réalisée dans l'espace TSL (Teinte Saturation Luminance). Enfin, nous étudions une nouvelle méthode de segmentation de cubes de données hyperspectraux basée sur une approche de discrimination spectrale puis sur une régularisation spatiale de la carte de segmentation par une approche markovienne par quadarbre. Ces méthodes sont validées sur des images astronomiques et ont fait l'objet d'une interaction particulièrement riche entre communauté STIC et communauté astronomique. De plus, deux méthodes sont validées sur des images issues du domaine de la télédétection pour lesquelles certaines problématiques restent communes.

Page generated in 0.054 seconds