• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 6
  • 3
  • Tagged with
  • 29
  • 11
  • 9
  • 8
  • 8
  • 8
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Diagnostic par techniques d'apprentissage floues: concept d'une méthode de validation et d'optimisation des partitions

Isaza Narvaez, Claudia Victoria 25 October 2007 (has links) (PDF)
Ce travail se situe dans le domaine du diagnostic des processus défini comme étant l'identification de ses états fonctionnels. Dans le cas où l'obtention d'un modèle précis du processus est délicate ou impossible, la connaissance sur le système peut être extraite à partir des signaux obtenus lors d'un fonctionnement normal ou anormal en incluant des mécanismes d'apprentissage. Cette connaissance s'organise sous l'aspect d'une partition de l'espace des données sous forme de classes (représentant les états du système). Parmi les techniques d'apprentissage, celles incluant de la logique floue ont l'avantage d'exprimer les appartenances d'un individu à plusieurs classes, ceci permet de mieux connaître la situation réelle du système et prévoir des changements vers des états de défaillance. Nonobstant leurs performances adéquates, leur forte dépendance aux paramètres d'initialisation est une difficulté pour l'apprentissage. Cette thèse se situe dans l'amélioration de ces techniques, en particulier notre objectif est l'élaboration d'une méthode permettant de valider et d'adapter automatiquement la partition de l'espace de données obtenue par une technique de classification floue. Elle permet de trouver automatiquement une partition optimale en termes de compacité et de séparation des classes, à partir uniquement de la matrice des degrés d'appartenance obtenue par une classification antérieure. Cette méthode est donc une aide importante donnée à l'expert du processus pour établir les états fonctionnels dans l'implémentation d'une technique de surveillance d'un procédé complexe. Son application est illustrée sur des exemples académiques et sur le diagnostic de 3 procédés chimiques.
12

Paysage et risque sanitaire - Le cas de l'echinococcose alvéolaire. Approche multiscalaire

Tolle, Florian 09 December 2005 (has links) (PDF)
Echinococcus multilocularis est un parasite responsable chez l'homme d'une maladie grave : l'échinococcose alvéolaire. Les oeufs du parasite, agent pathogène, sont présents dans les fèces de renard et peuvent survivre plusieurs mois dans l'environnement. Le risque épidémiologique lié à la maladie a conduit, en France et en Europe, à la mise en place de programmes d'épidémiosurveillance. Ils ont permis de collecter des échantillons géoréférencés dont la contamination éventuelle a été testée. Cette base de données a servi au développement sur SIG d'un protocole de recherche de descripteurs paysagers présumés indicateurs du potentiel de risque. Trois échelles ont successivement été abordées. Dans le Doubs, département situé en zone de haute endémie, une analyse en régression logistique binaire a permis l'identification d'indices paysagers associés aux zones présentant des échantillons positifs. La qualité des modèles prédictifs générés a été testée par la méthode des courbes ROC. La représentation cartographique des facteurs paysagers présumés à risque a conduit à identifier des zones potentiellement favorables à l'établissement du cycle parasitaire. Pour l'ensemble français, les nuées dynamiques floues ont été utilisées pour le choix de niveaux d'échelle pertinents. Une typologie des paysages environnant les échantillons collectés a été conduite. La prévalence de chaque type paysager ainsi défini a été calculée. Les paysages ont été représentés en fonction de leur susceptibilité présumée à accueillir le cycle parasitaire. Enfin, à l'échelle européenne, les données climatiques ont permis la délimitation d'une limite méridionale théorique d'extension du parasite. Ces résultats montrent les possibilités offertes par les outils d'analyse spatiale et de modélisation dans les problématiques de risque sanitaire.
13

Modélisation des relations spatiales entre objets en mouvement / Modeling spatial relations between moving objects

Salamat, Nadeem 07 October 2011 (has links)
Les relations spatiales entre les différentes régions dans une image sont utiles pour la compréhension et l'interprétation de la scène représentée. L'analyse Spatio-temporelle d'une scène implique l'intégration du temps dans des relations spatiales entre les objets en mouvement. Les relations spatio-temporelles sont définies dans un intervalle de temps utilisant la géométrie 3D ou l'extension de la géométrie 2D à la dimension temporelle. La modélisation des relations spatiales dynamiques prend en compte la position relative des objets et leurs relations directionnelles, ceci implique les relations topologiques, directionnelles et de distance. Ces relations sont étendues au domaine temporel. Dans notre travail, on décrit une méthode de combinaison d’information topologique et directionnelle où les relations d'Allen floues 1D sont appliquées au domaine spatial. La méthode proposée intègre le flou au niveau des relations. La méthode très gourmande initialement en temps de calcul en raison de l’approximation des objets ainsi qu'à l'algorithme de fuzzification des segments des sections longitudinales est améliorée en utilisant une approximation polygonale adaptée sur les objets considérés. L'algorithme du fuzzification des segments d'une section longitudinale inclut des opérateurs d'agrégation floue. Dans la méthode proposée, Les relations topologiques 2Dsont représentées par un histogramme. Les relations floues n'étant pas exhaustives, un algorithme de défuzzification des relations spatiales a été proposé pour réaliser un ensemble JEPD de relations spatiales. Cet ensemble de relations spatiales est représenté par un graphe de voisinage où chaque nœud du graphe représente la relation topologique et directionnelle. Cette méthode définit des relations spatio-temporelles en utilisant le modèle de données Espace-Temps. Un ensemble de relations spatio-temporelles est également fourni à l'aide de la stabilité topologique. Afin de valider le modèle, nous avons développé des applications fondées sur le raisonnement spatio-temporel proposé. Celui-ci a permit la création de tables de composition pour les relations spatiales topologiques structurées en sous-tables. Les entités de ces sous-tables sont liées les unes aux autres par des relations spatiales. Dans une seconde application, nous avons proposé une méthode de prédiction des évènements entre objets en mouvement fondée sur le même raisonnement spatio-temporel. Les objets en mouvement changeant de position à chaque instant, la prédiction de la nouvelle position spatiale d'un objet tient compte des états de relations spatiales calculées précédemment. / Spatial relations between different image regions are helpful in image understanding, interpretation and computer vision applications. Spatio-temporal analysis involves the integration of spatial relations changing over time between moving objects of a dynamic scene. Spatio-temporal relations are defined for a selected time interval using 3D geometry or extension of 2D object geometry to the time dimension with sequence occurrence of primitive events for each snapshot. Modeling dynamic spatial relations takes into account the relative object position and their directional relations; this involves the topological, directional and distance relations and their logical extension to the temporal domain. In this thesis, a method for combining topological and directional relations information is discussed where 1D temporal fuzzy Allen relations are applied in spatial domain. Initially, the method has a high computational cost. This computing cost is due to the object approximation and the fuzzification algorithm of segments. The computing time has been using polygonal object approximation. Fuzzification algorithm is replaced with fuzzy aggregation operators for segments of a longitudinal section. In this method, two dimensional topological relations are represented in a histogram. The representation method for two dimensional spatial relations has been changed. These fuzzy relations are not Jointly Exhaustive and Pairwise Disjoint (JEPD). An algorithm for defuzzification of spatial relations is proposed to realize JEPD set of spatial relations, these JEPD spatial relations are represented in a neighborhood graph. In this neighborhood graph, each node represents the topological and directional relation. This method is further extended for defining spatio-temporal relations using space and time data model, a set of spatio-temporal relations are also elaborated using the stability property in topology. In an application, a method for spatio-temporal reasoning based on this new model is developed. Spatio-temporal reasoning consists of developing the composition tables for spatial relations. Composition table for topological relations are rearranged into sub-tables. Entities in these sub-tables are related to each other and mathematical rules are defined for composition of spatial relations which elaborate the relation between entities of sub-tables. In another application, we propose a method for motion event predictions between moving objects. It is a similar process to the spatio-temporal reasoning. Dynamic objects occupy different places at different time points, these objects have multiple choices for subsequent positions and a unique history. Prediction about motion events take into account the history of a moving object and predict about the semantics of a motion event.
14

Modélisation et validation expérimentale des complexes insonorisants pour la prévision vibroacoustique numérique basse et moyenne fréquences des automobiles / Modelling and experimental validation of complex sound-insulation layers for computational low- and medium-frequency vibroacoustics of cars

Fernandez, Charles 11 December 2008 (has links)
Dans cette recherche, on construit un modèle simplifié en basses et moyennes fréquences de complexes insonorisants (habillages) de l’industrie automobile à partir d'un élément élastoacoustique stochastique. Le modèle simplifié moyen est issu d'une extension de la théorie des structures floues et dépend de trois paramètres physiques : densité modale, amortissement et masse participante. Le modèle simplifié stochastique qui prend en compte les incertitudes de modèle et de données est construit en utilisant une approche probabiliste non paramétrique et dépend de trois paramètres de dispersion. Le modèle simplifié de l'habillage est implémenté dans un modèle vibroacoustique stochastique industriel d’automobile. Deux problèmes inverses sont résolus à l’aide d'une base de données expérimentales sur véhicules construite en parallèle et permettent d’identifier les paramètres du modèle complet. L'analyse des résultats permet de valider les développements théoriques et la méthodologie proposée / This research aims at developing a simplified low- and medium-frequency model for automotive sound-insulation layers based on a stochastic elastoacoustic element. The mean simplified model comes from an extension of the fuzzy structures theory and depends on three physical parameters : modal density, damping and participating mass. A nonparametric probabilistic approach is used to build the uncertainty-accounting stochastic simplified model. This model takes into account the modeling and system parameters uncertainties and depends on three dispersion parameters. The insulation simplified model is then implemented in an industrial stochastic vibroacoustic model of a car. An experimental database of tests on vehicles has been concomitantly carried out and has led to inverse problems allowing the identification of the simplified model parameters to be performed. The analysis of these results shows the validation of the theory and the relevance of the proposed methodology
15

Conception et évaluation d'une consigne verbatim de l'entretien cognitif : la reconstitution / Conception and evaluation of a verbatim instruction of the cognitive interview : the reenactment-alike instruction

Launay, Céline 28 November 2013 (has links)
Le témoignage oculaire est un élément fondamental de la résolution des enquêtes criminelles. Pour la bonne conduite des enquêtes judiciaires, il apparait primordial d’obtenir des témoignages exhaustifs et exacts. C'est ainsi qu’une équipe de recherche a conçu une méthode basée sur les principes du fonctionnement de la mémoire ayant pour but l’optimisation du recueil des propos du témoin : l’entretien cognitif (Geiselman et al. 1984). Si cette méthode permet d’obtenir des descriptions détaillées sans diminution de la qualité du témoignage, elle est néanmoins marginalement utilisée par les professionnels de la justice. L’objectif de cette thèse est double : il s’agit de proposer une consigne d’entretien qui prend en compte les processus psychologiques en œuvre dans le rappel d’un évènement en mémoire épisodique, et qui soit acceptable du point de vue des pratiques professionnelles. Une première étape a consisté en l’analyse des pratiques professionnelles. L’évaluation d’une formation à l’entretien cognitif auprès d’enquêteurs de police a montré que la méthode est facilement assimilable par les enquêteurs, suggérant que sa non-application sur le terrain ne résiderait pas dans sa difficulté d’utilisation, mais relèverait plutôt de problèmes d’acceptabilité de la part des professionnels. Pour comprendre les objectifs professionnels de l’audition, nous avons ensuite procédé à une analyse des pratiques en termes d’audition. Cette analyse a révélé que les enquêteurs recherchaient de façon prépondérante des informations sur les actions d’une scène criminelle. Sur la base de ces constats, nous avons conçu une consigne dite de reconstitution, qui fait appel aux traces verbatim en mémoire, et vise à apporter des actions générales et spécifiques d’une scène. La consigne a été testée dans un protocole d’entretien et a démontré son efficacité aussi bien quantitative que qualitative, en apportant davantage d’informations correctes sur une scène comparée à d’autres consignes, sans augmentation concomitante du nombre d’erreurs. Il apparait que la consigne de reconstitution répond de façon pertinente au principal objectif d’une enquête de police. / Eyewitness testimony is a fundamental determinant to the resolution of criminal investigations. To conduct criminal investigations effectively, it appears essential to obtain complete and accurate testimony. For this purpose, a research team has developed a method based on the features of human memory, aiming to enhance the eliciting of eyewitness accounts: the cognitive interview (Geiselman et al., 1984). Although this method enables investigators to obtain detailed descriptions without reducing the quality of the testimony, it is still only marginally used by legal professionals. The objective of this thesis is twofold: it aims to provide interviewing instructions which take into account the psychological processes at work in the recalling of events in episodic memory, while simultaneously being acceptable from the standpoint of professional practice. The first step involved conducting an analysis of professional practices. An evaluation of training in cognitive interviewing by police investigators showed that the method is easily learnt and suggests that the lack of implementation in practice does not stem from the difficulties linked to its implementation, but rather arises as a result of a lack of acceptance among professionals. In order to further our understanding of the professional objectives of the hearing, we then conducted an analysis of practices in terms of hearing. This analysis revealed that investigators were essentially seeking out information about the actions which took place during the crime scene. Based on these findings, we designed a re-enactment-alike interviewing instruction, which activates the verbatim traces in memory and is intended to elicit the general and specific actions of a scene. This instruction was tested in an interviewing protocol and demonstrated its quantitative and qualitative effectiveness in providing a greater quantity of correct information compared with other instructions, whilst withstanding a concomitant increase in the number of errors. Re-enactment-alike instruction thus appears highly relevant for reaching the main objective of a police investigation.
16

Composition de services web dans des environnements incertains / Web services composition in uncertain environments

Amdouni, Soumaya 24 September 2015 (has links)
Cette thèse porte sur la composition des services de données et l'étude de l'impact de l'incertitude qui peut être associée à leurs données accessibles sur le processus de composition et de sélection de service. En effet, dans un contexte tel que l'Internet, il est de plus en plus reconnu que les données et les services d'accès aux données sont sujettes à des valeurs d'incertitude tout en exigeant des techniques de gestion plus sophistiquées. Dans cette thèse, nous enrichissons la description sémantique des services Web afin de refléter l'incertitude, et nous proposons de nouveaux mécanismes et modèles pour la sélection et la composition des services. Nos mécanismes sont basés sur les ensembles flous et les théories probabilistes. Tout d'abord, nous étendons notre modélisation précédente basée sur les vues RDF afin d'inclure les contraintes floues qui caractérisent les données accédées par les services. Nous proposons une algèbre de composition qui permet de classer les résultats retournés en fonction de leur pertinence par rapport aux préférences de l'utilisateur. Notre algèbre proposée repose sur les fondations de bases de données floues. En outre, nous optons pour l'approche probabiliste pour modéliser l'incertitude des données renvoyées par les services incertains. Nous étendons la description du service Web standard pour représenter les probabilités de sortie. L'invocation des services est également étendue pour tenir compte de l'incertitude. Cette extension est basée sur la théorie des mondes possibles utilisée dans les bases de données probabiliste. Nous définissons un ensemble d'opérateurs de composition qui sont nécessaires pour orchestrer les services de données. Pour chaque composition, plusieurs plans d'orchestration peuvent être possibles mais qui sont pas tous corrects, donc, nous définissons un ensemble de conditions pour vérifier si le plan est correct (Safe) ou pas. Nous fournissons une implémentation de nos différentes techniques et les appliquer aux domaines de l'immobilier et du commerce électronique. Nous implémentons ces services et nous fournissons également une étude de la performance de notre prototype de composition / In this thesis we focus on the data web services composition problem and study the impact of the uncertainty that may be associated with the output of a service on the service selection and composition processes. This work is motivated by the increasing number of application domains where data web services may return uncertain data, including the e-commerce, scientific data exploration, open web data, etc. We call such services that return uncertain data as uncertain services. In this dissertation, we propose new models and techniques for the selection and the composition of uncertain data web services. Our techniques are based on well established fuzzy and probabilistic database theories and can handle the uncertainty efficiently. First, we proposed a composition model that takes into account the user preferences. In our model, user preferences are modelled as fuzzy constraints, and services are described with fuzzy constraints to better characterize their accessed data. The composition model features also a composition algebra that allows us to rank the returned results based on their relevance to user's preferences. Second, we proposed a probabilistic approach to model the uncertainty of the data returned by uncertain data services. Specifically, we extended the web service description standards (e.g., WSDL) to represent the outputs' probabilities. We also extended the service invocation process to take into account the uncertainty of input data. This extension is based on the possible worlds theory used in the probabilistic databases. We proposed also a set of probability-aware composition operators that are necessary to orchestrate uncertain data services. Since a composition may accept multiple orchestration plans and not all of them compute the correct probabilities of outputs, we defined a set of conditions to check if a plan is safe (i.e., computes the probabilities correctly) or not. We implemented our different techniques and applied them to the real-estate and e-commerce domains. We provide a performance study of our different composition techniques
17

Opérateurs d'agrégation pour la mesure de similarité. Application à l'ambiguïté en reconnaissance de formes.

Le Capitaine, Hoel 17 November 2009 (has links) (PDF)
Dans cette thèse, nous nous intéressons à deux problèmes de reconnaissance de formes : l'option de rejet en classification supervisée, et la détermination du nombre de classes en classification non supervisée. Le premier problème consiste à déterminer les zones de l'espace des attributs où les observations n'appartiennent pas clairement à une seule classe. Le second problème repose sur l'analyse d'un nuage d'observations pour lesquelles on ne connait pas les classes d'appartenance. L'objectif est de dégager des structures permettant de distinguer les différentes classes, et en particulier de trouver leur nombre. Pour résoudre ces problèmes, nous fondons nos propositions sur des opérateurs d'agrégation, en particulier des normes triangulaires. Nous définissons de nouvelles mesures de similarité permettant la caractérisation de situations variées. En particulier, nous proposons de nouveaux types de mesures de similarité : la similarité d'ordre, la similarité par blocs, et enfin la similarité par une approche logique. Ces différentes mesures de similarité sont ensuite appliquées aux problèmes évoqués précédemment. Le caractère générique des mesures proposées permet de retrouver de nombreuses propositions de la littérature, ainsi qu'une grande souplesse d'utilisation en pratique. Des résultats expérimentaux sur des jeux de données standard des domaines considérés viennent valider notre approche.
18

Structures Multi-contextuelles et Logiques Modales Intuitionnistes et Hybrides

Salhi, Yakoub 03 December 2010 (has links) (PDF)
En informatique, les logiques formelles ont une place centrale dans la représentation et le traitement des connaissances. Elles sont utilisées pour la modélisation et la vérification de systèmes informatiques et de leurs propriétés ainsi que pour la formalisation de différents types de raisonnement. Dans ce contexte il existe un large spectre de logiques non-classiques parmi lesquelles les logiques modales jouent un rôle important. Alors que les logiques modales classiques ont été largement étudiées, nous nous focalisons dans cette thèse sur les logiques modales intuitionnistes et aussi hybrides floues en abordant un certain nombre de questions principalement du point de vue de la théorie de la démonstration. Nous proposons pour ces logiques de nouveaux systèmes de preuve, notamment suivant les formalismes de déduction naturelle et de calcul des séquents, qui sont fondés sur de nouvelles structures multi-contextuelles généralisant la structure standard de séquent. Ainsi dans le cadre des logiques modales intuitionnistes formées à partir des combinaisons des axiomes T, B, 4 et 5, nous définissons des systèmes de preuve sans labels ayant de bonnes propriétés comme par exemple celle de la sous-formule. En outre, nous proposons des procédures de décision simples à partir de nos nouveaux calculs des séquents. Nous étudions également la première version intuitionniste de la logique hybride IHL et nous proposons son premier calcul des séquents à partir duquel nous donnons la première démonstration de sa décidabilité. Enfin, nous introduisons une nouvelle famille de logiques hybrides floues fondées sur les logiques modales de Gödel. Nous proposons pour ces logiques des procédures de décision avec génération de contre-modèles en utilisant un ensemble de règles de preuve fondées sur une structure multi-contextuelle adaptée.
19

Contribution au Système d'Information d'un Produit « Bois ». <br />Appariement automatique de pièces de bois <br />selon des critères de couleur et de texture.

Schmitt, Emmanuel 28 September 2007 (has links) (PDF)
Nos travaux portent sur l'étude d'un capteur flou adapté à l'identification couleur d'avivés. La méthode proposée a pour objectif notamment de prendre en compte la subjectivité de la perception des couleurs par l'être humain et de délivrer ses résultats dans le vocabulaire de l'utilisateur. Le domaine d'applications (industrie du bois) impose certaines contraintes. En effet, les classes de couleurs ne sont pas disjointes (frontières non strictes) et sont représentées par peu d'échantillons. Il en résulte alors des imprécisions et incertitudes dans la définition des classes de sortie. Après un état de l'art sur les techniques de traitement d'images, de reconnaissance de formes et sur la structure des capteurs intelligents, nos travaux sont exposés suivant deux axes : du capteur aux mesures, et des mesures à la décision. Tout d'abord, nous avons évalué et corrigé les perturbations lié à l'environnement ambiant du capteur (température, vieillissement, ...). Ensuite, nous avons déterminé l'espace colorimétrique le plus discriminant,et élaboré le vecteur caractéristique composé d'attributs interprétables permettant d'identifier les couleurs. A partir de ces données, nous avons développé le Fuzzy Reasoning Classifier basé sur un mécanisme de règles linguistiques floues agrégeant des règles conjonctives suivant le modèle de Larsen. Enfin, un opérateur flou de fusion de données est utilisé pour des systèmes multi-capteurs. L'exploitation de ce capteur flou a montré le bon comportement du système face aux contraintes temps-réel industrielles ainsi qu'une amélioration des taux de reconnaissance d'environ 10%.
20

Logique floue en segmentation d'images : seuillage par entropie et structures pyramidales irrégulières

Braviano, Gilson 03 October 1995 (has links) (PDF)
Contrairement à la logique classique, la logique floue permet de manipuler d'autres valeurs de vérité que le 'vrai' et le 'faux' absolus. Dans ce travail, nous étudions l'introduction de cette logique dans les processus de segmentation d'images. Des techniques de premier et de deuxième ordres sont présentées et appliquées à plusieurs images. Deux méthodes de seuillage basées sur l'entropie floue sont développées. Une coopération entre ces méthodes et l'entropie adaptée classique est proposée pour la segmentation d'images cytologiques. Nous présentons les méthodes de segmentation de deuxième ordre utilisant la notion de pyramide. Les pyramides irrégulières sont étudiées et leur support théorique, basé en théorie de graphes, est formalisé. L'introduction d'un facteur d'incertitude dans le processus de segmentation, basé sur la pyramide de graphes, est proposée. Cela se fait à l'aide de sommets et arêtes floues, créant la pyramide floue. Toutes les procédures restent parallélisables et l'ordre d'évaluation des élements des graphes représentant les niveaux de la pyramide n'a pas d'importance.

Page generated in 0.0794 seconds