Spelling suggestions: "subject:"cases dde données."" "subject:"cases dee données.""
221 |
Quelques modèles et méthodes pour l'étude de la cognitionCourrieu, Pierre 19 October 2011 (has links) (PDF)
Dossier de travaux incluant un échantillon de 12 publications sur les thèmes suivants: - Perception des lettres - Modèles de codage de données - Modèles de codage d'images - Réseaux de neurones et apprentissage supervisé - Méthodes de calcul des paramètres de modèles - Méthodes de validation de modèles et bases de données comportementales
|
222 |
Data Mining : algorithmes d'extraction et de réduction des règles d'association dans les bases de donnéesPasquier, Nicolas 31 January 2000 (has links) (PDF)
L'extraction de connaissances dans les bases de données, également appelé data mining, désigne le processus non trivial permettant d'extraire des informations et des connaissances utiles qui sont enfouies dans les bases de données, les entrepôts de données (data warehouse) ou autres sources de données. Les recherches en ce domaine sont motivées par la croissance très rapide des volumes de données stockées et le potentiel de telles informations pour l'aide à la décision dans de nombreux domaines. Dans ce mémoire, nous traitons du problème de la génération efficace des règles d'association. Une règle d'association est une implication conditionnelle entre ensembles d'attributs binaires appelés items. Dans l'ensemble des travaux existants, ce problème est décomposé en deux sous-problèmes qui sont la recherche des ensembles fréquents d'items et la génération des règles d'association à partir de ces ensembles. Le premier sous-problème a une complexité exponentielle dans la taille de la relation en entrée et nécessite de parcourir à plusieurs reprises la totalité de la relation. L'extraction des ensembles fréquents d'items constitue donc la phase la plus coûteuse en termes de temps d'exécution et d'espace mémoire pour les algorithmes d'extraction des règles d'association. Nous proposons une nouvelle sémantique pour le problème de l'extraction des règles d'association basée sur la connexion de Galois d'une relation binaire finie. Utilisant cette sémantique, nous démontrons que les ensembles fermés fréquents d'items constituent une base, c'est à dire un ensemble générateur non redondant, pour les ensembles fréquents d'items et les règles d'association. Nous proposons deux nouveaux algorithmes, nommés Close et A-Close, permettant l'extraction des ensembles fermés fréquents d'items, à partir desquels les ensembles fréquents d'items et les règles d'association peuvent être dérivés sans accéder au jeu de données. Les résultats expérimentaux démontrent que ces algorithmes permettent de réduire les temps d'extraction des règles d'association dans le cas de jeux de données constitués de données denses ou corrélées. Utilisant la sémantique définie, nous proposons d'améliorer la pertinence et l'utilité des règles d'association extraites en limitant l'extraction à des bases pour les règles d'association. Nous adaptons pour cela les bases pour les règles d'implication définies en analyse de données et nous définissons de nouvelles bases constituées des règles non redondantes d'antécédents minimaux et de conséquences maximales à partir des ensembles fermés fréquents. Nous proposons également des algorithmes efficaces de génération de ces bases.
|
223 |
Extraction de Connaissances pour la Modelisation tri-dimensionnelle de l'Interactome StructuralGhoorah, Anisah 22 November 2012 (has links) (PDF)
L'étude structurale de l'interactome cellulaire peut conduire à des découvertes intéressantes sur les bases moléculaires de certaines pathologies. La modélisation par homologie et l'amarrage de protéines ("protein docking") sont deux approches informatiques pour modéliser la structure tri-dimensionnelle (3D) d'une interaction protéine-protéine (PPI). Des études précédentes ont montré que ces deux approches donnent de meilleurs résultats quand des données expérimentales sur les PPIs sont prises en compte. Cependant, les données PPI ne sont souvent pas disponibles sous une forme facilement accessible, et donc ne peuvent pas être re-utilisées par les algorithmes de prédiction. Cette thèse présente une approche systématique fondée sur l'extraction de connaissances pour représenter et manipuler les données PPI disponibles afin de faciliter l'analyse structurale de l'interactome et d'améliorer les algorithmes de prédiction par la prise en compte des données PPI. Les contributions majeures de cette thèse sont de : (1) décrire la conception et la mise en oeuvre d'une base de données intégrée KBDOCK qui regroupe toutes les interactions structurales domaine-domaine (DDI); (2) présenter une nouvelle méthode de classification des DDIs par rapport à leur site de liaison dans l'espace 3D et introduit la notion de site de liaison de famille de domaines protéiques ("domain family binding sites" ou DFBS); (3) proposer une classification structurale (inspirée du système CATH) des DFBSs et présenter une étude étendue sur les régularités d'appariement entre DFBSs en terme de structure secondaire; (4) introduire une approche systématique basée sur le raisonnement à partir de cas pour modéliser les structures 3D des complexes protéiques à partir des DDIs connus. Une interface web (http://kbdock.loria.fr) a été développée pour rendre accessible le système KBDOCK. Le système KBDOCK couvre plus de 2,700 hetero DDIs non-redondantes correspondant à 1,439 DFBSs localisés sur 947 domaines Pfam distincts. KBDOCK a permis de réaliser plusieurs études étendues. Par exemple, KBDOCK a été utilisé pour montrer que: (1) après de 70% de familles de domaines protéiques n'ont qu'un seul DFBS et les autres familles en ont un petit nombre seulement, ce qui suggère que les DDIs re-utilisent souvent les mêmes sites de liaison; (2) plus de 80% de DFBSs interagissent avec une seule famille de domaines protéiques et les autres DFBSs interagissent avec un petit nombre de familles, ce qui indique que la plupart des DFBSs sont principalement monogames dans leur interactions avec les autres domaines protéiques; (3) les DFBSs impliqués dans des interactions présentent des régularités en terme de structure secondaire, ce qui pourrait servir comme un descripteur complémentaire dans la prédiction d'interaction; (4) lorsque les domaines re-utilisent leur DFBS, le docking orienté vient améliorer les prédictions. Ainsi, KBDOCK constitue une ressource unifiée qui permet d'enrichir les connaissances sur l'interactome structural.
|
224 |
Premiers travaux relatifs au concept de matière communicante : Processus de dissémination des informations relatives au produitKubler, Sylvain 07 December 2012 (has links) (PDF)
Depuis de nombreuses années, plusieurs communautés telles que IMS (Intelligent Manufacturing Systems), HMS (Holonic Manufacturing System) ont suggéré l'utilisation de produits intelligents pour rendre les systèmes adaptables et adaptatifs et ont montré les bénéfices pouvant être réalisés, tant au niveau économique, qu'au niveau de la traçabilité des produits, qu'au niveau du partage des informations ou encore de l'optimisation des procédés de fabrication. Cependant, un grand nombre de questions restent ouvertes comme la collecte des informations liées au produit, leur stockage à travers la chaîne logistique, ou encore la dissémination et la gestion de ces informations tout au long de leur cycle de vie. La contribution de cette thèse est la définition d'un cadre de dissémination des informations relatives au produit durant l'ensemble de son cycle de vie. Ce cadre de dissémination est associé à un nouveau paradigme qui change radicalement la manière de voir le produit et la matière. Ce nouveau concept consiste à donner la faculté au produit d'être intrinsèquement et intégralement communicant. Le cadre de dissémination des informations offre la possibilité à l'utilisateur d'embarquer des informations sensibles au contexte d'utilisation du produit communicant. Outre la définition du processus de dissémination des informations, cette thèse offre un aperçu des champs de recherche, tant scientifiques que technologiques, à investiguer par l'avenir concernant le concept de matière communicante.
|
225 |
Modèle de structuration des relations lexicales fondé sur le formalisme des fonctions lexicalesJousse, Anne-Laure 04 1900 (has links)
Cette thèse porte sur l’élaboration d’un modèle de structuration des relations lexicales, fondé sur les fonctions lexicales de la Théorie Sens-Texte [Mel’cuk, 1997]. Les relations lexicales considérées sont les dérivations sémantiques et les collocations telles qu’elles sont définies dans le cadre de la Lexicologie Explicative et Combinatoire [Mel’cuk et al., 1995]. En partant du constat que ces relations lexicales ne sont pas décrites ni présentées de façon satisfaisante dans les bases de données lexicales, nous posons la nécessité d’en créer un modèle de structuration.
Nous justifions l’intérêt de créer un système de fonctions lexicales puis détaillons les quatre perspectives du système que nous avons mises au point : une perspective sémantique, une perspective axée sur la combinatoire des éléments d’une relation lexicale, une perspective centrée sur leurs parties du discours, ainsi qu’une perspective mettant en avant l’élément sur lequel se focalise la relation. Le système intègre l’ensemble des fonctions lexicales, y compris les fonctions lexicales non standard, dont nous proposons une normalisation de l’encodage.
Le système a été implémenté dans la base de données lexicale du DiCo. Nous
présentons trois applications dans lesquelles il peut être exploité. Premièrement, il est possible d’en dériver des interfaces de consultation pour les bases de données lexicales de type DiCo. Le système peut également être directement consulté en tant qu’assistant à l’encodage des relations lexicales. Enfin, il sert de référence pour effectuer un certain nombre de calculs sur les informations lexicographiques, qui pourront, par la suite, être implémentés pour automatiser la rédaction de certains champs de fiches lexicographiques. / This thesis proposes a model for structuring lexical relations, based on the concept of lexical functions (LFs) proposed in Meaning-Text Theory [Mel’cuk, 1997]. The lexical relations taken into account include semantic derivations and collocations as defined within this theoretical framework, known as Explanatory and Combinatorial Lexicology [Mel’cuk et al., 1995]. Considering the assumption that lexical relations are neither encoded nor made available in lexical databases in an entirely satisfactory manner, we assume the necessity of designing a new model for structuring them.
First of all, we justify the relevance of devising a system of lexical functions rather than a simple classification. Next, we present the four perspectives developped in the system: a semantic perspective, a combinatorial one, another one targetting the parts of speech of the elements involved in a lexical relation, and, finally, a last one emphasizing which element of the relation is focused on. This system covers all LFs, even non-standard ones, for which we have proposed a normalization of the encoding.
Our system has already been implemented into the DiCo relational database. We
propose three further applications that can be developed from it. First, it can be used to build browsing interfaces for lexical databases such as the DiCo. It can also be directly consulted as a tool to assist lexicographers in encoding lexical relations by means of lexical functions. Finally, it constitutes a reference to compute lexicographic information which will, in future work, be implemented in order to automatically fill in some fields within the entries in lexical databases. / Thèse réalisée en cotutelle avec l'Université Paris Diderot (Paris 7)
|
226 |
Adaptation dynamique des architectures réparties pour jeux massivement multijoueursLegtchenko, Sergey 25 October 2012 (has links) (PDF)
Durant la dernière décennie, Les jeux massivement multijoueurs (MMOGs) sont devenus extrêmement populaires et comptent désormais plus de 20 millions d'utilisateurs actifs à travers le monde. Les MMOGs sont des systèmes distribués ayant des contraintes applicatives fortes en terme de cohérence de données, persistance, réactivité et passage à l'échelle. L'évolution des besoins applicatifs du MMOG au cours du temps est difficilement prévisible car dépendante du comportement des joueurs dans le monde virtuel. C'est pourquoi, malgré un important effort de recherche dans le domaine, aucune des architectures proposées ne satisfait pleinement toutes les contraintes requises. Cette thèse explore les capacités des architectures distribuées à s'adapter à la charge applicative grâce à une prise en compte du comportement des joueurs lors de l'exécution. Le système est alors capable de détecter des évolutions qui sont difficiles à prévoir à priori, et dynamiquement allouer les ressources nécessaires à l'application. Nous décrivons différentes techniques de surveillance des joueurs et proposons des moyens de prendre en compte ces informations au niveau de l'architecture. Nos expériences, effectuées dans des conditions réalistes, montrent que nos mécanismes ont un surcoût limité et permettent d'améliorer les performances globales du système.
|
227 |
Description linguistique et implémentation en FX des structures interrogatives (directes) du français.Panckhurst, Rachel 15 December 1990 (has links) (PDF)
L'objectif de cette recherche est de bâtir un répertoire descriptif généralisé des structures interrogatives directes du français. Le travail est pluridisciplinaire : linguistique, informatique, documentation. La partie linguistique consiste à dresser un répertoire descriptif formel dans lequel toutes les propriétés pertinentes concernent l'interrogation. Ces propriétés doivent être suffisamment abstraites pour que n'importe quel formalisme puisse les incorporer au besoin. L'implémentation sous forme d'un répertoire vise ensuite l'incorporation des contraintes apportées par la description linguistique. Enfin, nous proposons une consultation de bases de données à visée linguistique, qui est reliée par interface à l'analyse informatique.
|
228 |
Privacy-Centric Data ManagementNguyen, Benjamin 09 December 2013 (has links) (PDF)
This document will focus on my core computer science research since 2010, covering the topic of data management and privacy. More speci cally, I will present the following topics : - A new paradigm, called Trusted Cells for privacy-centric personal data management based on the Asymmetric Architecture composed of trusted or open (low power) distributed hardware devices acting as personal data servers and a highly powerful, highly available supporting server, such as a cloud. (Chapter 2). - Adapting aggregate data computation techniques to the Trusted Cells environment, with the example of Privacy-Preserving Data Publishing (Chapter 3). - Minimizing the data that leaves a Trusted Cell, i.e. enforcing the general privacy principle of Limited Data Collection (Chapter 4). This document contains only results that have already been published. As such, rather than focus on the details and technicalities of each result, I have tried to provide an easy way to have a global understanding of the context behind the work, explain the problematic of the work, and give a summary of the main scienti c results and impact.
|
229 |
Conception et validation d'une méthode de complétion des valeurs manquantes fondée sur leurs modèles d'apparitionBen Othman, Leila 18 November 2011 (has links) (PDF)
L'extraction de connaissances à partir de données incomplètes constitue un axe de recherche en plein essor. Dans cette thèse, nous y contribuons par la proposition d'une méthode de complétion des valeurs manquantes. Nous commençons par aborder cette problématique par la définition de modèles d'apparition des valeurs manquantes. Nous en proposons une nouvelle typologie en fonction des données connues et nous les caractérisons de façon non redondante grâce à la base d'implications propres. Un algorithme de calcul de cette base de règles, formalisé à partir de la théorie des hypergraphes, est également proposé dans cette thèse. Ensuite, nous exploitons les informations fournies lors de l'étape de caractérisation afin de proposer une méthode de complétion contextualisée, qui complète les valeurs manquantes selon le type aléatoire/non-aléatoire et selon le contexte. La complétion des valeurs manquantes non aléatoires est effectuée par des valeurs spéciales, renfermant intrinsèquement les origines des valeurs manquantes et déterminées grâce à des schémas de caractérisation. Finalement, nous nous intéressons aux techniques d'évaluation des méthodes de complétion et nous proposons une nouvelle technique fondée sur la stabilité d'un clustering entre les données de référence et les données complétées.
|
230 |
Modélisation des déplacements d'animaux dans un espace géographique : analyse et simulation / Modelling animal movements on a geographical space : analyses and simulationJolivet, Laurence 20 May 2014 (has links)
Une des préoccupations de la société est de trouver un compromis entre le développement des territoires et la protection de la faune sauvage. La prise en compte des déplacements des animaux lors de projets d’aménagement nécessite de connaître les comportements des différentes espèces et de définir ce qui a une influence sur leur localisation et sur la sélection de leur lieu de vie. Notre objectif est de pouvoir représenter les déplacements d’animaux sur un espace géographique précisément décrit afin ensuite de simuler et d’évaluer les conséquences des aménagements.Nous avons commencé par analyser l’influence des éléments du paysage sur les déplacements à partir de localisations connues d’animaux comme des traces GPS (suivis menés par l’ELIZ, l’ANSES, l’ONCFS, l’INRA)et de données de description de l’espace notamment la BD TOPO®. Les cas d’étude correspondent à des milieux différents et à trois espèces : renard, chevreuil et cerf. Nous avons pu confirmer le rôle de certains caractères de l’espace selon les cas d’étude. Par exemple les préférences spatiales lors des déplacements des renards en milieu périurbain semblent se porter sur la végétation arborée et des lieux peu occupés par les hommes pendant certaines parties de la journée (parcs, zones d’activités, le long des voies ferrées). Concernant les cervidés en milieu forestier, la pente et le type de peuplement paraissent avoir le plus d’influence sur les déplacements.À l’aide des connaissances extraites par les analyses et de la littérature, nous avons défini et implémenté dans la plateforme GeOxygene un modèle de simulation de déplacements d’animaux. Les trajectoires sont construites par une approche agent reprenant le comportement spatial selon l’espèce et l’influence des éléments du paysage favorables ou faisant obstacle. Nous effectuons une analyse critique de notre modèle puis nous proposons des pistes d’enrichissement à l’aide de la comparaison avec les observations et le retour des écologues. Enfin des scénarios d’aménagement sont testés dans le but de mettre en évidence leur impact et leur efficacité. / Finding compromises between human development and wildlife protection is one concern of society.Taking into account animal movements in planning projects requires some knowledge on species behaviours and on what determines their localizations and their habitat places. Our goal is to be able to represent animal movements on an accurate geographical space in order to simulate and to evaluate the consequences of planning decisions. We first analysed how the features of the landscape influence movements from collected localizations on animals, for example GPS tracks (studies of ELIZ, ANSES, ONCFS, INRA) and from data describing spacesuch as BD TOPO®. The studied cases are about several types of environment and three species: red fox,roe deer and red deer. We found some results that confirm the role played by the spatial features,depending on the studied cases. For instance in a periurban environment, foxes seem to be more inwooded patches and in places with few human activities during some parts of the day (squares, areas with industrial or commercial activities, sides of railways). In a forested environment, deers are more likely to be influenced by slope and forest stands. Thanks to knowledge from data analyses and to literature, we defined a simulation model for animalmovements. We implemented it in the GeOxygene platform. The trajectories are built with an agent approach by taking into account the spatial behaviour of the species and the influence of elements that favour or hinder movements. We proposed a critical view of the modelling choices and some improvements from the comparison with observations and experts advices. Then, scenarios within frastructures are defined so that to identify their impact and their efficiency.
|
Page generated in 0.0451 seconds