Spelling suggestions: "subject:"[INFO:INFO_OH] informatique/autre"" "subject:"[INFO:INFO_OH] informatique/outre""
181 |
Semantic Decision Support for Information Fusion ApplicationsBellenger, Amandine 03 June 2013 (has links) (PDF)
This thesis is part of the knowledge representation domain and modeling of uncertainty in a context of information fusion. The main idea is to use semantic tools and more specifically ontologies, not only to represent the general domain knowledge and observations, but also to represent the uncertainty that sources may introduce in their own observations. We propose to represent these uncertainties and semantic imprecision trough a metaontology (called DS-Ontology) based on the theory of belief functions. The contribution of this work focuses first on the definition of semantic inclusion and intersection operators for ontologies and on which relies the implementation of the theory of belief functions, and secondly on the development of a tool called FusionLab for merging semantic information within ontologies from the previous theorical development. These works have been applied within a European maritime surveillance project.
|
182 |
Modélisation du langage à l'aide de pénalités structuréesNelakanti, Anil Kumar 11 February 2014 (has links) (PDF)
Modeling natural language is among fundamental challenges of artificial intelligence and the design of interactive machines, with applications spanning across various domains, such as dialogue systems, text generation and machine translation. We propose a discriminatively trained log-linear model to learn the distribution of words following a given context. Due to data sparsity, it is necessary to appropriately regularize the model using a penalty term. We design a penalty term that properly encodes the structure of the feature space to avoid overfitting and improve generalization while appropriately capturing long range dependencies. Some nice properties of specific structured penalties can be used to reduce the number of parameters required to encode the model. The outcome is an efficient model that suitably captures long dependencies in language without a significant increase in time or space requirements. In a log-linear model, both training and testing become increasingly expensive with growing number of classes. The number of classes in a language model is the size of the vocabulary which is typically very large. A common trick is to cluster classes and apply the model in two-steps; the first step picks the most probable cluster and the second picks the most probable word from the chosen cluster. This idea can be generalized to a hierarchy of larger depth with multiple levels of clustering. However, the performance of the resulting hierarchical classifier depends on the suitability of the clustering to the problem. We study different strategies to build the hierarchy of categories from their observations.
|
183 |
Information Diffusion in Complex Networks : Measurement-Based Analysis Applied to ModellingFaria Bernardes, Daniel 21 March 2014 (has links) (PDF)
Understanding information diffusion on complex networks is a key issue from a theoretical and applied perspective. Epidemiology-inspired SIR models have been proposed to model information diffusion. Recent papers have analyzed this question from a data-driven perspective. We complement these findings investigating if epidemic models calibrate with a systematic procedure are capable of reproducing key spreading cascade properties. We first identify a large-scale, rich dataset from which we can reconstruct the diffusion trail and the underlying network. Secondly, we examine the simple SIR model as a baseline model and conclude that it was unable to generate structurally realistic spreading cascades. We found the same result examining model extensions to which take into account heterogeneities observed in the data. In contrast, other models which take into account time patterns available in the data generate qualitatively more similar cascades. Although one key property was not reproduced in any model, this result highlights the importance of taking time patterns into account. We have also analyzed the impact of the underlying network structure on the models examined. In our data the observed cascades were constrained in time, so we could not rely on the theoretical results relating the asymptotic behavior of the epidemic and network topological features. Performing simulations we assessed the impact of these common topological properties in time-bounded epidemic and identified that the distribution of neighbors of seed nodes had the most impact among the investigated properties in our context. We conclude discussing identifying perspectives opened by this work.
|
184 |
Procédures de décision génériques pour des théories axiomatiques du premier ordreDross, Claire 01 April 2014 (has links) (PDF)
Les solveurs SMT sont des outils dédiés à la vérification d'un ensemble de formules mathématiques, en général sans quantificateurs, utilisant un certain nombre de théories prédéfinies, telles que la congruence, l'arithmétique linéaire sur les entiers, les rationnels ou les réels, les tableaux de bits ou les tableaux. Ajouter une nouvelle théorie à un solveur SMT nécessite en général une connaissance assez profonde du fonctionnement interne du solveur, et, de ce fait, ne peut en général être exécutée que par ses développeurs. Pour de nombreuses théories, il est également possible de fournir une axiomatisation finie en logique du premier ordre. Toutefois, si les solveurs SMT sont généralement complets et efficaces sur des problèmes sans quantificateurs, ils deviennent imprévisibles en logique du premier ordre. Par conséquent, cette approche ne peut pas être utilisée pour fournir une procédure de décision pour ces théories. Dans cette thèse, nous proposons un cadre d'application permettant de résoudre ce problème en utilisant des déclencheurs. Les déclencheurs sont des annotations permettant de spécifier la forme des termes avec lesquels un quantificateur doit être instancié pour obtenir des instances utiles pour la preuve. Ces annotations sont utilisées par la majorité des solveurs SMT supportant les quantificateurs et font partie du format SMT-LIB v2. Dans notre cadre d'application, l'utilisateur fournit une axiomatisation en logique du premier ordre de sa théorie, ainsi qu'une démonstration de sa correction, de sa complétude et de sa terminaison, et obtient en retour un solveur correct, complet et qui termine pour sa théorie. Dans cette thèse, nous décrivons comment un solveur SMT peut être étendu à notre cadre nous basant sur l'algorithme DPLL modulo théories, utilisé traditionnellement pour modéliser ls solveurs SMT. Nous prouvons également que notre extension a bien les propriétés attendues. L'effort à fournir pour implémenter cette extension dans un solveur SMT existant ne doit être effectué qu'une fois et le mécanisme peut ensuite être utilisé sur de multiples théories axiomatisées. De plus, nous pensons que, en général, cette implémentation n'est pas plus compliquée que l'ajout d'une unique théorie au solveur. Nous avons fait ce travail pour le solveur SMT Alt-Ergo, nous en présentons certains détails dans la thèse. Pour valider l'utilisabilité de notre cadre d'application, nous avons prouvé la complétude et la terminaison de plusieurs axiomatizations, dont une pour les listes impératives doublement chaînée, une pour les ensembles applicatifs et une pour les vecteurs de Ada. Nous avons ensuite utilisé notre implémentation dans Alt-Ergo pour discuter de l'efficacité de notre système dans différents cas.
|
185 |
Apprentissage de grammaires catégorielles : transducteurs d'arbres et clustering pour induction de grammaires catégoriellesSandillon Rezer, Noémie Fleur 09 December 2013 (has links) (PDF)
De nos jours, il n'est pas rare d'utiliser des logiciels capables d'avoir une conversation, d'interagir avec nous (systèmes questions/réponses pour les SAV, gestion d'interface ou simplement Intelligence Artificielle - IA - de discussion). Ceux-ci doivent comprendre le contexte ou réagir par mot-clefs, mais générer ensuite des réponses cohérentes, aussi bien au niveau du sens de la phrase (sémantique) que de la forme (syntaxe). Si les premières IA se contentaient de phrases toutes faites et réagissaient en fonction de mots-clefs, le processus s'est complexifié avec le temps. Pour améliorer celui-ci, il faut comprendre et étudier la construction des phrases. Nous nous focalisons sur la syntaxe et sa modélisation avec des grammaires catégorielles. L'idée est de pouvoir aussi bien générer des squelettes de phrases syntaxiquement correctes que vérifier l'appartenance d'une phrase à un langage, ici le français (il manque l'aspect sémantique). On note que les grammaires AB peuvent, à l'exception de certains phénomènes comme la quantification et l'extraction, servir de base pour la sémantique en extrayant des λ-termes. Nous couvrons aussi bien l'aspect d'extraction de grammaire à partir de corpus arborés que l'analyse de phrases. Pour ce faire, nous présentons deux méthodes d'extraction et une méthode d'analyse de phrases permettant de tester nos grammaires. La première méthode consiste en la création d'un transducteur d'arbres généralisé, qui transforme les arbres syntaxiques en arbres de dérivation d'une grammaire AB. Appliqué sur les corpus français que nous avons à notre disposition, il permet d'avoir une grammaire assez complète de la langue française, ainsi qu'un vaste lexique. Le transducteur, même s'il s'éloigne peu de la définition usuelle d'un transducteur descendant, a pour particularité d'offrir une nouvelle méthode d'écriture des règles de transduction, permettant une définition compacte de celles-ci. Nous transformons actuellement 92,5% des corpus en arbres de dérivation. Pour notre seconde méthode, nous utilisons un algorithme d'unification en guidant celui-ci avec une étape préliminaire de clustering, qui rassemble les mots en fonction de leur contexte dans la phrase. La comparaison avec les arbres extraits du transducteur donne des résultats encourageants avec 91,3% de similarité. Enfin, nous mettons en place une version probabiliste de l'algorithme CYK pour tester l'efficacité de nos grammaires en analyse de phrases. La couverture obtenue est entre 84,6% et 92,6%, en fonction de l'ensemble de phrases pris en entrée. Les probabilités, appliquées aussi bien sur le type des mots lorsque ceux-ci en ont plusieurs que sur les règles, permettent de sélectionner uniquement le "meilleur" arbre de dérivation.Tous nos logiciels sont disponibles au téléchargement sous licence GNU GPL.
|
186 |
Tension interne à la cohésion informationnelleChaumette, Yves 07 November 2013 (has links) (PDF)
L'information décrit et met en forme. Un projet assemble de multiples éléments, ce qui pose la question de sa cohésion. Comment des parties tiennent-elles ensemble ? Des liens en suspens, introduits par Husserl, peuvent être modélisés par des spires. Un anneau de spires, qui est une unité composée, rend compte de l'assemblage de parties. Le mouvement et la négation conduisent à quatre mondes logiques et la genèse des nombres s'accompagne d'une genèse du trait. Ainsi la cohésion en construction se modélise par un triple anneau de spires, correspondant à trois interfaces entre les mondes : 1) une interface avec des composants en interaction, ce qui construit la forme, 2) une interface limite de l'amortissement des spires, qui forme l'horizon, 3) une interface avec la pulsation au centre. Ce triple anneau, provenant d'une tension triple, s'applique à une forme en three degrés : spatial, temporel et réflexif. Dans l'espace, la forme se trouve à des stades divers d'intégration de composants. Dans le temps, des cycles s'intègrent en un plus grand cycle, une démarche générique est modélisée avec des blocs élémentaires ; cette modélisation a été testée. Au niveau réflexif, le lecteur s'intègre dans la tension et celle-ci, dans un projet, interroge sa raison d'être ; la tension triple provient d'une arborescence de notions fondamentales, qui culminent dans l'être, l'unité et le devenir, base de la cohésion informationnelle.
|
187 |
Méthodes séquentielles de Monte Carlo pour le suivi d'objets multiples hétérogènes en données brutes de télémétrie laserVanpoperinghe, Élodie 27 January 2014 (has links) (PDF)
Dans cette thèse, nous nous intéressons à la résolution de problèmes de détection et de suivi d'objets mobiles multiples sur route, à partir de données télémétrique de type lidar à balayage. Les travaux dans le domaine de la détection et de suivi d'obstacles à partir de données lidar mettent généralement en oeure trois principales étapes : la détection, l'association de mesures et le filtrage. Cependant, il est connu que cette chaîne de traitement peut engendrer des pertes d'informations pouvant être à l'origine de cas de non détection ou de fausse alarme. Par ailleurs, les non-linéarités liées à la transformation polaire-cartésien des mesures lidar au cours de l'étape de détection ne permettent plus de préserver la statistique des bruits de mesure après traitement. Une autre difficulté, compte tenu de la nature spatialement distribuée des mesures lidar liées à un objet, est de pouvoir associer chaque impact à un unique véhicule tout en prenant en compte la variabilité temporelle du nombre d'impacts à lui associer. Seule une approche exploitant les données brutes permet de garantir l'optimalité de la chaîne de traitement. Cette thèse explore une nouvelle approche conjointe de détection et de suivi exploitant les données brutes du lidar, éliminant toute étape de pré-détection. L'approche proposé repose, d'une part, sur l'usage des méthodes de Monte Carlo séquentielles en raison de leur aptitude à traiter des modèles fortement non linéaire, , et, d'autre part, sur une modélisation des ojets compatible avec la perception lidar. La méthode est validée avec des données du simulateur SIVIC dans différentes situations expérimentales pour la détection et le suivi d'objets hétérogènes dans un cas lidar monoplan puis multiplan.
|
188 |
Une approche d'aide multicritère à la décision pour l'évaluation du confort dans les trains : construction d'un modèle d'évaluationMammeri, Mohamed 17 September 2013 (has links) (PDF)
Les travaux de recherche menés dans cette thèse s'inscrivent dans deux champs disciplinaires que sont l'évaluation du confort et l'aide multicritère à la décision.L'objectif de la thèse est de construire un modèle pour évaluer des trains sur le point de vue du confort tel qu'il est perçu par les voyageurs. L'approche utilisée pour cela repose sur trois étapes principales de construction d'un modèle d'aide multicritère à la décision. La première consiste à définir et à formaliser les critères de confort du problème. Dans la deuxième étape, il s'agit de construire les échelles afin de pouvoir évaluer les trains sur chaque critère de confort considéré.La troisième étape consiste à agréger les critères de confort en utilisant des méthodes d'agrégation multicritère. Cette étape nécessite l'élicitation des préférences des décideurs afin de mettre en oeuvre les méthodes d'agrégation.Notre contribution est de formaliser une approche pour la construction d'un modèle d'évaluation du confort dans les trains. Cette approche peut être appliquée à d'autres problématiques que l'évaluation du confort. Elle présente deux particularités principales. La première est d'intégrer dans la construction du modèle des facteurs importants traduisant la perception du confort. Nous avons choisi pour cela un modèle hiérarchique comportant plusieurs niveaux. La deuxième particularité de l'approche est d'utiliser des méthodes d'agrégation pouvant être différentes d'un noeud à un autre du modèle. Elle présente également d'autres aspects plus spécifiques, notamment lors de l'élicitation des préférences où nous construisons des exemples d'apprentissage informatifs pour accélérer le processus d'élicitation
|
189 |
Interaction entre algèbre linéaire et analyse en formalisation des mathématiquesCano, Guillaume 04 April 2014 (has links) (PDF)
Dans cette thèse nous présentons la formalisation de trois résultats principaux que sont la forme normale de Jordan d'une matrice, le théorème de Bolzano-Weierstraß et le théorème de Perron-Frobenius. Pour la formalisation de la forme normale de Jordan nous introduisons différents concepts d'algèbre linéaire tel que les matrices diagonales par blocs, les matrices compagnes, les facteurs invariants, ... Ensuite nous définissons et développons une théorie sur les espaces topologiques et métriques pour la formalisation du théorème de Bolzano-Weierstraß. La formalisation du théorème de Perron-Frobenius n'est pas terminée. La preuve de ce théorème utilise des résultats d'algèbre linéaire, mais aussi de topologie. Nous montrerons comment les précédents résultats seront réutilisés.
|
190 |
Problèmes de tournées de véhicules et application industrielle pour la réduction de l'empreinte écologiqueGuibadj, Rym Nesrine 16 April 2013 (has links) (PDF)
Dans cette thèse, nous nous sommes intéressés à la résolution approchée de problèmes de tournées de véhicules. Nous avons exploité des travaux menés sur les graphes d'intervalles et des propriétés de dominance relatives aux tournées saturées pour traiter les problèmes de tournées sélectives plus efficacement. Des approches basées sur un algorithme d'optimisation par essaim particulaire et un algorithme mémétique ont été proposées. Les métaheuristiques développées font appel à un ensemble de techniques particulièrement efficaces telles que le découpage optimal, les opérateurs de croisement génétiques ainsi que des méthodes de recherches locales. Nous nous sommes intéressés également aux problèmes de tournées classiques avec fenêtres de temps. Différents prétraitements ont été introduits pour obtenir des bornes inférieures sur le nombre de véhicules. Ces prétraitements s'inspirent de méthodes issues de modèles de graphes, de problème d'ordonnancement et de problèmes de bin packing avec conflits. Nous avons montré également l'utilité des méthodes développées dans un contexte industriel à travers la réalisation d'un portail de services mobilité.
|
Page generated in 0.0598 seconds