• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 778
  • 433
  • 286
  • 2
  • Tagged with
  • 1499
  • 1499
  • 1499
  • 1499
  • 662
  • 623
  • 245
  • 155
  • 152
  • 110
  • 104
  • 101
  • 99
  • 99
  • 94
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Architecture multi-agent pour la gestion d'objets tangibles et virtuels sur Table Interactive

Lebrun, Yoann 08 March 2012 (has links) (PDF)
Les recherches menées par le travail de thèse visent à proposer une nouvelle architecture multi-agent pour la conception d'applications sur de nouvelles plateformes de communication telles que les tables interactives. Les systèmes Multi-Agents sont utilisés depuis de nombreuses années et peuvent répondre aux problématiques de telles plateformes. Dans notre contexte, nous avons défini les interactions et les comportements d'agents hétérogènes (virtuels et tangibles), qui évoluent simultanément sur une même surface interactive.Nous avons défini une typologie des agents, utilisés dans le cadre de plateformes interactives, en fonction d'un ensemble de critères permettant d'analyser les caractéristiques logicielles et technologiques (système de capture, affichage, etc.) employées sur ces nouveaux supports. Nous proposons de modéliser les comportements élémentaires nécessaires à la description du problème (interactions éventuelles de plusieurs utilisateurs, utilisation d'objets, visualisation de l'environnement et des agents simulés, traitement des messageséchangés, etc.), lesquels sont représentés par des rôles joués simultanément par un ou plusieurs agents selon un ensemble de prérequis. La réflexion proposée a conduit à la construction d'une architecture multi-agent, laquelle a été appliquée sur la table interactive TangiSense (intégrant une technologie RFID). Nous illustrons et nous validons notre propos à l'aide d'une application, un simulateur de trafic routier.
92

Gestion des connaissances et externalisation informatique. Apports managériaux et techniques pour l'amélioration du processus de transition : Cas de l'externalisation informatique dans un EPST

Grim-Yefsah, Malika 23 November 2012 (has links) (PDF)
Le travail de recherche de cette thèse traite de la problématique de transfert de connaissances lors du processus de transition d'un projet informatique externalisé dans un EPST. En particulier, Comment transférer les connaissances, constituées des expériences-succès ou échecs passés, routines, assimilées et cumulées pendant la durée d'un projet externalisé par les membres d'une équipe sortante vers une nouvelle équipe entrante d'une manière efficiente ? Nous nous focalisons sur ce processus de transition en raison de son importance pour le succès de l'externalisation informatique, de sa complexité, de sa richesse théorique et le manque d'études dans ce domaine. Nous avons choisi d'approcher cette problématique par le biais de la gestion des connaissances. Dans un premier volet de cette thèse, nous nous sommes appuyées sur le paradigme Goal-Question-Metric proposant une démarche de définition de la qualité pour progresser de notre besoin opérationnel jusqu'à la définition des métriques d'évaluation de la robustesse utilisant des informations issues de l'analyse de réseaux informels sous-jacents aux activités effectuées dans le processus métier. Ces métriques permettent d'évaluer une partie de la qualité d'un processus métier en tenant compte de la connaissance tacite des acteurs du processus de transition. Dans un second volet de cette recherche, nous avons développés une méthode, en nous appuyant sur l'approche de capitalisation sur les connaissances et des mécanismes théoriques de transfert de connaissances, et un outil informatique pour mettre en œuvre ce processus de transfert de connaissances
93

Sélection de variables à partir de données d'expression : signatures moléculaires pour le pronostic du cancer du sein et inférence de réseaux de régulation génique

Haury, Anne-Claire 14 December 2012 (has links) (PDF)
De considérables développements dans le domaine des biotechnologies ont modifié notre approche de l'analyse de l'expression génique. En particulier, les puces à ADN permettent de mesurer l'expression des gènes à l'échelle du génome, dont l'analyse est confiée au statisticien.A partir de ces données dites en grande dimension, nous contribuons, dans cette thèse, à l'étude de deux problèmes biologiques. Nous traitons ces questions comme des problèmes d'apprentissage statistique supervisé et, en particulier, de sélection de variables, où il s'agit d'extraire, parmi toutes les variables - gènes - à disposition, celles qui sont nécessaires et suffisantes pour prédire la réponse à une question donnée.D'une part, nous travaillons à repérer des listes de gènes, connues sous le nom de signatures moléculaires et supposées contenir l'information nécessaire à la prédiction de l'issue du cancer du sein. La prédiction des événements métastatiques est en effet cruciale afin d'évaluer, dès l'apparition de la tumeur primaire, la nécessité d'un traitement par chimio-thérapie adjuvante, connue pour son agressivité. Nous présentons dans cette thèse trois contributions à ce problème. Dans la première, nous proposons une comparaison systématique des méthodes de sélection de variables, en termes de performance prédictive, de stabilité et d'interprétabilité biologique de la solution. Les deux autres contributions portent sur l'application de méthodes dites de parcimonie structurée (graph Lasso et k-support norm) au problème de sélection de signatures. Ces trois travaux discutent également l'impact de l'utilisation de méthodes d'ensemble (bootstrap et ré-échantillonnage).D'autre part, nous nous intéressons au problème d'inférence de réseau génique, consistant à déterminer la structure des interactions entre facteurs de transcription et gènes cibles. Les premiers sont des protéines ayant la faculté de réguler la transcription des gènes cibles, c'est-à-dire de l'activer ou de la réprimer. Ces régulations peuvent être représentées sous la forme d'un graphe dirigé, où les noeuds symbolisent les gènes et les arêtes leurs interactions. Nous proposons un nouvel algorithme, TIGRESS, classé troisième lors du challenge d'inférence de réseaux DREAM5 en 2010. Basé sur l'algorithme LARS couplé à une stratégie de ré-échantillonnage, TIGRESS traite chaque gène cible séparément, en sélectionnant ses régulateurs, puis assemble ces sous-problèmes pour prédire l'ensemble du réseau.Enfin, nous consacrons le dernier chapitre à une discussion ayant pour objectif de replacer les travaux de cette thèse dans un contexte bibliographique et épistémologique plus large.
94

Exploring the neural codes using parallel hardware

Baladron Pezoa, Javier 07 June 2013 (has links) (PDF)
The aim of this thesis is to understand the dynamics of large interconnected populations of neurons. The method we use to reach this objective is a mixture of mesoscopic modeling and high performance computing. The rst allows us to reduce the complexity of the network and the second to perform large scale simulations. In the rst part of this thesis a new mean eld approach for conductance based neurons is used to study numerically the eects of noise on extremely large ensembles of neurons. Also, the same approach is used to create a model of one hypercolumn from the primary visual cortex where the basic computational units are large populations of neurons instead of simple cells. All of these simulations are done by solving a set of partial dierential equations that describe the evolution of the probability density function of the network. In the second part of this thesis a numerical study of two neural eld models of the primary visual cortex is presented. The main focus in both cases is to determine how edge selection and continuation can be computed in the primary visual cortex. The dierence between the two models is in how they represent the orientation preference of neurons, in one this is a feature of the equations and the connectivity depends on it, while in the other there is an underlying map which denes an input function. All the simulations are performed on a Graphic Processing Unit cluster. Thethesis proposes a set of techniques to simulate the models fast enough on this kind of hardware. The speedup obtained is equivalent to that of a huge standard cluster.
95

Un système multi-agent adaptatif pour la construction d'ontologies à partir de textes

Ottens, Kévin 02 October 2007 (has links) (PDF)
Le Web sémantique désigne un ensemble de technologies visant à rendre le contenu des ressources du World Wide Web accessible et utilisable par les programmes et agents logiciels. Ainsi, il doit faciliter l'accès à l'information pour les utilisateurs. Or, un des enjeux du succès du Web sémantique est la disponibilité d'ontologies qui sont des représentations de connaissances formalisées et exploitables par des systèmes informatiques pour leur communication. Malheureusement leur construction est généralement longue et coûteuse, et leur maintenance soulève des problèmes jusqu'ici sous-estimés. S'appuyer sur des textes pour la conception d'ontologies est vu comme une issue possible à leur coût, malgré les difficultés inhérentes à l'exploration d'analyses textuelles.<br /><br />Parce que l'ontologie doit être maintenue, et parce qu'elle peut-être vue comme un système complexe constitué de concepts, nous proposons d'utiliser les systèmes multi-agents adaptatifs pour semi-automatiser le processus de construction des ontologies à partir de texte. L'état stable de ces systèmes résulte des interactions coopératives entre les agents logiciels qui les constituent. Dans notre cas, les agents utilisent des algorithmes distribués d'analyse statistique pour trouver la structure la plus satisfaisante d'après une analyse syntaxique et distributionnelle des textes. L'utilisateur peut alors valider, critiquer ou modifier des parties de cette structure d'agents, qui est la base de l'ontologie en devenir, pour la rendre conforme à ses objectifs et à sa vision du domaine modélisé. En retour, les agents se réorganisent pour satisfaire les nouvelles contraintes introduites. Les ontologies habituellement fixées deviennent ici dynamiques, leur conception devient « vivante ». Ce sont les principes sous-jacents de notre système nommé Dynamo.<br /><br />La pertinence de cette approche a été mise à l'épreuve par des expérimentations visant à évaluer la complexité algorithmique de notre système, et par son utilisation en conditions réelles. Dans ce mémoire, nous présentons et analysons les résultats obtenus.
96

Un cadre quantitatif pour la Ludique

Maurel, François 26 November 2004 (has links) (PDF)
La ludique, introduite par Jean-Yves Girard, est un modèle de la logique linéaire sans exponentielles. En vue de la modélisation des exponentielles, cette thèse propose deux extensions successives de la ludique. La première extension étend la ludique en un modèle probabiliste original conservant la plupart des théorèmes du modèle initial. La seconde extension reprend ce modèle probabiliste et utilise des pointeurs, introduits dans les jeux de Hyland et Ong, ce qui permet de considérer les répétitions et donc de modéliser les exponentielles.<br /><br />Un résultat de complétude est montré pour la ludique probabiliste vis-à-vis de la ludique et de la logique MALL2. La ludique exponentielle proposée vérifie les théorèmes principaux de la ludique : les théorèmes analytiques. En particulier, ce modèle montre une interprétation de la logique linéaire avec des répétitions gardant une topologie séparée. De plus, les coefficients introduits apporte à la ludique une "plus grande séparation" que dans le modèle d'origine.
97

Egalisation aveugle de systèmes multi-utilisateurs

Rota, Ludwig 15 December 2004 (has links) (PDF)
Cette thèse présente trois algorithmes de séparation de sources. Le premier, l'algorithme PAJOD (Partial Approximative Joint Diagonalization), considère que la matrice de la réponse impulsionnelle du canal est une matrice para-unitaire. Cette hypothèse est vérifiée lorsque les observations ont été préalablement blanchies. Le problème peut être alors réduit en une diagonalisation partielle et conjointe (donc approximative) d'un ensemble de matrices contenant les multi-corrélations cumulantes des observations. Cependant, dans un souci de simplification, l'algorithme PAJOD retourne une matrice semi-unitaire et non para-unitaire. Cela nous mène au deuxième algorithme qui est l'algorithme PAFA (PAra-unitary FActorisation). Cet algorithme se base sur la même hypothèse de blanchiment des observations mais, contrairement à PAJOD, utilise une factorisation exacte des matrices para-unitaires afin d'obtenir la matrice réponse impulsionnelle de l'égaliseur sous forme para-unitaire. Tout comme PAJOD, le critère utilisé pour cette factorisation para-unitaire utilise les multi-corrélations cumulantes des observations. Le dernier algorithme APF (Alphabet Polynomial Fitting) est différent des deux premiers dans le sens où il ne considère pas le canal comme para-unitaire et a par ailleurs connaissance des modulations employées. La connaissance des modulations permet entre autres de pouvoir extraire des signaux de modulations connues à partir d'un mélange instantané ou convolutif. En effet, si tous les signaux émis utilisent des modulations différentes, il est ainsi possible d'extraire un à un les signaux. Pour cela, l'algorithme effectue une extraction par déflation régie par la maximisation d'un critère de contraste adapté à chaque modulation.
98

Conception et adaptation de services techniques pour l'informatique ubiquitaire et nomade

Lecomte, Sylvain 06 December 2005 (has links) (PDF)
Depuis la fin des années 1990, le développement des terminaux nomades et des réseaux sans fil s'est considérablement accéléré. Cela a provoqué l'apparition de nouvelles applications, très largement réparties, et offrant de nouveaux services, aussi bien aux usagers (applications de commerce électronique, télévision interactive, applications de proximité), qu'aux entreprises (développement du commerce B2B).<br /><br /> Avec l'apparition de ces nouvelles applications, les services techniques, qui prennent en charge un certain nombre de contraintes systèmes, ont également dû évoluer. Nos travaux ont principalement porté sur l'étude de mécanismes permettant de concevoir des services techniques adaptés à ces nouvelles applications. Cela a été réalisé en trois phases :<br />− Dans un premier temps, nous avons étudié la possibilité d'utiliser le modèle de programmation par composants, pour réaliser un service de gestion de transactions distribuées offrant la possibilité d'utiliser le modèle de transactions emboîtées ouvertes (ce modèle transactionnel étant très intéressant dans le cadre des applications de commerce B2B).<br />− Puis, nous avons généralisé le mécanisme de réalisation des services techniques en utilisant le modèle à composants, de manière à pouvoir facilement faire évoluer ces services aux travers de différentes "personnalités". Dans le cadre de ce travail, nous avons également proposé une architecture permettant de choisir la bonne personnalité du service technique, en fonction des besoins applicatifs, et des contraintes de l'environnement d'exécution.<br />− Enfin, nous avons proposé un service de requêtes dépendantes de la localisation de l'utilisateur, pour applications de proximité. Ce service, utilisant une localisation approchée d'un utilisateur, propose de retrouver des informations, dans un environnement dynamique formé de plusieurs terminaux nomades, capables de capacité de communication.
99

Distributed cost-optimal planning

Jezequel, Loïg 13 November 2012 (has links) (PDF)
Automated planning is a field of artificial intelligence that aims at proposing methods to chose and order sets of actions with the objective of reaching a given goal. A sequence of actions solving a planning problem is usually called a plan. In many cases, one does not only have to find a plan but an optimal one. This notion of optimality can be defined by assigning costs to actions. An optimal plan is then a plan minimizing the sum of the costs of its actions. Planning problems are standardly solved using algorithms such as A* that search for minimum cost paths in graphs. In this thesis we focus on a particular approach to planning called factored planning or modular planning. The idea is to consider a decomposition of a planning problem into almost independent sub-problems (or components). One then searches for plans into each component and try to assemble these local plans into a global plan for the original planning problem. The main interest of this approach is that, for some classes of planning problems, the components considered can be planning problems much simpler to solve than the original one. First, we present a study of the use of some message passing algorithms for factored planning. In this case the components of a problem are represented by weighted automata. This allows to handle all plans of a sub-problems, and permits to perform factored cost-optimal planning. Achieving cost-optimality of plans was not possible with previous factored planning methods. This approach is then extended by using approximate resolution techniques ("turbo" algorithms) and by proposing another representation of components for handling actions which read-only in some components. Then we describe another approach to factored planning: a distributed version of the famous A* algorithm. Each component is managed by an agent which is responsible for finding a local plan in it. For that, she uses information about her own component, but also information about the rest of the problem, transmitted by the other agents. The main difference between this approach and the previous one is that it is not only modular but also distributed.
100

Nash equilibria in concurrent games : application to timed games

Brenguier, Romain 29 November 2012 (has links) (PDF)
This work focuses on the study of concurrent and timed games. These two classes of games have been useful models in controller synthesis. In situations where several agents interact, the notion of winning strategies used so far is not adapted and it is necessary to adopt concepts from game theory. The main concept considered in this area is that of Nash equilibrium. For concurrent games, we propose a transformation which draw a parallel between equilibria and winning strategies. Many works have focused on the computation of winning strategies and we can take advantage of the available algorithms. To compute equilibria in timed games we show that it is possible to reduce them to concurrent games. We propose algorithms for the computation of equilibria, first with classical objectives. Then, we propose a more general framework, in which more quantitative preferences can be described. We also study the theoretical complexity of the associated decision problems. Finally, we present a tool that implements one of the algorithms that we developed.

Page generated in 0.0712 seconds