• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 60
  • 54
  • 36
  • 1
  • Tagged with
  • 151
  • 151
  • 151
  • 151
  • 151
  • 98
  • 94
  • 32
  • 30
  • 29
  • 27
  • 26
  • 20
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

La gestion dynamique de la qualité de service dans les réseaux IP mobiles

Badr, Benmammar 12 May 2006 (has links) (PDF)
Notre contribution dans le cadre de cette thèse est la proposition d'une nouvelle procédure de réservation de ressources à l'avance dans les réseaux IP mobiles et sans fil. Cette procédure fait appel à un nouvel objet nommé MSpec (Mobility Specification) qui représente les futures localisations du terminal mobile. Nous avons proposé un format pour cet objet ainsi qu'un profil de mobilité pour les utilisateurs mobiles qui inclut l'objet MSpec. Ce profil de mobilité découle de l'analyse du comportement de l'utilisateur durant une phase d'observation. Nous avons proposé, également, une extension de ce profil afin de pouvoir gérer le handover vertical (passage d'une technologie d'accès à une autre). Durant la phase d'observation, l'utilisateur est nouveau et le système ne peut donc pas réserver de ressources à l'avance car il ne connaît pas le profil de mobilité de l'utilisateur, et par conséquent le contenu de l'objet MSpec. Sans réservation de ressources à l'avance, nous utilisons la technologie Agent afin d'améliorer la qualité de service demandée par l'utilisateur mobile. Le rôle des agents, dans cette phase, est d'adapter le handover horizontal (passage d'une cellule à une autre en utilisant la même technologie d'accès) et le handover vertical aux besoins de qualité de service de l'utilisateur.
92

Modèle probabiliste de comportement et algorithme d'apprentissage par imitation pour les personnages crédibles dans les jeux vidéo

Tencé, Fabien 10 November 2011 (has links) (PDF)
Ce manuscrit cherche à concevoir un modèle de comportement pour le contrôle de personnages crédibles dans les jeux vidéo. Nous définissons un personnage crédible comme un programme informatique capable de contrôler une représentation virtuelle de façon à ce que des observateurs dans l'environnement virtuel pensent que la représentation est contrôlée par un humain. Nous établissons 10 critères plus précis pour établir notre thèse. Pour répondre à ces 10 critères nous avons étudié des modèles développés à la fois dans le domaine académique et de l'industrie. L'évolution étant un des critères, nous avons aussi étudié les algorithmes d'apprentissages existants, notamment ceux basés sur l'imitation étant le mieux adaptés à la crédibilité. De ces études nous avons conclu que le modèle de Le Hy était une excellente base pour de futurs développements. Nous utilisons l'approche de Le Hy mais nous avons effectué des choix différents en vue d'une meilleur crédibilité. Nous proposons un raffinement sémantique et un mécanisme d'attention pour réduire le nombre de paramètres dans le modèle et améliorer le comportement. Un algorithme est ajouté pour permettre au personnage de s'orienter dans l'environnement et un l'algorithme d'apprentissage des paramètres du modèles a été repensé. Ces propositions permettent au modèle d'apprendre rapidement des associations stimuli-actions qui ressemblent à des comportement humains. Cependant de mauvaise associations sont aussi faites rendant le comportement non crédible. Selon nos mesures, notre modèle donne de meilleurs résultats en terme de crédibilité que le modèle de Le Hy, mais des améliorations restent encore à faire pour atteindre notre objectif.
93

Diagnostic et surveillance des processus complexes par réseaux bayésiens

Verron, Sylvain 13 December 2007 (has links) (PDF)
Cette thèse porte sur la surveillance (détection et diagnostic) des procédés multivariés par réseaux bayésiens. Ceci permet l'unification dans le même outil, un réseau bayésien, de plusieurs méthodes dédiées à la surveillance des procédés, telles que les cartes de contrôles multivariées, l'analyse discriminante ou bien la méthode MYT. Le premier chapitre expose les différents points clés de la surveillance des procédés, en étudiant les diverses approches permettant de réaliser celle-ci. Des méthodes de surveillance supervisées et non-supervisées sont présentées et une étude de différents classifieurs pour la surveillance est effectuée. Le choix d'un classifieur se porte alors sur les réseaux bayésiens. Le second chapitre est l'objet d'une présentation plus approfondie des réseaux bayésiens et des extensions possibles et intéressantes de ce genre d'outil dans le contexte de la surveillance des procédés. Puis, un état de l'art des méthodes de surveillance ou de diagnostic basées sur les réseaux bayésiens est étudié. Le troisième chapitre expose les contributions apportées au domaine de la surveillance des procédés par réseaux bayésiens. Les contributions apportées se répartissent en trois parties : détection, diagnostic supervisé et diagnostic non-supervisé. En s'appuyant sur ces contributions, la structure complète d'un réseau bayésien dédié à la surveillance des procédés est proposée. Le dernier chapitre présente une application de la méthode proposée sur un exemple classique : le procédé Tennessee Eastman. Les performances du réseau en terme de détection et de diagnostic sont évaluées. Finalement, les conclusions et perspectives de l'approche proposée sont émises.
94

Apprentissage spatial de corrélations multimodales par des mécanismes d'inspiration corticale

Lefort, Mathieu 04 July 2012 (has links) (PDF)
Cette thèse traite de la problématique de l'unification de différents flux d'informations modales qui peuvent provenir des senseurs d'un agent. Cette unification, inspirée des expériences psychologiques comme l'effet ventriloque, s'appuie sur la détection de corrélations, définies comme des motifs spatiaux qui apparaissent régulièrement dans les flux d'entrée. L'apprentissage de l'espace des corrélations du flux d'entrée échantillonne cet espace et généralise les échantillons appris. Cette thèse propose des principes fonctionnels pour le traitement multimodal de l'information qui ont aboutit à l'architecture connexionniste, générique, modulaire et cortico-inspirée SOMMA (Self-Organizing Maps for Multimodal Association). Dans ce modèle, le traitement de chaque modalité s'effectue au sein d'une carte corticale. L'unification multimodale de l'information est obtenue par la mise en relation réciproque de ces cartes. L'échantillonnage et la généralisation des corrélations reposent sur une auto-organisation contrainte des cartes. Ce modèle est caractérisé par un apprentissage progressif de ces propriétés fonctionnelles: les propriétés monomodales amorcent l'émergence des propriétés multimodales et, dans le même temps, l'apprentissage de certaines corrélations par chaque carte est un préalable à l'auto-organisation de ces cartes. Par ailleurs, l'utilisation d'une architecture connexionniste et d'un apprentissage continu et non supervisé fournit au modèle des propriétés de robustesse et d'adaptabilité qui sont généralement absentes des approches informatiques classiques.
95

Gestion des dépendances et des interactions entre Ontologies et Règles Métier

Chniti, Amina 20 February 2013 (has links) (PDF)
Vu la rapidité de l'évolution des connaissances des domaines, la maintenance des systèmes d'information est devenue de plus en plus difficile à gérer. Afin d'assurer une flexibilité de ces systèmes, nous proposons une approche qui permet de représenter les connaissances des domaines dans des modèles de représentation des connaissances plutôt que de les coder, dans un langage de programmation informatique, dans l'application du domaine. Ceci assurerait une meilleure flexibilité des systèmes d'information, faciliterait leur maintenance et permettrait aux experts métier de gérer eux même l'évolution des connaissances de leur domaine. Pour cela, nous proposons une approche qui permet d'intégrer des ontolo- gies et des règles métier. Les ontologies permettent de modéliser les connais- sances d'un domaine. Les règles permettent aux experts métier de définir et d'automatiser, dans un langage naturel contrôlé, des décisions du métier en se fondant sur les connaissances représentées dans l'ontologie. Ainsi, les règles dépendent des entités modélisées dans l'ontologie. Vu cette dépendance, il est nécessaire d'étudier l'impact de l'évolution des ontologies sur les règles. Pour cela, nous proposons l'approche MDR (Modéliser - Détecter - Réparer) qui permet de modéliser des changements d'ontologies, de détecter les problèmes de cohérence qu'ils peuvent causer sur les règles métier et de proposer des solutions pour réparer ces problèmes. L'approche proposée est une approche orientée experts métier et est fondée sur les systèmes de gestion des règles métier.
96

Gestion des dépendances et des interactions entre Ontologies et Règles Métier

Chniti, Amina 20 February 2013 (has links) (PDF)
Vu la rapidité de l'évolution des connaissances des domaines, la maintenance des systèmes d'information est devenue de plus en plus difficile à gérer. Afin d'assurer une flexibilité de ces systèmes, nous proposons une approche qui permet de représenter les connaissances des domaines dans des modèles de représentation des connaissances plutôt que de les coder, dans un langage de programmation informatique, dans l'application du domaine. Ceci assurerait une meilleure flexibilité des systèmes d'information, faciliterait leur maintenance et permettrait aux experts métier de gérer eux même l'évolution des connaissances de leur domaine. Pour cela, nous proposons une approche qui permet d'intégrer des ontolo- gies et des règles métier. Les ontologies permettent de modéliser les connais- sances d'un domaine. Les règles permettent aux experts métier de définir et d'automatiser, dans un langage naturel contrôlé, des décisions du métier en se fondant sur les connaissances représentées dans l'ontologie. Ainsi, les règles dépendent des entités modélisées dans l'ontologie. Vu cette dépendance, il est nécessaire d'étudier l'impact de l'évolution des ontologies sur les règles. Pour cela, nous proposons l'approche MDR (Modéliser - Détecter - Réparer) qui permet de modéliser des changements d'ontologies, de détecter les problèmes de cohérence qu'ils peuvent causer sur les règles métier et de proposer des solutions pour réparer ces problèmes. L'approche proposée est une approche orientée experts métier et est fondée sur les systèmes de gestion des règles métier.
97

Les représentations par les frontières: quelques constructions ; difficultés rencontrées

Michelucci, Dominique 05 December 1986 (has links) (PDF)
Cette thèse traite de la construction de quelques représentations par les frontières, ou BREP (pour "Boundary REPresentation"), et des difficultés rencontrées. Aussi cette introduction rappelle-t-elle très brièvement ce que sont les BREP; on se reportera à [PERO 87] pour un exposé plus détaillé et pour d'autres références. La synthèse d'images et la CAO utilisent diverses modélisations des solides pour les visualiser et calculer leurs propriétés géométriques et mécaniques : masse, aire de l'enveloppe, centre de gravité, axes principaux d'inertie, etc. Plusieurs modèles informatiques des solides ont été proposés :
98

An agent-based approach for distributed resource allocations

Nongaillard, Antoine 04 December 2009 (has links) (PDF)
Resource allocation problems have been widely studied according to various scenarios in literature. In such problems, a set of resources must be allocated to a set of agents, according to their own preferences. Self-organization issues in telecommunication, scheduling problems or supply chain management problems can be modeled using resource allocation problems. Such problems are usually solved by means of centralized techniques, where an omniscient entity determines how to optimally allocate resources. However, these solving methods are not well-adapted for applications where privacy is required. Moreover, several assumptions made are not always plausible, which may prevent their use in practice, especially in the context of agent societies. For instance, dynamic applications require adaptive solving processes, which can handle the evolution of initial data. Such techniques never consider restricted communication possibilities whereas many applications are based on them. For instance, in peer-to-peer networks, a peer can only communicate with a small subset of the systems. In this thesis, we focus on distributed methods to solve resource allocation problems. Initial allocation evolves step by step thanks to local agent negotiations. We seek to provide agent behaviors leading negotiation processes to socially optimal allocations. In this work, resulting resource allocations can be viewed as emergent phenomena. We also identify parameters favoring the negotiation efficiency. We provide the negotiation settings to use when four different social welfare notions are considered. The original method proposed in this thesis is adaptive, anytime and can handle any restriction on agent communication possibilities.
99

Normer pour mieux varier ? La différenciation comportementale par les normes, et son application au trafic dans les simulateurs de conduite

Lacroix, Benoît 01 October 2009 (has links) (PDF)
Les simulateurs de conduite sont utilisées par l'industrie automobile pour le développement de systèmes d'aide à la conduite, des études d'ergonomie, de design, ou encore du comportement des conducteurs. L'objectif est d'améliorer la sécurité des véhicules, et de réduire coûts et délais des projets. Dans les simulateurs, le conducteur évolue dans un trafic simulé dont le réalisme est crucial pour la validité des résultats : les réactions d'un conducteur sont d'autant plus correctes qu'il perçoit l'environnement comme réel. Dans les approches centrées individu, comme ici le trafic, un des critères important pour le réalisme est la variété comportementale des agents. De plus, les comportements doivent également être cohérents : l'apparition de situations aberrantes est très pénalisante pour l'immersion. Cependant, ces deux aspects ne sont généralement pas pris en compte simultanément. Dans ce travail, nous nous sommes donc intéressés à la question suivante : dans les approches centrées individus, augmenter la variété des comportements des agents tout en préservant leur cohérence améliore-t-il le réalisme ? Par ailleurs, le contexte industriel des travaux, effectués en convention Cifre chez Renault, impliquait des besoins spécifiques : il fallait concevoir un outil qui permette à la fois aux experts de spécifier des comportements variés et cohérents, et aux utilisateurs finaux de les exploiter facilement. Nous proposons dans ce travail un modèle de différenciation comportementale, qui se décline en un outil dont les principaux apports sont d'être générique, non-intrusif, et de permettre une conception en dehors de l'agent. Le modèle s'articule selon trois axes. Tout d'abord, il décrit les comportements des agents par des normes. Celles-ci fournissent un profil comportemental à la conception, et un contrôle de la conformitéà l'exécution. Ensuite, le processus de génération des comportements permet d'autoriser la création d'agents déviants ou en violation. Il influe pour cela sur le déterminisme du mécanisme. Enfin, les normes peuvent être inférées à partir de simulations enregistrées ou de situations réelles, afin d'analyser les résultats des expérimentations et d'automatiser la configuration du modèle. Nous avons appliqué cet outil à la simulation de trafic dans scaner, l'application développée et utilisée par le Centre Technique de Simulation de Renault pour ses simulateurs de conduite. Les modules logiciels développés au cours de la thèse introduisent dans le trafic des styles de conduite spécifiés sous forme de normes, par exemple des conducteurs prudents ou agressifs. Ils permettent ensuite de peupler l'environnement de manière automatisée, et de faire évoluer facilement les scénarios existants. Ces développements sont d'ores et déjà intégrés dans la version commerciale de l'application. Au delà de l'amélioration subjective du réalisme, les expérimentations réalisées démontrent les apports de l'outil sur la variété et la représentativité des comportements obtenus.
100

Prise de décision multiattribut avec le modèle GAI

Dubus, Jean-Philippe 23 September 2010 (has links) (PDF)
Les réseaux GAI sont une représentation graphique compacte et expressive des préférences d'un décideur en Décision Multiattribut, c'est-à-dire dans des situations où les alternatives sur lesquelles portent les choix du décideur sont décrites à l'aide d'un ensemble d'attributs (de caractéristiques). L'exploitation de leur structure graphique permet de définir des procédures efficaces d'élicitation de préférences (détermination des préférences à l'aide de questionnaires) ainsi que des algorithmes assez performants de prise de décision (calcul de l'alternative préférée du décideur ou des k meilleures alternatives). Le but de cette thèse est double. Tout d'abord elle vise à étendre les algorithmes de prise de décision dans des cas où les réseaux GAI sont denses, c'est-à-dire dans des situations où leur structure ne permet pas aux algorithmes de l'état de l'art de s'exécuter en un temps raisonnable. Pour cela, une nouvelle méthode de triangulation approchée a été développée, qui produit des réseaux GAI approchés sur lesquels des mécanismes d'inférence adaptés permettent d'obtenir les alternatives optimales des réseaux GAI d'origine. Ensuite, elle propose de nouvelles méthodes d'inférence en Décision multicritère. Plus précisément, elle propose des approches pour déterminer des frontières de Pareto (exactes ou approchées avec garantie de performance) ou des frontières de Lorenz. Elle prop ose également des algorithmes pour déterminer des solutions optimales dans les cas où les critères peuvent être agrégés via des opérateurs tels que OWA (Ordered Weighted Average), l'intégrale de Choquet ou bien encore la norme de Tchebyche ff.

Page generated in 0.0351 seconds