• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 121
  • 78
  • 31
  • 18
  • 10
  • 5
  • 2
  • 1
  • 1
  • Tagged with
  • 309
  • 309
  • 118
  • 101
  • 99
  • 97
  • 78
  • 75
  • 70
  • 65
  • 58
  • 55
  • 47
  • 46
  • 44
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Contribution aux fondements des méthodes formelles : jeux, logique et automates

Janin, David 02 December 2005 (has links) (PDF)
Cette thèse d'HDR en anglais, présente l'essentiel de mes travaux de 1996 à 2005. Voir le résumé anglais pour plus de détails.
272

De la simulation multi-agents à la simulation multi-niveaux. Pour une réification des interactions.

Picault, Sébastien 06 December 2013 (has links) (PDF)
Dans ce mémoire de synthèse d'habilitation à diriger des recherches, je présente les travaux en simulation multi-agents que j'ai menés au sein de l'équipe SMAC (LIFL, Université Lille 1) depuis le début de ma carrière d'enseignant-chercheur en 2002. Ceux-ci portent sur la conception et la mise en application de méthodes et d'outils de simulation destinés à faciliter la modélisation de systèmes complexes à large échelle. Dans ce but, j'ai développé avec mes collègues une approche " orientée interactions " caractérisée par une unification des concepts utilisés dans le domaine des SMA. Elle a donné lieu à une importante élaboration méthodologique et algorithmique (la méthode IODA) dans laquelle toute entité du modèle est représentée par un agent, et tout comportement par une règle appelée interaction. Cette méthode s'appuie sur une séparation entre déclaratif et procédural qui facilite l'acquisition de l'expertise auprès des thématiciens. Par ailleurs de nombreux outils logiciels sont nés de ces recherches (dont la plateforme JEDI et une extension IODA pour la plateforme NetLogo), ainsi que diverses applications dans des domaines variés (biologie cellulaire, serious games, marketing, cartographie). Pour conclure, je présente mon projet de recherche pour les prochaines années qui se propose d'articuler des problématiques issues de travaux récents, d'une part sur la simulation multi-niveaux (qui vise à définir un cadre opérationnel permettant le changement d'échelle d'observation ou de point de vue sur les sous-systèmes d'un système complexe), et d'autre part sur la recherche automatique d'informations dans des données réelles pour augmenter le réalisme comportemental des populations d'agents. Par ailleurs une collaboration avec l'IGN sur l'utilisation de ces techniques pour la généralisation cartographique permet également d'envisager la transposition de ces méthodes de simulation à la résolution de problèmes.
273

Le point de vue epistémique de théorie de la concurrence

Knight, Sophia 20 September 2013 (has links) (PDF)
Le raisonnement epistémique joue un rôle en théorie de la concurrence de plusieurs manières distinctes mais complémentaires; cette thèse en décrit trois. La première, et presque certainement la moins explorée jusqu'à présent, est l'idée d'utiliser les modalités épistémiques comme éléments d'un langage de programmation. La programmation logique émergea sous le slogan <> et dans le paradigme de la programmation concurrente par contraintes, le lien est manifeste de manière très claire. Dans la première partie de cette thèse, nous explorons le rôle des modalités épistémiques, ainsi que celui des modalités spatiales qui leur sont étroitement liées, en tant que partie intégrante du langage de programmation et non simplement en tant que partie du meta-langage du raisonnement à propos des protocoles. La partie suivante explore une variante de la logique épistémique dynamique adaptée aux systèmes de transitions étiquetés. Contrairement à la partie précédente, on serait tenté de croire que tout ce qu'on pouvait dire à ce sujet a déjà été dit. Cependant, le nouvel ingrédient que nous proposons est un lien étroit entre la logique épistémique et la logique de Hennessy-Milner, cette dernière étant \emph{la} logique des systèmes de transitions étiquetés. Plus précisement, nous proposons une axiomatisation et une preuve d'un théorème de complétude faible, ce qui est conforme au principe général qu'on utilise pour des logiques telles que la logique dynamique mais nécessite des adaptations non triviales. La dernière partie de la thèse se concentre sur l'étude d'agents en interaction dans les processus concurents. Nous présentons une sémantique des jeux pour l'interaction d'agents qui rend manifeste le rôle de la connaissance et du flux d'information dans les interactions entre agents, et qui permet de contrôler l'information disponible aux agents en interaction. Nous utilisons les processus comme support de jeu et définissons des stratégies pour les agents de telle sorte que deux agents qui interagissent conformément à leurs stratégies respectives déterminent l'exécution du processus, rempla{\c}cant ainsi l'ordonnanceur traditionnel. Nous démontrons que des restrictions différentes sur les stratégies réprésentent des quantités d'information différentes disponibles à l'ordonnanceur. Ces restrictions sur les stratégies ont un aspect épistémique explicite, et nous présentons une logique modale pour les stratégies et une caractérisation logique de plusieurs restrictions possibles sur les stratégies. Ces trois approches d'analyse et de représentation de l'information épistémique en théorie de la concurrence apportent une nouvelle manière de comprendre la connaissance des agents dans des processus conncurrents, ce qui est vital dans le monde d'aujourd'hui, dans lequel les systèmes distribués composés de multiples agents sont omniprésents.
274

Algorithms and Ordering Heuristics for Distributed Constraint Satisfaction Problems

Wahbi, Mohamed 03 July 2012 (has links) (PDF)
Les problèmes de satisfaction de contraintes distribués (DisCSP) permettent de formaliser divers problèmes qui se situent dans l'intelligence artificielle distribuée. Ces problèmes consistent à trouver une combinaison cohérente des actions de plusieurs agents. Durant cette thèse nous avons apporté plusieurs contributions dans le cadre des DisCSPs. Premièrement, nous avons proposé le Nogood-Based Asynchronous Forward-Checking (AFC-ng). Dans AFC-ng, les agents utilisent les nogoods pour justifier chaque suppression d'une valeur du domaine de chaque variable. Outre l'utilisation des nogoods, plusieurs backtracks simultanés venant de différents agents vers différentes destinations sont autorisés. En deuxième lieu, nous exploitons les caractéristiques intrinsèques du réseau de contraintes pour exécuter plusieurs processus de recherche AFC-ng d'une manière asynchrone à travers chaque branche du pseudo-arborescence obtenu à partir du graphe de contraintes dans l'algorithme Asynchronous Forward-Checking Tree (AFC-tree). Puis, nous proposons deux nouveaux algorithmes de recherche synchrones basés sur le même mécanisme que notre AFC-ng. Cependant, au lieu de maintenir le forward checking sur les agents non encore instanciés, nous proposons de maintenir la consistance d'arc. Ensuite, nous proposons Agile Asynchronous Backtracking (Agile-ABT), un algorithme de changement d'ordre asynchrone qui s'affranchit des restrictions habituelles des algorithmes de backtracking asynchrone. Puis, nous avons proposé une nouvelle méthode correcte pour comparer les ordres dans ABT_DO-Retro. Cette méthode détermine l'ordre le plus pertinent en comparant les indices des agents dès que les compteurs d'une position donnée dans le timestamp sont égaux. Finalement, nous présentons une nouvelle version entièrement restructurée de la plateforme DisChoco pour résoudre les problèmes de satisfaction et d'optimisation de contraintes distribués.
275

Architectures collaboratives pour l'aide à la décision dans les entreprises en réseau

Ouzrout, Yacine 21 March 2012 (has links) (PDF)
Les travaux de recherche présentés dans mon mémoire d'HDR s'articulent autour de la problématique de la collaboration et de la prise de décision dans les entreprises en réseau, dans des contextes de chaînes logistiques et d'analyse du cycle de vie des produits. Ces travaux ont débuté sur la thématique des modèles informatiques pour la prise de décision dans les systèmes de production. Après avoir étudié les différentes méthodes de modélisation d'entreprise ainsi que les approches liées au pilotage dans les entreprises industrielles, nous avons proposé un modèle de simulation des processus industriels permettant de coupler un simulateur a événement discret, dédié à l'analyse des flux physiques, à un modèle de simulation décisionnel et organisationnel à base d'Agents cognitifs. Nous avons par la suite abordé la problématique de la prise de décision et montré que l'efficacité de la décision dépend de sa capacité à exploiter des mécanismes d'apprentissage comparables à ceux utilisés par l'homme ; pour cela nous avons proposé une évolution du modèle de simulation en intégrant dans les agents logiciels des mécanismes de raisonnement et d'apprentissage (raisonnement à base de cas). Après cette phase d'étude des organisations et des processus intra-entreprise, ces architectures ont ensuite été enrichies de manière à intégrer des problématiques liées à la dimension collaborative dans le cadre des entreprises en réseau et des chaînes logistiques. Pour cela, nous avons proposé des modèles de simulation multi-agents afin de modéliser et de simuler les comportements des acteurs décisionnels dans le cadre des processus collaboratifs, et en particulier, le lien entre collaboration et partage d'information et l'amélioration des performances locale (à chaque entreprise) et globale (à l'ensemble de la chaîne logistique). En parallèle des travaux menés sur la modélisation et la simulation des processus décisionnels dans les entreprises en réseau, il est vite apparu la nécessité d'approfondir les problématiques liées aux systèmes d'information et à la gestion des connaissances. En effet, les processus décisionnels dans des contextes collaboratifs nécessitent un alignement des systèmes d'information aux différents processus organisationnels. Les principaux systèmes d'information existants, par exemple les ERP, ou les systèmes PLM pour la gestion du cycle de vie des produits, ont pour objectif principal d'organiser, de stocker, et de restituer les informations liées aux processus et aux produits dans les différentes phases de leurs cycles de vie (de la conception au recyclage, en passant par les phases de fabrication, de stockage, de maintenance, de distribution,...). Nous avons donc traité de certaines problématiques posées par cet alignement, et en particulier l'intégration des systèmes d'information, l'interopérabilité des systèmes, et la gestion des connaissances. L'évolution de mes préoccupations peut ainsi s'analyser selon quatre phases successives, qui correspondent à un élargissement progressif des problématiques traitées : de la modélisation et la prise de décision dans les systèmes de production, vers la modélisation et la simulation des processus collaboratifs dans les chaînes logistiques et les entreprises en réseau, puis l'intégration par les systèmes d'informations des processus PLM et Supply Chain, et enfin le développement d'architectures et de solutions distribuées pour le partage et l'échange d'information et de connaissances tout au long du cycle de vie des produits. Ces travaux de recherches se sont développés selon trois principaux axes scientifiques : a. Conception de modèles de simulation et d'aide à la décision pour l'étude de la dynamique des systèmes complexes et l'évaluation des performances : modèles formels de décision multicritères, décision collective et distribuée,... b. Intégration des systèmes d'information et mise en place d'architectures et de référentiels techniques pour la gestion et le suivi des données : approches par les modèles, MDA, interopérabilité... c. Développement de systèmes de gestion des connaissances (méthodes hybrides d'ingénierie des connaissances, modèles pour la capitalisation et la réutilisation des connaissances, formalisme de modélisation de la coopération/négociation entre acteurs dans les systèmes distribués... Ces trois dimensions convergent en fait vers un paradigme plus large pour l'aide à la décision dans le cadre des entreprises en réseau : le paradigme de l'entreprise cognitive et collaborative. Ce paradigme place au cœur de la performance des entreprises la nécessité de mettre en œuvre des modes d'organisation réactifs et des modes de collaboration et de synchronisation des systèmes d'information leur permettant de s'intégrer à des chaînes logistiques en fonction des besoins, ou de participer à des projets de développement de produit, et de mettre en place des partenariats et des échanges de manière efficace et facilement reconfigurable. Ceci rejoint les préoccupations actuelles sur les principes d'agilité des entreprises, d'urbanisation des systèmes d'information, et de cloud computing par exemple. Dans ce contexte, et en synthèse de ce mémoire, nous proposerons des pistes de réflexion et des perspectives de recherche issues de ces axes scientifiques, dont les orientations principales sont : vers la définition de modèles cognitifs d'aide à la décision pour les entreprises en réseau, basés sur la simulation et l'optimisation, et intégrant des notions de durabilité des systèmes et des produits et de capitalisation des connaissances à long terme.
276

Contributions en vue de rendre plus naturelle l'interaction entre une personne handicapée et son assistance robotisée.

Delarue, Sébastien 30 November 2007 (has links) (PDF)
Les recherches sur l'assistance technique aux personnes handicapées se sont beaucoup développées ces dernières années. Le projet ARPH (Assistance Robotique aux Personnes Handicapées) du laboratoire IBISC, débuté en 1994, consiste en un bras manipulateur embarqué sur une base mobile pour l'assistance à la saisie et la manipulation d'objets à distance. Cette thèse aborde tout d'abord la commande du robot en s'appuyant sur un système multi-agents. Le robot étudié étant redondant (6 degrés de liberté pour le bras et 2 degrés de liberté pour la base mobile), le premier objectif est de proposer une commande valable même en cas de dysfonctionnement d'une ou plusieurs articulations. Le second objectif de cette commande est d'atteindre le but choisi par la personne en conservant, dans la mesure du possible, une posture du bras loin de ses singularités. Le système reste ainsi le plus manipulable possible à chaque instant. Les résultats ont été comparés avec une autre méthode multi-agent et une commande classique basée sur la notion de manipulabilité. La méthode proposée améliore notablement ceux obtenus par les deux autres. La conception d'un tel système, complexe et innovant, demande la mise en place d'une méthodologie. La norme ISO 13407 définit le processus de Conception Centrée sur l'Utilisateur (CCU) pour les systèmes interactifs. Elle est initialement destinée au développement d'interfaces logicielles. Le processus de conception mis en œuvre est itératif, ce qui le rend inutilisable pour des systèmes dits complexes car comprenant non seulement des composantes logicielles mais aussi des composantes matérielles (mécaniques, électroniques...). Les techniques de la réalité virtuelle ont été mises à contribution afin de rendre cette démarche de CCU opérante pour un système complexe (CCU-SC). Une modélisation virtuelle initiale du système permet une première série d'évaluations avec les utilisateurs finaux. Lorsqu'une partie du système est validée par les opérateurs, elle peut être développée réellement. On entre alors dans un cycle d'évaluation d'un système dit mixte car comprenant des parties réelles et des parties virtuelles. On utilise ici les techniques de la réalité mixée, de la virtualité augmentée à la réalité augmentée. Après plusieurs cycles de ce type, on aboutit à un système réel. Outre le processus de conception, la méthode fournit un simulateur du système réel. Ce dernier peut être exploité après la conception pour l'apprentissage par les futurs utilisateurs. Un simulateur du projet ARPH a été développé pendant cette thèse. Il a été évalué avec l'aide d'étudiants de psychologie expérimentale. Deux types d'évaluation ont permis à des utilisateurs handicapés et non handicapés de manipuler le système réel et le simulateur. La première série de tests a eu pour but d'évaluer le transfert d'habiletés entre simulateur et système réel. La deuxième série de tests avait pour objectif l'évaluation du robot d'assistance en situation écologique c'est-à-dire la plus proche possible d'une situation naturelle.
277

Profiterole : un protocole de partage équitable de la bande passante dans les réseaux ad hoc

Vannier, Rémi 08 December 2009 (has links) (PDF)
On considère souvent IEEE 802.11 comme la technologie sous-jacente aux réseaux sans fil multisauts. Pourtant, dans de tels réseaux, 802.11 s'avère inefficace et/ou inéquitable dans de nombreuses situations. Cette thèse décrit un algorithme d'allocation dynamique et distribuée de débit permettant de garantir un partage équitable de la bande passante entre flux, tout en assurant une utilisation efficace du réseau. De plus, cette thèse propose une nouvelle méthode d'évaluation de l'efficacité d'un protocole en prenant en compte l'expérience utilisateur.
278

Parameterization des modeles tumoral bases sur des maillages des donnees experimentaux.

Jagiella, Nick 21 September 2012 (has links) (PDF)
Dans le but d'établir un modèle prédictif pour la croissance tumorale in-vivo et la thérapie, le modèle multi-échelle doit être élaboré et calibré par étape et de façon individuelle pour chaque type de cellule ciblé et pour di érents environnements (in-vitro et in-vivo). Nous présenterons, en tant que preuve de concept et à partir de di érentes sources de données, les étapes de la construction et de la paramétrisation du modèle de la croissance avasculaire des lignées de cellules EMT6/Ro et SK-MES-1. Dans une première étape, un modèle multi-échelle à base d'agents a été construit et validé avec des données provenant de la littérature sur les sphéroïdes multicellulaires de carcinomes mammaires de souris EMT6/Ro. Pour cette lignée de cellules, il a pu prédire que la cinétique de croissance est contrôlée par une combinaison de contraintes spatiales et de limitation des nutriments. Il a été trouvé que l'ATP est la ressource critique que les cellules essayent de garder constante en permutant d'un métabolisme aérobique à anaérobique et ce pour de larges plages de concentrations d'oxygène et de glucose. La saturation de la croissance a été observé uniquement dans le cas de faibles concentrations d'oxygène et de glucose ce que le modèle a pu expliqué par une migration guidée par l'adhésion de cellule à cellule. Dans une seconde étape, le modèle a été adapté à la lignée cellulaire SK-MES-1. Nous avons calibré la cinétique de croissance qualitativement en analysant des images de cryosections de sphéroïdes marquées pour l'apoptose et la prolifération et quantitativement en la comparant des courbes de croissance. Au delà de l'ATP, le lactate a été identi é comme contrôlant la taille du noyau nécrotique. Pour rendre compte de la situation in-vivo, nous proposons une extension du modèle qui prend en compte un réseau de vaisseaux sanguins et le phénomène de l'angiogenèse associé. A n de paramétrer les propriétés des vaisseaux fonctionnels et dans le but de valider les lois de l'angiogenèse, nous menons à partir d'images de perfusion d'agents de contraste une étude de sensibilité aux paramètres. Dans un premier temps, nous résolvons le problème direct de la perfusion des agents de contraste dans un réseau de vaisseaux perméables ou non. Ensuite, nous résolvons le problème inverse rigoureusement et, grâce à des comparaisons directes entre les paramètres originaux et ceux récupérés, nous étudions la capacité de prédiction du modèle dans di érents cas.
279

A reexamination of modern finance issues using Artificial Market Frameworks

Veryzhenko, Iryna 18 September 2012 (has links) (PDF)
Cette thèse apporte une contribution à la compréhension des dynamiques de marché et à la prise de décision des traders à l'aide d'une plateforme de simulation de marchés multi-agents. La modélisation multi-agents permet notamment d'étudier le système boursier comme un système complexe évolutif dans lequel chaque trader artificiel possède son propre comportement possède son propre comportement et qui, par ses prises de décision, influence l'ensemble des autres acteurs du système. Dans une première partie, nous mettons en évidence à l'aide de "traders à intelligence zéro" (ZIT), le rôle de la microstructure pour comprendre la nature des principaux faits stylisés de l'évolution des prix. Les résultats issus de nombreuses simulations, indiquent que l'usage des ZIT n'est pas suffisant pour reproduire de façon convaincante les évolutions de prix réels, car ceux-ci doivent être appréhendés à la fois de manière qualitative mais aussi quantitative. Nous montrons que seuls des éléments de stratégies de trading et une forte calibration peuvent améliorer cette réplication par simulation, suggérant que les aspects comportementaux importent tout autant que les aspects micro structurels. Dans une seconde partie, nous concentrons notre recherche sur la problématique de la rationalité dans le corpus de la théorie moderne du portefeuille. Le marché artificiel nous permet de tester si des stratégies naïves peuvent surpasser, en terme de performance, des modèles plus complexes. Diverses stratégies d'investissement sont implémentées dans le système artificiel et mises en interaction afin d'observer leur survie dans des compétitions écologiques basées sur leurs performances relatives. Certaines de ces stratégies d'investissements sont fondées sur des variations du modèle canonique de la théorie de portefeuilles de Markowitz, d'autres suivent des principes de diversification naïfs, d'autres encore obéissent à des combinaisons de stratégies rationnelles sophistiquées et de stratégies naïves. Enfin, de manière à mieux saisir les facteurs qui influent sur la performance du portefeuille, nous montrons les effets de la fréquence de pondération et des préférences pour le risque des investisseurs sur l'issue de ces compétitions. Pour finir, afin de fournir une mesure de performance absolue orientée vers l'évaluation ex-post d'un large éventail de stratégies de trading des investisseurs (agents dans notre cas) nous proposons un nouvel algorithme de complexité polynomiale permettant de déterminer la borne supérieure absolue des profits atteignables pour n'importe quelle stratégie sur une période de temps donnée. Cet algorithme met en contact deux champs a priori éloignés: la théorie des graphes d'une part et la finance computationnelle d'autre part.
280

Simulation multi-agents de marchés financiers

Derveeuw, Julien 14 January 2008 (has links) (PDF)
Les simulations par agents, ou centrées individu, permettent, par opposition aux modèles centrés groupe, de prendre en compte la manière dont les entités composant un sys- tème interagissent entre elles et ainsi de faire le lien entre ses niveaux microscopiques et macroscopiques. Les marchés financiers, bien qu'étant des systèmes composés de nombreuses entités en interaction, sont souvent étudiés à l'aide de modèle centrés groupe, qui montrent leur limites lorsqu'il s'agit d'expliquer l'émergence de certains phénomènes observables dans les séries de prix. Nous proposons par conséquent un modèle de marché financier centré individu, permettant de reproduire de manière réaliste leur fonctionnement, à la fois à une échelle intra-journalière et à une échelle inter-journalière. Ce modèle nous a permis dans un premier temps de proposer une théorie pour expliquer l'origine des faits stylisés, qui sont des propriétés statistiques des cours de prix observables sur l'ensemble des marchés financiers et dont l'origine est mal expliquée. Notre proposition, étayée par les expérimentations que nous avons réalisées avec notre modèle, montre que les faits stylisés semblent en majeure partie causés par la manière dont le marché est structuré et par la manière dont les agents économiques interagissent à travers lui. Dans un second temps, nous avons utilisé notre modèle pour étudier les variations extrêmes de prix observables sur les marchés financiers, que l'on nomme "bulles" quand elles sont à la hausse et "krachs" quand elles sont à la baisse. Nous avons illustré avec notre modèle, en nous appuyant sur les théories proposées par certains économistes pour expliquer ces événéments, que ces épisodes critiques dans les prix peuvent survenir lorsqu'une partie suffisante de la population des investisseurs adopte une stratégie spéculatrice.

Page generated in 0.0517 seconds