• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 3
  • 2
  • Tagged with
  • 13
  • 13
  • 11
  • 11
  • 11
  • 8
  • 7
  • 5
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

User Interfaces for Wearable Computers Development and Evaluation /

Witt, Hendrik. January 2008 (has links)
Diss. Univ. Bremen, 2007. / Computer Science (Springer-11645).
2

The evolution of an online environment to support the studio based pedagogical approach for computing education

Agrawal, Anukrati, January 2009 (has links) (PDF)
Thesis (M.S. in computer science)--Washington State University, August 2009. / Title from PDF title page (viewed on Sept. 22, 2009). "School of Electrical Engineering and Computer Science." Includes bibliographical references (p. 63-68).
3

Le Partage du Spectre dans les Réseaux Décentralisés Auto-Configurables : Une approche par la Théorie des Jeux.

Perlaza, Samir 08 July 2011 (has links) (PDF)
Les travaux de cette thèse s'inscrivent tous dans la thématique " traitement du signal pour les réseaux de communications distribués ". Le réseau est dit distribué au sens de la décision. Dans ce cadre, le problème générique et important que nous avons approfondi est le suivant. Comment un terminal, qui a accès à plusieurs canaux de communications, doit-il répartir (de manière autonome) sa puissance d'émission entre ses canaux et l'adapter dans le temps en fonction de la variabilité des conditions de communications ? C'est le problème de l'allocation de ressources adaptative et distribuée. Nous avons développé 4 axes de travail qui ont tous conduits à des réponses originales à ce problème ; la forte corrélation entre ces axes est expliquée dans le manuscrit de thèse. Le premier axe a été l'alignement opportuniste d'interférence. Un des scénarios de référence est le cas où deux couples émetteur-récepteur communiquent en interférant (sur la même bande, en même temps, au même endroit, ...), où les 4 terminaux sont équipés de plusieurs antennes et où un émetteur est contraint de ne pas (ou peu) interférer sur l'autre (canal à interférence dit MIMO). Nous avons conçu une technique d'émission de signal multi-antennaire qui exploite l'observation-clé suivante et jamais exploitée auparavant: même lorsqu'un émetteur est égoïste au sens de ses performances individuelles, celui-ci laisse des ressources spatiales (dans le bon espace de signal et que nous avons identifié) vacantes pour l'autre émetteur. L'apport en performances en termes de débit par rapport aux meilleurs algorithmes existants a été quantifié grâce à la théorie des matrices aléatoires et des simulations Monte Carlo. Ces résultats sont particulièrement importants pour le scénario de la radio cognitive en milieu dense. Dans un second temps, nous avons supposé que tous les émetteurs d'un réseau sont libres d'utiliser leurs ressources de manière égoïste. Les ressources sont données ici par les canaux fréquentiels et la métrique individuelle de performance est le débit. Ce problème peut être modélisé par un jeu dont les joueurs sont les émetteurs. Une de nos contributions a été de montrer que ce jeu est un jeu de potentiel, ce qui est fondamental pour la convergence des algorithmes distribués et l'existence d'équilibre de Nash. De plus, nous avons montré l'existence d'un paradoxe de Braess : si l'espace d'optimisation d'un joueur grandit, les performances individuelles et globales peuvent s'en trouver réduites. Cette conclusion a une conséquence pratique immédiate : il peut y a voir intérêt de restreindre le nombre de canaux fréquentiels utilisables dans un réseau à interférence distribué. Dans le jeu précédent, nous avions constaté que les algorithmes distribués d'allocation de ressources (les algorithmes d'apprentissage par renforcement typiquement) demandent un grand nombre d'itérations pour converger vers un état stable tel qu'un équilibre de Nash. Nous avons ainsi proposé un nouveau concept de solution d'un jeu, à savoir l'équilibre de satisfaction ; les joueurs ne modifient pas leur action, même si celle-ci ne maximise pas leur gain, pourvu qu'un niveau minimal de performance soit atteint. Nous avons alors développé une méthodologie d'étude de cette solution (existence, unicité, convergence, ...). Une de nos contributions a aussi été de donner des algorithmes d'apprentissage qui convergent vers cette solution en un temps fini (et même court génériquement). De nombreux résultats numériques réalisés dans des scénarios imposés par Orange ont confirmé la pertinence de cette nouvelle approche. Le quatrième axe de travail a été la conception de nouveaux algorithmes d'apprentissage qui convergent vers des solutions de type équilibre logit, epsilon-équilibre ou équilibre de Nash. Notre apport a été de montrer comment modifier les algorithmes existants pour que ceux-ci évitent les phénomènes de cycles et convergent vers un équilibre présélectionné au départ de la dynamique. Une idée importante a été d'introduire une dynamique d'apprentissage de la fonction métrique de performances en couplage avec la dynamique principale qui régit l'évolution de la distribution de probabilité sur les actions possibles d'un joueur. Le cadre de ces travaux est parfaitement réaliste d'un point de vue informatif au niveau des terminaux en pratique. Il est montré une voie possible pour améliorer l'efficacité des points de convergence, ce qui constitue un problème encore ouvert dans ce domaine.
4

Le problème de la valeur dans les jeux stochastiques

Oualhadj, Youssouf 11 December 2012 (has links) (PDF)
La théorie des jeux est un outils standard quand il s'agit de l'étude des systèmes réactifs. Ceci est une conséquence de la variété des modèles de jeux tant au niveau de l'interaction des joueurs qu'au niveau de l'information que chaque joueur possède. Dans cette thèse, on étudie le problème de la valeur pour des jeux où les joueurs possèdent une information parfaite, information partiel et aucune information. Dans le cas où les joueurs possèdent une information parfaite sur l'état du jeu, on étudie le problème de la valeur pour des jeux dont les objectifs sont des combinaisons booléennes d'objectifs qualitatifs et quantitatifs. Pour les jeux stochastiques à un joueur, on montre que les valeurs sont calculables en temps polynomiale et on montre que les stratégies optimales peuvent être implementées avec une mémoire finie. On montre aussi que notre construction pour la conjonction de parité et de la moyenne positive peut être étendue au cadre des jeux stochastiques à deux joueurs. Dans le cas où les joueurs ont une information partielle, on étudie le problème de la valeur pour la condition d'accessibilité. On montre que le calcul de l'ensemble des états à valeur 1 est un problème indécidable, on introduit une sous classe pour laquelle ce problème est décidable. Le problème de la valeur 1 pour cette sous classe est PSPACE-complet dans le cas de joueur aveugle et dans EXPTIME dans le cas de joueur avec observations partielles.
5

Certification formelle de preuves cryptographiques basées sur les séquences de jeux

Zanella Beguelin, Santiago 09 December 2010 (has links) (PDF)
Les séquences de jeux sont une méthodologie établie pour structurer les preuves cryptographiques. De telles preuves peuvent être formalisées rigoureusement en regardant les jeux comme des programmes probabilistes et en utilisant des méthodes de vérification de programmes. Cette thèse décrit CertiCrypt, un outil permettant la construction et vérification automatique de preuves basées sur les jeux. CertiCrypt est implémenté dans l'assistant à la preuve Coq, et repose sur de nombreux domaines, en particulier les probabilités, la complexité, l'algèbre, et la sémantique des langages de programmation. CertiCrypt fournit des outils certifiés pour raisonner sur l'équivalence de programmes probabilistes, en particulier une logique de Hoare relationnelle, une théorie équationnelle pour l'équivalence observationnelle, une bibliothèque de transformations de programme, et des techniques propres aux preuves cryptographiques, permettant de raisonner sur les évènements. Nous validons l'outil en formalisant les preuves de sécurité de plusieurs exemples emblématiques, notamment le schéma de chiffrement OAEP et le schéma de signature FDH.
6

Structures algébriques en logique et concurrence

Santocanale, Luigi 09 December 2008 (has links) (PDF)
Dans cet ouvrage nous allons résumer nos activités de recherche depuis l'obtention du titre de docteur à l'Université du Québec à Montréal. Ces recherches ont eu lieu auprès de et ont été possibles grâce à de nombreuses institutions que nous remercions : le BRICS à l'Université de Aarhus, le PIMS et le Département d'Informatique de l'Université de Calgary, le LaBRI de Bordeaux et, enfin, le Laboratoire d'Informatiqu Fondamentale de Marseille et l'Université de Provence. Nous souhaitons illustrer comment la notion de structure, algébrique et d'ordre, peut être un guide fructueux dans l'étude de sujets importants de l'informatique tels que les processus concurrents et les logiques modales et temporales pour la vérification des systèmes informatiques.
7

Analysis of Spatial and Economical Effects in Communication Networks

Hanawal, Manjesh Kumar 06 November 2013 (has links) (PDF)
In this thesis we analyze the performance of communication networks using game theoretic approaches. The thesis is in two parts. The first part studies the performance of Ad hoc, cellular and transportation networks taking into consideration spatial effects. The second part studies economic issues in the communication networks related to the 'net neutrality' regulations. Here we study price competition and revenue sharing mechanisms between the network service providers. In the first part, we use Medium Access Control (MAC) game and Jamming game models to study the performance of a Mobile Ad hoc NETwork (MANET), and routing games to study the performance of a transportation network. In the cellular networks, we study the effect of reducing the spatial density of base stations on the amount of radiation to human body (green networking). We use tools from stochastic geometry to model spatial characters. We begin with the study of MAC game in a MANET where the nodes are noncooperative, and their locations form a Poisson point process. The nodes use Aloha protocol to access the channel, and choose their Medium Access Probability (MAP) such that it optimizes their utility. The utility of each node is defined as weighted difference between a performance metric (expected goodput or expected delay) and transmission costs. We first consider a scenario in which nodes can be priced for channel access. We show that by using a simple (linear) pricing mechanism and setting the price 'appropriately', the selfish behavior of the nodes can be used to achieve the same performance as social optima at equilibrium. In the case where channel access is free, we consider transmission energy costs and analyze the Price of Anarchy (PoA). For the game with goodput based utility, we show that the PoA is infinite at the price that achieves the global optimal goodput. We then study the performance of MANET in the presence of a Jammer while all the nodes cooperate by using a MAP that is assigned by a network an Operator. The objective of the Jammer is to degrade the spatial performance of the MANET by causing interference, whereas the objective of the Operator is to set a MAP to optimize it. We model the interaction between the Jammer and the Operator taking into account the transmission energy costs. We transform the resulting non zero sum game into a zero sum game by constructing an anti-potential, and show that for a given Jammer's transmission cost, if the nodes transmit at a power higher than certain threshold, then the Jammer has no incentive to jam, i.e., the nodes can operate as if there is no Jammer. Next, we consider cellular networks. We study energy saving by switching off a fraction of the base stations (BSs). This saving comes at some cost: the coverage is reduced, and the uplink transmission power of mobiles may increase. This implies exposure of the human body to stronger electromagnetic fields. We quantify this through the deactivation of base stations under the assumptions that the random location of base stations and mobiles form a Poisson processes. We consider the case of sparse network where the interference is negligible, and the case where it is non negligible. We observe that when the mobiles have no power constraints, unlike in the case of negligible interference, switching off base stations reduces the uplink power. Finally, we study a dynamic routing game by adding temporal dimension to the classical routing problem. We consider a scenario where each user have to ship a fixed demand on a shared link. The users can delay shipping their demand, but need to ship within T days, and each time they delay, a delay cost is incurred. We study the effect of delay costs on the user strategies by translating the time dimension into space dimension. Considering both atomic and non-atomic game models and polynomial congestion costs, we show that there exists a threshold time T T before which all users ship their demand at equilibrium, and during this period total demand on the link is decreasing in time. Further, we extend the analysis to the case when the demand of each user arrives randomly. In the second part of the thesis, we study economics aspects in communication networks. Representatives of several Internet access providers (ISPs) have expressed their wish to see a substantial change in the pricing policies in the Internet. In particular, they would like to see content providers (CPs) pay for use of the network, given the large amount of resources they use. This would be in clear violation of the "network neutrality" principle that had characterized the development of the wireline Internet. Our first goal here is to propose and study possible ways of implementing payments in a nonneutral network. We introduce a model that includes the users' behavior, the utilities of the ISP and of the CPs, and the monetary flow that involves the users, an ISP and CPs, and CP's revenues from advertisements. We consider various game models and obtain the resulting equilibrium prices. We show that if a regulator decides the amount of money that CPs pays to the ISP, rather it is decided by the ISP or the CPs, then it results in a favorable situation for all the players. Thus, we demonstrate the necessary for regulation of the monetary transactions between the ISP and the CPs in the nonneutral regime. The mechanism we propose for monetary interaction is based on the Nash bargaining solution. One of the central issues in the debate on network neutrality has been whether one should allow or prevent preferential treatment by an ISP. This raised the question of whether to allow an ISP to have exclusive agreement with a content provider (CP). We study the impact of exclusive contracts between a CP and an ISP in a nonneutral network. We consider a simple case of collusion where a CP and an ISP aim to maximize their sum of revenues, and show that such a collusion may not always be beneficial. We derive an explicit condition in terms of the advertisement revenues of the CPs which tells when a collusion is profitable to the colluding entities. Finally, we consider discrimination in the opposite direction, i.e., CP discriminating the ISPs. We derive models for studying the impact that the CP can have on the utilities of the ISPs by favoring one of them through exclusively revealing its private information on the demand. For a special case of linear demand function, we show that such preferential treatment always benefits the ISPs. However, if the CP charges the ISPs for providing the private information, then the ISP obtaining preferential treatment may not always gain. We then propose mechanisms based on weighted proportional fairness for deciding the payments between the CP and the ISP and compare them by proposing a new metric termed Price of Partial Bargaining.
8

Monte Carlo Tree Search pour les problèmes de décision séquentielle en milieu continus et stochastiques

Couetoux, Adrien 30 September 2013 (has links) (PDF)
Dans cette thèse, nous avons étudié les problèmes de décisions séquentielles, avec comme application la gestion de stocks d'énergie. Traditionnellement, ces problèmes sont résolus par programmation dynamique stochastique. Mais la grande dimension, et la non convexité du problème, amènent à faire des simplifications sur le modèle pour pouvoir faire fonctionner ces méthodes. Nous avons donc étudié une méthode alternative, qui ne requiert pas de simplifications du modèle: Monte Carlo Tree Search (MCTS). Nous avons commencé par étendre le MCTS classique (qui s'applique aux domaines finis et déterministes) aux domaines continus et stochastiques. Pour cela, nous avons utilisé la méthode de Double Progressive Widening (DPW), qui permet de gérer le ratio entre largeur et profondeur de l'arbre, à l'aide de deux méta paramètres. Nous avons aussi proposé une heuristique nommée Blind Value (BV) pour améliorer la recherche de nouvelles actions, en utilisant l'information donnée par les simulations passées. D'autre part, nous avons étendu l'heuristique RAVE aux domaines continus. Enfin, nous avons proposé deux nouvelles méthodes pour faire remonter l'information dans l'arbre, qui ont beaucoup amélioré la vitesse de convergence sur deux cas tests. Une part importante de notre travail a été de proposer une façon de mêler MCTS avec des heuristiques rapides pré-existantes. C'est une idée particulièrement intéressante dans le cas de la gestion d'énergie, car ces problèmes sont pour le moment résolus de manière approchée. Nous avons montré comment utiliser Direct Policy Search (DPS) pour rechercher une politique par défaut efficace, qui est ensuite utilisée à l'intérieur de MCTS. Les résultats expérimentaux sont très encourageants. Nous avons aussi appliqué MCTS à des processus markoviens partiellement observables (POMDP), avec comme exemple le jeu de démineur. Dans ce cas, les algorithmes actuels ne sont pas optimaux, et notre approche l'est, en transformant le POMDP en MDP, par un changement de vecteur d'état. Enfin, nous avons utilisé MCTS dans un cadre de méta-bandit, pour résoudre des problèmes d'investissement. Le choix d'investissement est fait par des algorithmes de bandits à bras multiples, tandis que l'évaluation de chaque bras est faite par MCTS. Une des conclusions importantes de ces travaux est que MCTS en continu a besoin de très peu d'hypothèses (uniquement un modèle génératif du problème), converge vers l'optimum, et peut facilement améliorer des méthodes suboptimales existantes.
9

Contribution aux fondements des méthodes formelles : jeux, logique et automates

Janin, David 02 December 2005 (has links) (PDF)
Cette thèse d'HDR en anglais, présente l'essentiel de mes travaux de 1996 à 2005. Voir le résumé anglais pour plus de détails.
10

Optimisation et jeux appliqués à l'analyse statique de programmes par interprétation abstraite

Adje, Assalé 29 April 2011 (has links) (PDF)
L'interprétation abstraite est une méthode générale qui permet de déterminer de manière automatique des invariants de programmes. Cette méthode conduit à résoudre un problème de point fixe non linéaire de grande taille mais qui possède des propriétés de monotonie. Ainsi, déterminer des bornes sur les valeurs prises par une variable au cours de l'exécution d'un programme, est un problème de point fixe équivalent à un problème de jeu à deux joueurs, à somme nulle et avec options d'arrêt. Cette dernière observation explique la mise en oeuvre d'algorithmes d'itérations sur les politiques. Dans un premier temps, nous avons généralisé les domaines numériques polyédriques par un domaine numérique abstrait permettant de représenter des invariants non-linéaires. Nous avons défini une fonction sémantique abstraite sur ce domaine à partir d'une correspondance de Galois. Cependant, l'évaluation de celle-ci est aussi difficile qu'un problème d'optimisation globale non-convexe. Cela nous a amené à définir une fonction sémantique relâchée, construite à partir de la théorie de la dualité, qui sur-approxime de la fonction sémantique abstraite. La théorie de la dualité a également motivé une construction d'une itération sur les politiques dynamique pour calculer des invariants numériques. En pratique pour des programmes écrits en arithmétique affine, nous avons combiné la relaxation de Shor et l'information des fonctions de Lyapunov quadratique pour évaluer la fonction sémantique relâchée et ainsi générer des invariants numériques sous forme d'ellipsoïdes tronquées. Le deuxième travail concerne l'itération sur les politiques et le calcul du plus petit point fixe qui fournit l'invariant le plus précis. Nous avons raffiné l'itération sur les politiques afin de produire le plus petit point fixe dans le cas des jeux stochastiques. Ce raffinement repose sur des techniques de théorie de Perron-Frobenius non-linéaire. En effet, la fonction sémantique abstraite sur les intervalles peut être vue comme un opérateur de Shapley en information parfaite: elle est semidifférentiable. L'approche conjointe de la semidifférentielle et des rayons spectraux non linéaires nous a permis, dans le cas des contractions au sens large de caractériser le plus petit point fixe. Cette approche mène à un critère d'arrêt pour l'itération sur politique dans le cas des fonctions affines par morceaux contractantes au sens large. Quand le point fixe est non minimal, le problème consiste à exhiber un point fixe négatif non nul de la semidifférentielle. Ce vecteur conduit à une nouvelle politique qui fournit un point fixe strictement plus petit que le point fixe courant. Cette approche a été appliquée à quelques exemples de jeux stochastiques à paiements positifs et de vérification de programmes.

Page generated in 0.1036 seconds