• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 876
  • 321
  • 321
  • 321
  • 321
  • 321
  • 320
  • 284
  • 32
  • 6
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1715
  • 1715
  • 1116
  • 1110
  • 664
  • 664
  • 664
  • 406
  • 398
  • 372
  • 253
  • 253
  • 214
  • 200
  • 196
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Medial surfaces

Bouix, Sylvain January 2003 (has links)
The medial surface of a 3D object is comprised of the locus of centers of its maximal inscribed spheres. Interest in this representation stems from a number of interesting properties: i) it is a thin set, i.e., it contains no interior points, ii) it is nomotopic to the original shape, iii) it is invariant under rigid transformations of the object and iv) given the radius of the maximal inscribed sphere associated which each skeletal point, the object can be reconstructed exactly. Hence, it provides a compact representation while preserving the object's genus and making certain useful properties explicit, such as its local width. These properties have led to its application in a variety of domains, including the analysis and quantification of the shape of volumetric structures in medical images. Despite its popularity, its numerical computation remains non-trivial. Most algorithms are not stable with respect to small perturbations of the boundary, and heuristic measures for simplification are often introduced. The study of the medial surface is the subject of this thesis.
142

A trust-based access control scheme for social networks

Villegas, Wilfred January 2008 (has links)
The personal data being published on online social networks is presenting new challenges in sharing of this digital content. This thesis proposes an access control scheme called Personal Data Access Control, or PDAC, which allows users to share data among their friends, using a trust computation to determine which friends should be given access. This trust computation uses previous interactions among a user's friends to classify his or her peers into one of three protection zones, which determine whether that peer gains access to the user's data. Additionally, the user may designate certain friends as attesters who will aid the user in determining which peers are trustworthy enough to be given access to his or her data. Simulations of the PDAC scheme were performed to evaluate its effectiveness in enforcing data access privileges. The results show that PDAC preserves confidentiality by exploiting the trust that is captured in existing social networks. / Les données personnelles publiées sur internet par l'entremise des nouveaux réseaux sociaux virtuels présentent des défis considérables en ce qui attrait à l'échange numérique. Cette thèse propose un système de contrôle d'accès appelé Personal Data Access Control, ou PDAC, qui permet aux utilisateurs d'échanger leurs données personnelles avec leurs amis de façon mesurée, en utilisant un calcul de confiance. Ce calcul de confiance utilise comme critères d'évaluation les interactions antérieures entre l'utilisateur et chacun de ses amis afin de classer chacune de ses connaissances dans une de trois zones de protection. Ces zones délimitent le niveau d'accès accordé aux données de l'utilisateur. De plus, l'utilisateur peut assigner certains amis come vérificateurs qui donnent leur approbation et ainsi détermine en toute confidentialité qui devrait avoir accès a ses données. Nos résultats d'analyse démontrent que le PDAC accorde privilèges d'accès aux données de façon efficace. Ces simulations démontrent aussi que le PDAC préserve la confidentialité en saisissant les niveaux de confiance qui existe dans les réseaux sociaux virtuels d'aujourd'hui actuels.
143

Epistemic strategies and games on concurrent processes

Knight, Sophia January 2009 (has links)
We develop a game semantics for process algebra with two independent, interacting agents. The purpose of the semantics is to make manifest the role of knowledge and information flow in the interactions between agents and to control the information available to interacting agents. We define games and strategies on process algebras, so that two agents interacting according to their strategies determine the execution of the process, replacing the traditional scheduler. We show that different restrictions on strategies represent different information being available to a scheduler. We also show that a certain class of strategies corresponds to the syntactic schedulers of Chatzikokolakis and Palamidessi, which were developed to overcome problems with traditional schedulers modelling interaction. The restrictions on these strategies have an explicit epistemic flavour. We extend these results to a probabilistic process algebra. Finally, we define a modal logic with both epistemic and temporal modalities to capture how information flows through the system. We give a logical characterization of a concept called introspection which is used to place restrictions on the allowed strategies of an agent. Thus, the logic makes precise what agents "know." / Je présente dans ce thèse une sémantique des jeux pour l'algèbre de processus avec deux agents indépendants qui interagissent. Le but de cette sémantique est de permettre de comprendre le flux d'information et le rôle de la conaissance, ainsi que de contrôler l'information qui est disponible aux agents qui interagissent. Je définis les jeux et les stratégies pour les algèbres de processus, de façon à ce que les deux agents qui suivent ces stratégies lors de leurs interactions déterminent l'exécution du processus, remplaçant ainsi l'ordonnanceur traditionnel. Je démontre que différentes contraintes de stratégie représentent des informations différentes disponibles pour l'ordonnanceur. Je démontre aussi qu'une certaine classe de stratégies correspond aux les ordonnanceurs traditionnels qui modelisent les interactions entre agents. Les contraintes de stratégie ont des aspectes épistémiques explicites. Je généralise ces resultats à l'algébre de processus. Enfin, je présente une logique modale avec des modalités épistémiques et temporales, afin de comprendre le flux d'information dans le système. Je présente une caractérisation logique d'un concept appelé l'introspection, qui est utilisé pour contraindre la stratégie d'un agent, faisant ainsi en sorte que la logique précise ce que les agents conaissent.
144

Inferring environmental representations through limited sensory data with applications to sensor network self-calibration

Marinakis, Dimitrios January 2009 (has links)
This thesis addresses the problem of using distributed sensing for automatically inferring a representation of the environment, i.e. a map, that can be useful for the self-calibration of intelligence systems, such as sensor networks. The information recovered by such a process allows typical applications such as data collection and navigation to proceed without labour intensive input from a human technician. Simplifying the deployment of large scale sensor networks and other intelligent systems will effectively reduce their cost and improve their widespread availability and hence aid their practical application to tasks such as the monitoring of carbon emissions and greenhouse gases. In our research we focus on algorithms and techniques for recovering two types of information from the immediate environment: topology information that indicates physical connectivity between regions of interest from the point of view of a navigating agent; and a probability distribution function (PDF) describing the position of components of the intelligent system. We consider situations where data is collected from systems that comprise of: a number of stationary network components; stationary network components augmented with a mobile robot; or a mobile robot only. Our approaches are, for the most part, based on statistical methods that employ stochastic sampling techniques to provide approximate solutions to problems for which computing the optimal or exact solution is intractable. Numerical simulations and experiments conducted on hardware suggest that this research has promising real world applications in the area of sensor network self-configuration. / Ce thèse s'adresse au problème de l'emploi de la détection dispersée pour déduire automatiquement une représentation de l'environnement, c'est-à-dire une carte, qui peut servir dans l'autocalibrage des systèmes intelligents tels que les réseaux des capteurs. L'information récupérée par un tel processus permet aux applications typiques telle que la collecte des données et la navigation de continuer sans une contribution de main d'œuvre de la part d'un technicien humain. Simplifier la répartition en grand des réseaux de capteurs et d'autres systèmes intelligents réduira effectivement leur coût et améliora leur disponibilité répandue, donc il facilitera leur application pratique aux tâches comme le contrôle des émissions de carbone et les gaz à effet de serre.Dans nos recherches nous nous concentrons sur les algorithmes et les techniques pour récupérer deux types d'information de l'environnement immédiat : l'information topologique qui indique la connectivité physique entre les régions d'intérêt du point de vue d'un agent navigateur; et une fonction de dispersion de probabilité (PDF) qui décrit la position des élément du système intelligent. Nous considérons les situation où les données se recueillent des systèmes composés de: plusieurs éléments fixes du réseau; des éléments fixes du réseau augmentés d'un robot mobile; un robot mobile seulement. Nos approches sont, pour la plupart, fondées sur des méthodes statistiques qui emploient des techniques stochastiques d'échantillonnage pour fournir des solutions approximatives aux problèmes dont le calcul d'une solution exacte ou optimale reste réfractaire. Les simulations numériques et les expériences exécutées au matériel suggèrent que ces recherches promettent des applications actuelles et pratiques dans le domaine d'autocalibrage des réseaux de capteurs.
145

An algebraic approach to dynamic epistemic logic

Phillips, Caitlin January 2010 (has links)
In reasoning about multi-agent systems, it is important to look beyond the realm of propositional logic and to reason about the knowledge of agents within the system, as what they know about the environment will affect how they behave. A useful tool for formalizing and analyzing what agents know is epistemic logic, a modal logic developed by philosophers in the early 1960s. Epistemic logic is key to understanding knowledge in multi-agent systems, but insufficient if one wishes to study how the agents' knowledge changes over time. To do this, it is necessary to use a logic that combines dynamic and epistemic modalities, called dynamic epistemic logic. Some formalizations of dynamic epistemic logic use Kripke semantics for the states and actions, while others take a more algebraic approach, and use order-theoretic structures in their semantics. We discuss several of these logics, but focus predominantly on the algebraic framework for dynamic epistemic logic. / Past approaches to dynamic epistemic logic have typically been focused on actions whose primary purpose is to communicate information from one agent to another. These actions are unable to alter the valuation of any proposition within the system. In fields such as security and economics, it is easy to imagine situations in which this sort of action would be insufficient. Instead, we expand the framework to include both communication actions and actions that change the state of the system. Furthermore, we propose a new modality which captures both epistemic and propositional changes that result from the agents' actions. / En raisonnement sur les systemes multi-agents, il est important de regarder au-dela du domaine de la logique propositionnelle et de raisonner sur les con- naissances des agents au sein du syst`eme, parce que ce qu'ils savent au sujet de l'environnement influe sur la mani`ere dont ils se comportent. Un outil utile pour l'analyse et la formalisation de ce que les agents savent, est la logique epistemique, une logique modale developpee par les philosophes du debut des annees 1960. La logique epistemique est la cle de la comprehension des connaissances dans les systemes multi-agents, mais elle est insuffisante si l'on veut etudier la facon dont la connaissance des agents evolue a travers le temps. Pour ce faire, il est necessaire de recourir a une logique qui allie des modalites dynamiques et epistemiques, appele la logique epistemique dynamique. Certaines formalisations de la logique epistemique dynamique utilisent la semantique de Kripke pour les etats et les actions, tandis que d'autres prennent une approche algebrique, et utilisent les structures ordonne dans leur semantique. Nous discutons plusieurs de ces logiques, mais nous nous concentrons principalement sur le cadre algebrique pour la logique epistemique dynamique. / Les approches adoptees dans le passe a la logique epistemique dynamique ont generalement ete axe sur les actions dont l'objectif principal est de communiquer des informations d'un agent a un autre. Ces actions sont dans l'impossibilite de modifier l' evaluation de toute proposition au sein du systeme. Dans des domaines tels que la securite et l' economie, il est facile d'imaginer des situations dans lesquelles ce type d'action serait insuffisante. Au lieu de cela, nous etendons le cadre algebrique pour inclure a la fois des actions de communication et des actions qui changent l' etat du systeme. En outre, nous proposons une nouvelle modalite qui permet de capturer a la fois les changements epistemiques et les changements propositionels qui resultent de l'action des agents.
146

Sequential decision making in non-stationary environments

Yu, Jia Yuan January 2010 (has links)
We consider the problem of sequential decision making in non-stationary environments. In order to avoid solutions that are too conservative, we capture the degree of non-stationarity in real-world problems through different mathematical models for the environment. In the first model, we add to the environment a state that follows Markovian dynamics subject to limited levels of non-stationary uncertainty. In the second model, we add non-stationary constraints to the environment. In the third model, we limit the frequency of non-stationary changes. In each of these models, we provide efficient learning algorithms and prove corresponding performance guarantees that depend critically on the degree of non-stationarity. / Nous étudions le problème de décisions séquentielles dans des environnements non-stationnaires. Pour éviter des solutions trop conservatrices, nous modélisons le degré de non-stationnarité à travers differents modèles mathématiques de l'environnement. Dans le premier modèle, nous ajoutons à l'environnement un état qui suit une dynamique Markovienne, sujet à des niveaux limités d'incertitude non-stationnaire. Dans le second modèle, nous ajoutons des contraintes non-stationnaires à l'environnement. Dans le troisième modèle, nous limitons la fréquence des changements non-stationnaires. Pour chaque modèle, nous présentons des algorithmes d'apprentissage efficients et prouvons des guaranties de performance qui dépendent du degré de non-stationnarité.
147

Generalized helicoids for hair modeling

Piuze-Phaneuf, Emmanuel January 2011 (has links)
The modeling of hair and hair-like patterns, including those of grass and fur, is recurrent in the computer graphics literature. The reproduction of the extensive variety of these arrangements, and their generation from scarce information, remains a challenge for the computational models that describe them. This thesis introduces a novel mathematical model of hair-like patterns to the field of computer graphics, one that is based on a class of minimal surfaces called generalized helicoids. This representation is characterized by intuitive parameters that control the curvature of a hair along its tangent, normal and binormal directions, and its elevation angle. This representation equips a hair with information not only about its own geometry but also about the geometric behavior of other hairs in its vicinity. A hair modeling framework is proposed to investigate these properties. This framework includes an implicit surface sampling method based on interacting particles for determining hair root locations. It also introduces algorithms for interpolating generalized helicoids from sparse hair samples as well as a fitting algorithm for modeling unparameterized hair datasets. The usefulness of the generalized helicoid is motivated via several applications including the generation of different types of hair geometry, hair interpolation, hair fitting and wisp generation. / La modélisation de cheveux et de structures s'apparentant aux cheveux, incluant celles de l'herbe et de la fourrure, est courante dans la littérature en informatique graphique. La reproduction de divers arrangements de cheveux, et leur génération à partir d'information limitée, reste un défi pour les modèles mathématiques de cheveux. Cette thèse introduit une nouvelle représentation mathématique de structures de cheveux au domaine de l'informatique graphique. Cette représentation est basée sur une classe de surfaces minimales appelée hélicoïdes généralisés, et est caractérisée par des paramètres intuitifs contrôlant la courbure d'un cheveux le long de ses directions tangents, normales, et binomiales, ainsi que son angle d'élévation. Non seulement cette représentation équipe-t-elle un cheveux avec de l'information sur sa propre géométrie, mais elle indique aussi le comportement géométrique des autres cheveux dans son voisinage. Afin d'étudier ces propriétés, une plateforme de modélisation de cheveux est proposée. Cette plateforme inclut une méthode d'échantillonnage pour surface implicite basée sur l'interaction de particules afin de déterminer l'emplacement de la racine des cheveux. Elle présente aussi des algorithmes pour interpoler des hélicoïdes généralisés à partir d'échantillons de cheveux clairsemés ainsi qu'un algorithme de fitting (ajustement) pour la modélisation d'ensembles de données comportant des cheveux non paramétrisés. L'utilité de l'hélicoïde généralisé est motivée par plusieurs applications, notamment la reproduction de différents types de géométrie de cheveux, l'interpolation de cheveux, le fitting de cheveux, et la génération de brins de cheveux.
148

Bridging the ontological gap between semantic web and the RESTful web services

Jin, Yuan January 2011 (has links)
Data are produced in large quantities and in various forms around the globe everyday. Researchers advance their research depending on the availability of necessary data and the discovery of them. As people's demand to manage the data grows, however, three problems appear to hinder the attempts to effectively leverage the data. One is the semantic heterogeneity found in linking different data sources. Database designers create data with different semantics; even data within the same domain may differ in meaning. If users want to acquire all the obtainable information, they have to write different queries with different semantics. One solution to such a problem is the use of ontology. An ontology is defined as a specification for the concepts of an agent (or a community of agents) and the relationships between them (Gruber 1995). Concepts and relationships between concepts are extracted from the data to form knowledge network. Other parties wishing to connect their data to the knowledge network could share, enrich and distribute the vocabulary of the ontology. Users could also write queries to the ontology by any RDF query language (Brickly 2004). The use of ontology is part of the Web 3.0's effort to provide a semantic-sensitive global knowledge network. A second problem is about new ways to access data resources with ontology information. People used to build application-specific user interfaces to databases, which were offline. Now many choose to expose data in Web Services. Web services are a system to provide HTTP-based remote request calling services that are described in a machine-readable format (Haas and Brown 2004). They usually provide application (or web) programming interfaces to manage data. The question is Web Services are born in a world of applications relying on conventional ways to connect to data sources. For example, D2RQ (Bizer and Seaborne 2004) translates queries against ontology to SQL queries and it depends on JDBC to read from relational databases. Now the interfaces for these data sources are going to be changed. The Semantic Web world faces the challenge to lose data sources. If Web Services were going to spread over the Internet one day, this lack of connection would hold back me from applying the ontology to connect to heterogeneous data sources.A third problem (or constraint) is working within the specific project domain. I embed this within a humanities cyberinfrastructure that integrates Chinese biographical, historical and geographical data. The data sources come in various forms – local and remote relational databases and, RESTful Web Services. Working with both legacy databases and the new web application interfaces narrowed down my choice of solutions. Commercial products provide ways to "ontologicalize" the Web Services. I argue that they are heavyweight (e.g. unnecessary components bound with the product) and cost-prohibitive for small-scale projects like ours. Several mature open source solutions featuring working with relational databases provide no or very limited access to Web Services. For example, no clue is found in D2RQ to join Web Services into their system, while OpenLink Virtuoso answers calls for SOAP but cannot manage data from RESTful Web Services. I propose to build a connection between ontologies and Web Services. I devise the metadata to represent non-RDF Web Services in ontology, and I revise the code and create new data structures in D2RQ to support ontology queries to data from RESTful Web Services. / Les données sont produites en grandes quantités et sous diverses formes dans le monde et tous les jours. Les chercheurs avancer leurs recherches en fonction de la disponibilité des données nécessaires et la découverte de leur. Comme la demande des gens pour gérer les données croît, toutefois, trois problèmes semblent entraver les tentatives d'exploiter efficacement les données. La première est l'hétérogénéité sémantique dans reliant différentes sources de données. Concepteurs de créer des données de base de données avec une sémantique différente; même les données dans le même domaine peuvent avoir une signification différente. Si les utilisateurs souhaitent obtenir toute l'information obtenue, ils doivent écrire des requêtes différentes avec une sémantique différente. Une solution à ce problème est l'utilisation de l'ontologie. Une ontologie est définie comme une spécification pour les concepts d'un agent (ou d'une communauté d'agents) et les relations entre eux (Gruber 1995). Concepts et les relations entre les concepts sont extraites des données pour former réseau de connaissances. Les autres parties qui souhaitent se connecter leurs données au réseau de connaissances pourraient partager, enrichir et diffuser le vocabulaire de l'ontologie. Les utilisateurs peuvent aussi écrire des requêtes à l'ontologie par une requête RDF langue (Brickley 2004). L'utilisation de l'ontologie est une partie de l'effort de Web 3.0 pour fournir un réseau de connaissances sémantiques sensibles mondiale.Un deuxième problème est sur le point de nouvelles façons d'accéder aux données des ressources de l'information ontologie. Les gens de construire des interfaces utilisateur des applications spécifiques aux bases de données, qui ont été mises hors. Maintenant, de nombreux fournisseurs de données choisir pour exposer les données des services web. Les services web sont un système pour fournir la demande HTTP à distance d'appeler les services qui sont décrits dans un format lisible par machine (Haas and Brown 2004). Par exemple, D2RQ (Bizer and Seaborne 2004) se traduit par des requêtes sur l'ontologie de requêtes SQL, et cela dépend de JDBC pour lire à partir des bases de données relationnelles. Maintenant, les interfaces de ces sources de données vont être modifiées. Le monde du web sémantique doit relever le défi de perdre des sources de données. Si les services web ont été va se répandre sur Internet, un jour, ce manque de connexion tiendrait nous ramène de l'application de l'ontologie de se connecter à des sources de données hétérogènes.Un troisième problème (ou contrainte) est travailler dans le domaine des projets spécifiques. Nous incorporer cela dans une cyber-infrastructure qui intègre les sciences humaines chinois biographiques, des données historiques et géographiques. Les sources de données prennent des formes diverses - bases de données locales et distantes relationnelles et, les services web RESTful. Travailler avec les anciennes bases de données à la fois et l'application web de nouvelles interfaces rétréci vers le bas notre choix de solutions. Produits commerciaux offrent des moyens à ontologicalize les services web. Nous soutenons qu'ils sont lourds (par exemple, les composants inutiles liés au produit) et ils sont coûteuse pour les projets à petite échelle, comme notre projet. Plusieurs solutions open source mature offrant de travailler avec des bases de données relationnelles ne fournissent pas ou peu accès aux services Web. Nous proposons de construire un lien entre les ontologies et les services web. Nous trouver les métadonnées pour représenter les non-RDF services web dans l'ontologie, et nous revoir le code et créer de nouvelles structures de données en D2RQ à l'appui des requêtes ontologie à partir des données des services web RESTful.
149

McFLAT: A profile-based framework for Matlab loop analysis and transformations

Aslam, Amina January 2011 (has links)
Parallelization and optimization of the MATLAB® programming language presents severalchallenges due to the dynamic nature of MATLAB. Since MATLAB does not have statictype declarations, neither the shape and size of arrays, nor the loop bounds are known atcompile-time. This means that many standard array dependence tests and associated transformationscannot be applied straight-forwardly. On the other hand, many MATLAB programsoperate on arrays using loops and thus are ideal candidates for loop transformationsand possibly loop vectorization/parallelization.This thesis presents a new framework, McFLAT, which uses profile-based training runs todetermine likely loop-bounds ranges for which specialized versions of the loops may begenerated. The main idea is to collect information about observed loop bounds and hotloops using training data which is then used to heuristically decide upon which loops andwhich ranges are worth specializing using a variety of loop transformations.Our McFLAT framework has been implemented as part of the McLAB extensible compilertoolkit. Currently, McFLAT is used to automatically transform ordinary MATLAB code intospecialized MATLAB code with transformations applied to it. This specialized code can beexecuted on any MATLAB system, and we report results for four execution engines, Mathwork'sproprietary MATLAB system, the GNU Octave open-source interpreter, McLAB'sMcVM interpreter and the McVM JIT. For several benchmarks, we observed significantspeedups for the specialized versions, and noted that loop transformations had differentimpacts depending on the loop range and execution engine.This thesis reports on the design and implementation of McFLAT, a framework that isdesigned to study the effect of various loop transformations on different loop-bound rangesby introducing loop-level specializations in MATLAB programs. / La parallelisation et l'optimisation du langage de programmation informatique MATLAB®représente plusieurs défis compte tenu du caractère dynamique de ce dernier.Puisque MATLAB ne possède pas de déclaration de type statique, ni son profil et la tailledes matrices ni les boucles limites, sont connus au temps de compilation. Cela signifieque plusieurs tests standardisés de la dépendance des matrices et de ses transformationsassociées ne peuvent pas ˆ etre appliqués dans une manière directe. D' autre part, plusieursprogrammes MATLAB sont opérés sur les matrices en utilisant les boucles et donc sontdes candidats idéals pour la transformation en boucle et possiblement la vectorisation enboucle/parallelisation.Cette hypothèse présente un nouveau cadre, McFLAT, qui exécute des entrainements basessur des profils afin de déterminer la portée des éventuelles boucles-limites pour qui des versionsspécialisées des boucles pourraient ˆ etre générées. L'idée principale est de faire une collecte d'information concernant les boucles en observation ainsi que les boucles chaudsen capitalisant sur les données d'entrainement qui sont ensuite utilisées pour décider heuristiquementsur quels boucles et limites il faut se spécialiser en utilisant une variété detransformateurs de boucles.Notre cadre McFLAT a été implémenté en tant que composant de McLAB extensible compilertoolkit. Actuellement, McFLAT, est utilisé pour transformer automatiquement le codeordinaire MATLAB en code spécialisé MATLAB avec des transformations appliquées à cedernier. Ce code spécialisé pourrait ensuite être exécuté sur tout systéme matlab et nouslivrons les résultats de quatre moteurs d'exécution, Mathwork's proprietary MATLAB system,le GNU Octave source-libre interprète, l'interprète McVM de mclab et le McVM JIT. Pour plusieurs repères, nous observons une rapidité significative pour les versions spécialisées, et on note que les transformations en boucle ont eu différents impacts qui dépendent de la limite des boucles et du moteur d'exécution.Ce mémoire se focalise sur le dessin et l'implémentation de McFLAT, un cadre qui estdésigné pour étudier les effets de plusieurs transformations en boucle sur plusieurs niveauxde boucles-limites en introduisant des spécialisations au niveau des boucles dans les programmes MATLAB.
150

Resisting whitewashing: a comparative study of fixed identity, pseudonym, and social identity

Xu, Yijia January 2012 (has links)
The Internet has broadened the meaning of identity. In real life, we normally have fixed identities. Earlier on the Internet, pseudonym was invented to identify users. As social networks came into play, social identity was introduced. While fixed identity is the most secure one, it restricts the freedom people have on the Internet. Although pseudonym is the easiest one to create among the three identity types, it makes it equally easy for malicious users to cheat on other people. One way malicious users can perform attacks on others with pseudonym is by whitewashing, where the malicious user takes advantage of the victim, with either pre-designed plots or simply by breaking pre-defined rules, and disappear on the network but later re-join the network with a new identity so that no one would know about his previous activities. Social identity differs from the other two by making use of the relations between two people and protecting both the individual user's privacy and the organization's security. This thesis studies the effect of whitewashing under different identity types and compares their behaviors of resisting whitewashing. We use game theory to model the process of whitewashing and compute its effect upon the whole population for each identity type. In most of the cases, social identity is better at eliminating whitewashers. Besides, the Matlab simulation experiments reveal additional interesting facts about the three identity types that might shed light on future identity management schemes. / Le sens du mot "identité" s'élargit dans le contexte d'Internet. Dans la vraie vie, sauf dans des cas très particuliers, nous avons une identité fixe. Très tôt sur Internet, on a eu recours aux pseudonymes pour identifier les usagers. Avec l'évolution des réseaux sociaux est venue l'identité sociale ("social identity" en Anglais). Bien qu'elle représente le mode d'identité le plus sécuritaire, l'identité fixe impose des limites importantes qui la rendent difficile d'utilisation sur Internet. Parmi les trois modes d'identité, le pseudonyme est le plus facile à créer, mais il permet aussi aux usagers malveillants de facilement abuser de la confiance des autres. Suite aux actes malhonnêtes (arnaques ou non respect des règles établies, par exemple), un usager malveillant peut changer de pseudonyme pour blanchir son identité ("whitewashing" en anglais). Il disparaît donc du réseau pendant un certain temps pour réapparaitre plus tard sous une nouvelle identité aucunement liée à l'ancienne. L'identité sociale diffère de l'identité fixe et des pseudonymes en se basant sur les relations entre deux personnes tout en protégeant la vie privée de l'utilisateur et la sécurité de l'organisation.Cette thèse analyse les effets du blanchissage selon le mode d'identité utilisé et compare les différents comportements de résistance au blanchissage. La théorie des jeux est utilisée pour modéliser le blanchissage et calculer son effet sur la population pour chaque mode d'identité utilisé. Dans la majorité des cas, l'identité sociale est plus apte à éliminer les blanchisseurs. Des simulations Matlab révèlent aussi des faits intéressants au sujet des trois modes d'identité qui pourraient aider à l'élaboration de futurs systèmes de gestion d'identité.

Page generated in 0.0694 seconds