• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 307
  • 90
  • 64
  • 41
  • 20
  • 15
  • 12
  • 9
  • 9
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • Tagged with
  • 678
  • 93
  • 79
  • 48
  • 45
  • 44
  • 44
  • 41
  • 40
  • 38
  • 37
  • 37
  • 36
  • 34
  • 34
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Strongly Private Communications in a Homogeneous Network / Communications anonymes dans un réseau homogène

Guellier, Antoine 22 May 2017 (has links)
L’avènement de l’ère digitale a changé la façon dont les individus communiquent à travers le monde, et a amené de nouvelles problématiques en terme de vie privée. La notion d’anonymat la plus répandue pour les communications sur Internet consiste à empêcher tout acteur du réseau de connaître à la fois l’expéditeur d’un message et son destinataire. Bien que ce niveau de protection soit adéquat pour l’utilisateur d’Internet moyen, il est insuffisant lorsqu’un individu peut être condamné pour le simple envoi de documents à une tierce partie. C’est le cas en particulier des lanceurs d’alerte, prenant des risques personnels pour informer le public de pratiques illégales ou antidémocratiques menées par de grandes organisations. Dans cette thèse, nous envisageons un niveau d’anonymat plus fort, où l’objectif est de dissimuler le fait même qu’un utilisateur envoie ou reçoive des données. Pour cela, nous délaissons l’architecture client-serveur couramment utilisée dans les réseaux anonymes, en faveur d’une architecture entièrement distribuée et homogène, où chaque utilisateur remplit également le rôle de serveur relai, lui permettant de dissimuler son propre trafic dans celui qu’il relai pour les autres. Dans cette optique, nous proposons un nouveau protocole pour les communications pairs à pairs sur Internet. À l’aide de récents outils de preuves cryptographiques, nous prouvons que ce protocole réalise les propriétés d’anonymat désirées. De plus, nous montrons par une étude pratique que, bien que le protocole induise une grande latence dans les communications, il assure un fort anonymat, même pour des réseaux de petite taille. / With the development of online communications in the past decades, new privacy concerns have emerged. A lot of research effort have been focusing on concealing relationships in Internet communications. However, most works do not prevent particular network actors from learning the original sender or the intended receiver of a communication. While this level of privacy is satisfactory for the common citizen, it is insufficient in contexts where individuals can be convicted for the mere sending of documents to a third party. This is the case for so-called whistle-blowers, who take personal risks to alert the public of anti-democratic or illegal actions performed by large organisations. In this thesis, we consider a stronger notion of anonymity for peer-to-peer communications on the Internet, and aim at concealing the very fact that users take part in communications. To this end, we deviate from the traditional client-server architecture endorsed by most existing anonymous networks, in favor of a homogeneous, fully distributed architecture in which every user also acts as a relay server, allowing it to conceal its own traffic in the traffic it relays for others. In this setting, we design an Internet overlay inspired from previous works, that also proposes new privacy-enhancing mechanisms, such as the use of relationship pseudonyms for managing identities. We formally prove with state-of-the-art cryptographic proof frameworks that this protocol achieves our privacy goals. Furthermore, a practical study of the protocol shows that it introduces high latency in the delivery of messages, but ensures a high anonymity level even for networks of small size.
172

New AHP methods for handling uncertainty within the Belief Function Theory / De nouvelles méthodes, fondées sur l'AHP, pour traiter l'incertitude à l'aide de la théorie des fonctions de croyance

Ennaceur, Amel 29 May 2015 (has links)
L'aide à la décision multicritères regroupe des méthodes permettant de choisir la meilleure solution en fonction des différents critères et compte tenu des préférences des experts. Toutefois, ces préférences sont parfois exprimées de manière imparfaite. La théorie des fonctions de croyance modélise de manière souple les connaissances et fournit des outils mathématiques pour gérer les différents types d'imperfection. Ainsi dans cette thèse, nous nous intéressons à la prise de décision multicritères dans un cadre incertain en étendant la méthode d’Analyse Hiérarchique des Procédés (AHP) à la théorie des fonctions de croyance. Après avoir présenté les fondements théoriques de la méthode AHP, nous avons proposé une approche qui permet de réduire le nombre de comparaisons par paires en jugeant des sous-ensembles de critères et d’alternatives. En outre, nous avons examiné la dépendance entre les critères et les alternatives. Dans ce cas, l'incertitude au niveau des évaluations est donnée sous forme de masses conditionnelles. Une autre partie de nos travaux répond aux critiques concernant la procédure de comparaison. Pour cela, nous avons proposé deux approches. La première technique d’élicitation des jugements de l’expert est fondée sur des distributions de masses, alors que la seconde s'appuie sur des relations de préférence. Dans ce cadre, nous avons introduit un modèle qui permet de générer des distributions de masse quantitatives à partir des relations de préférence. Ainsi, nous avons développé une méthode multicritères qui permet d'imiter le raisonnement humain. Cette méthode produit des résultats meilleurs et plus robustes que les approches de la littérature. / Multi-criteria decision making is the study of identifying and choosing alternatives to find the best solution based on different criteria and considering the decision makers’ expectations. However, the expert assessments are sometimes expressed imperfectly. Belief function theory can then provide more flexible and reliable tools to manage different types of imperfection. Thus, in this thesis, we are interested in multi-criteria decision making in an uncertain framework by extending the Analytic Hierarchy Process (AHP) method to the belief function framework. After presenting the theoretical foundations of the AHP method, we proposed an approach that reduces the number of pair-wise comparisons by judging subsets of criteria and alternatives. In addition, we examined the dependence between the criteria and alternatives. In this case, the uncertainty is given in terms of conditional mass distributions. Another part of the work provides critical concerning the pair-wise comparison process. For this purpose, we proposed two approaches. The first expert judgment elicitation method is based on mass distributions, while the second one is based on preference relations. In this context, we have introduced a model that is able to generate quantitative mass distributions from preference relations. Thus, we have developed a multi-criteria decision making method that imitates human reasoning. This method gives better and more robust results than existing approaches.
173

Distributed and Privacy-Preserving Personal Queries on Personal Clouds / Requêtes distribuées respectueuses de la vie privée sur nuages personnels

Loudet, Julien 24 October 2019 (has links)
Dans un contexte où nous produisons de plus en plus de données personnelles et où nous contrôlons de moins en moins comment et par qui elles sont utilisées, une nouvelle manière de les gérer voit le jour: le « nuage personnel ». En partenariat avec la jeune pousse française Cozy Cloud (https://cozy.io) qui développe une telle technologie, nous définissons à travers ces travaux une manière collaborative d'interroger ces nuages personnels qui respecte la vie privée des utilisateurs.Pour y parvenir nous détaillons dans cette thèse trois contributions : (1) un ensemble de quatre prérequis que tout protocole doit respecter dans ce contexte particulier : l'aléa imposé qui empêche un attaquant d'influencer le déroulement de l'exécution, la dispersion des connaissances qui assure qu'aucun participant ne possède trop d'informations, l'atomicité des tâches qui diminue au maximum le rôle joué par chaque participant directement impliqué dans l'exécution et les communications cachées pour protéger l'identité des participants et les informations échangées ; (2) SEP2P un protocole se basant sur une table de hashage distribuée et CSAR, un protocole permettant de générer un nombre aléatoire, afin de générer une liste aléatoire et vérifiable d'acteurs en accord avec le premier prérequis ; et (3) DISPERS un protocole qui applique les trois derniers prérequis et découpe l'exécution d'une requête de sorte à minimiser les informations accédées par chaque acteur pour minimiser l'impact d'une fuite au cas où un attaquant aurait été sélectionné parmi ces mêmes acteurs. / In a context where we produce more and more personal data and where we control less and less how and by whom they are used, a new way of managing them is on the rise: the "personal cloud". In partnership with the french start-up Cozy Cloud (https://cozy.io) that is developing such technology, we propose through this work a way of collaboratively querying the personal clouds while preserving the privacy of the users.We detail in this thesis three contributions to achieve this objective: (1) a set of four requirements any protocol has to respect in this particular context: imposed randomness to prevent an attacker from influencing the execution of a query, knowledge dispersion to prevent any node from concentrating information, task atomicity to split the execution in as many independent tasks as necessary and hidden communications to protect the identity of the participants as well as the content of their communications; (2) SEP2P a protocol leveraging a distributed hash table and CSAR, another protocol that generates a verifiable random number, in order to generate a random and verifiable list of actors in accordance with the first requirement; and (3) DISPERS a protocol that applies the last three requirements and splits the execution of a query so as to minimize the impact of a leakage (in case an attacker was selected as actor) by providing to each actor the minimum amount of information it needs in order to execute its task.
174

Doma je doma? Expati a jejich formy utváření domova / Home sweet home? Expats and their various ways of creating a home

Holubová, Kateřina January 2015 (has links)
This study focuses on expats, professionals and specialists from English-speaking countries who were sent by their employers to work abroad in Switzerland. They together with their families, were asked to move to a foreign country and start new lives. Although the relocation does bring a change in career and in most cases, a better personal economic situation, it also brings with it, big life changes. The most obvious changes are associated with separation from their ancestral homes and families, and the need for the establishment of new ones. The central point of this study is the question of what helps to create these new homes and what is involved in this sphere. The fieldwork, which was defined by cohabitation with the families, consisted of observation and analysis to determine the social and material practices through which expatriate families relate to their homes - and how it was narratively reflected. Some major points of observation included the universal need for the families to have with them, objects of a material nature that linked their new home to the original and contemporary home, and a tendency to establish social ties with other expats as a substitution of the family support network. Also observed were the aspects of the adaptation of the family members to their new homes and...
175

Epaulet Color and Sexual Selection in the Red-Winged Blackbird: A Field Experiment

Yasukawa, Ken, Enstrom, David A., Parker, Patricia G., Jones, Thomas C. 01 November 2009 (has links)
The epaulets of male Red-winged Blackbirds (Agelaius phoeniceus) function in both intersexual and intrasexual contexts, but there is little evidence that they covary with reproductive success in this well-studied species. We used path analysis of male/territory traits, mating success, and reproductive success of unmanipulated males to estimate current directional selection. Territory size had a positive effect on number of within-pair mates. Number of extra-pair mates had a positive effect on number of extra-pair fledglings, and number of within-pair and extra-pair fledglings had positive effects on total number of fledglings. We also reddened epaulets of free-living territorial males to determine whether manipulated and control males differ in territorial behavior, mating success, or reproductive success. Compared with control males, males with reddened epaulets incurred elevated rates of trespassing and territorial challenges, lost their territories more often, and were unable to produce extra-pair offspring. Despite these differences, however, the realized reproductive success of experimental and control males did not differ significantly, perhaps because males with reddened epaulets devoted more time to anti-predator vigilance and were more aggressive toward a simulated predator than were control males. An apparent lack of current sexual selection on epaulet color may be a form of counter-balancing sexual selection in which male aggression against redder epaulets opposes female preference for redder epaulets, or it might be the result of males compensating for lost extra-pair fertilizations by increasing their parental care.
176

Scalable services for massively multiplayer online games / Services passant à l'échelle pour les jeux massivement multi-joueurs en ligne

Veron, Maxime Pierre Andre 25 September 2015 (has links)
Les jeux massivement multi-joueurs en ligne (jeux MMOGs) visent à rassembler un nombre infini de joueurs dans le même univers virtuel. Pourtant, tous les MMOG existants reposent sur des architectures client / serveur centralisé qui imposent une limite sur le nombre maximum de joueurs (avatars) et sur les ressources qui peuvent coexister dans un univers virtuel donné. Cette thèse vise à proposer des solutions pour améliorer l'évolutivité de MMOG. Cette thèse explore deux services qui sont essentiels à toutes les variantes de MMOG: jumelage et détection de triche. Ces deux services sont les goulots d'étranglement connus, et pourtant les implémentations actuelles restent centralisées. Cette thèse montre également qu'il est possible de concevoir un service d'arbitrage au-dessus d'un système de réputation. Le service résultant reste très efficace sur une grande échelle, à la fois en termes de performance et en termes de prévention de la fraude. Comme l'arbitrage est un problème similaire à la détection de fautes, cette thèse étend l'approche proposée pour surveiller les défaillances. / Massively Multi-player Online Games (MMOGs) aim at gathering an infinite number of players within the same virtual universe. Yet all existing MMOGs rely on centralized client/server architectures which impose a limit on the maximum number of players (avatars) and resources that can coexist in any given virtual universe. This thesis aims at proposing solutions to improve the scalability of MMOGs. To address the wide variety of their concerns, MMOGs rely on independent services such as virtual world hosting, avatar storage, matchmaking, cheat detection, and game design. This thesis explores two services that are crucial to all MMOG variants: matchmaking and cheat detection. Both services are known bottlenecks, and yet current implementations remain centralized. This thesis also shows that it is possible to design a peer to peer refereeing service on top of a reputation system. The resulting service remains highly efficient on a large scale, both in terms of performance and in terms of cheat prevention. Since refereeing is somewhat similar to failure detection, this thesis extends the proposed approach to monitor failures. The resulting failure detection service scales with the number of monitored nodes and tolerates jitter.
177

Information Diffusion in Complex Networks : Measurement-Based Analysis Applied to Modelling / Phénomènes de diffusion sur les grands réseaux : mesure et analyse pour la modélisation

Faria Bernardes, Daniel 21 March 2014 (has links)
Dans cette thèse nous avons étudié la diffusion de l'information dans les grands graphes de terrain, en se focalisant sur les patterns structurels de la propagation. Sur le plan empirique, il s'est avéré difficile de capturer la structure des cascades de diffusion en termes de mesures simples. Sur le plan théorique, l'approche classique consiste à étudier des modèles stochastiques de contagion. Néanmoins, l'analyse formelle de ces modèles reste limité, car les graphes de terrain ont généralement une topologie complexe et le processus de diffusion se produit dans une fenêtre de temps limitée. Par conséquent, une meilleure compréhension des données empiriques, des modèles théoriques et du lien entre les deux est également cruciale pour la caractérisation de la diffusion dans les grands graphes de terrain. Après un état de l'art sur les graphes de terrain et la diffusion dans ce contexte au premier chapitre, nous décrivons notre jeu de données et discutons sa pertinence au chapitre 2. Ensuite, dans le chapitre 3, nous évaluons la pertinence du modèle SIR simple et de deux extensions qui prennent en compte des hétérogénéités de notre jeu de données. Dans le chapitre 4, nous explorons la prise en compte du temps dans l'évolution du réseau sous-jacent et dans le modèle de diffusion. Dans le chapitre 5, nous évaluons l'impacte de la structure du graphe sous-jacent sur la structure des cascades de diffusion générées avec les modèles étudiés dans les chapitres précédents. Nous terminons la thèse par un bilan des résultats et des perspectives ouvertes par les travaux menés dans cette thèse. / Understanding information diffusion on complex networks is a key issue from a theoretical and applied perspective. Epidemiology-inspired SIR models have been proposed to model information diffusion. Recent papers have analyzed this question from a data-driven perspective. We complement these findings investigating if epidemic models calibrate with a systematic procedure are capable of reproducing key spreading cascade properties. We first identify a large-scale, rich dataset from which we can reconstruct the diffusion trail and the underlying network. Secondly, we examine the simple SIR model as a baseline model and conclude that it was unable to generate structurally realistic spreading cascades. We found the same result examining model extensions to which take into account heterogeneities observed in the data. In contrast, other models which take into account time patterns available in the data generate qualitatively more similar cascades. Although one key property was not reproduced in any model, this result highlights the importance of taking time patterns into account. We have also analyzed the impact of the underlying network structure on the models examined. In our data the observed cascades were constrained in time, so we could not rely on the theoretical results relating the asymptotic behavior of the epidemic and network topological features. Performing simulations we assessed the impact of these common topological properties in time-bounded epidemic and identified that the distribution of neighbors of seed nodes had the most impact among the investigated properties in our context. We conclude discussing identifying perspectives opened by this work.
178

Physically-Based Realizable Modeling and Network Synthesis of Subscriber Loops Utilized in DSL Technology

Yoho, Jason Jon 07 December 2001 (has links)
Performance analysis of Digital Subscriber Line (DSL) technologies, which are implemented on existing telephone subscriber loops, is of vital importance to DSL service providers. This type of analysis requires accurate prediction of the local loop structure and precise identification of the cable parameters. These cables are the main components of the loop and are typically comprised of multi-conductor twisted pair type currently being used on existing telephone subscriber loops. This system identification problem was investigated through the application of single port measurements, with preference being placed on measurements taken from the service provider's end of the loop under investigation. Once the cabling system has been identified, the performance analysis of the loop was obtained through simulation. Accurate modeling is an important aspect of any system identification solution; therefore, the modeling of the twisted pair cables was thoroughly investigated in this research. Early modeling attempts of twisted pair cabling systems for use with (DSL) technology has not been vigorously investigated due to the difficulty in obtaining wideband physical data necessary for the task as well as the limitations of simulators to accurately model the skin effects of the conductors. Models are developed in this research that produce a wideband representation of the twisted pair cables through the use of the data measured in high frequency spectra. The twisted-pair cable models were then applied to the system identification problem through a de-embedding type approach. The identification process accurately characterizes the sections of the subscriber loop closest to the measurements node, and these identified sections were then modeled and de-embedded from the system measurement in a layer removing, or "peeling", type process. After each identified section was de-embedded from the system measurement, the process was repeated until the entire system was identified. Upon completion of the system identification process, the resulting system model was simulated between the central office (CO) and resulting identified customer nodes for the evaluation of performance analysis. The performance analysis allows the providers to identify points where the DSL technology is feasible, and where so, the rates of the data transfer to the nodes that can be expected. / Ph. D.
179

Traitement de Requêtes Top-k dans les Communautés Virtuelles P2P de Partage de Données

Dedzoe, William Kokou 30 November 2011 (has links) (PDF)
Dans les communautés virtuelles pair-à-pair (P2P) de partage de données, les requêtes top-k présentent deux avantages principaux. Premièrement, elles permettent aux participants de qualifier les résultats de leurs requêtes par rapport aux données partagées dans le système et ceci en fonction de leurs préférences individuelles. Deuxièmement, elles évitent de submerger les participants avec un grand nombre de réponses. Cependant, les techniques existantes pour le traitement des requêtes top-k dans un environnement complètement distribué présentent l'inconvénient d'un temps d'attente important pour l'utilisateur. Ce temps d'attente est encore très long plus le système est surchargé. Dans un premier temps, nous revisitons le problème du temps d'attente de l'utilisateur dans le traitement des requêtes top-k en introduisant deux nouvelles mesures : le temps de stabilisation et la qualité restante cumulée. En complément des mesures existantes, elles permettent de qualifier plus précisément le comportement d'un algorithme top-k. Dans un deuxième temps, nous proposons une famille d'algorithmes (ASAP), permettant de retourner à l'utilisateur les résultats de bonne qualité le plus tôt possible. Enfin, nous nous intéressons au problème du traitement des requêtes top-k dans le cadre des systèmes P2P surchargés, particulièrement critique pour les solutions classiques, en proposant une nouvelle approche (QUAT). Cette solution fait usage de descriptions synthétiques des données des pairs pour permettre aux pairs de traiter en priorité les requêtes pour les quelles ils peuvent fournir des résultats de bonne qualité.
180

The Solo First Pair Second Programming Model

Wickström, Carina, Holmquist, Robin January 2021 (has links)
Software is fundamental to life in modern society. We have come to depend on it for critical aspects such as managing bank transactions and medical records. However, code defects in software is a common issue, and software not working properly has the potential to cause major damage to both humans and the environment. Many attempts have been made in order to improve software development in order to reduce code defects, among other aspects. One such attempt is the invention of the practice pair programming, where two programmers share and work together on a single workstation. The more traditional way of developing software is solo programming, where each developer is assigned an individual workstation. However, the issue with code defects still remains. Hence, there is a need for better methods for reducing software defects. The purpose of this thesis is to create a software development model for reducing software defects. The model suggested in this thesis is a combined practice where coding with solo programming is followed by re-coding with pair programming called Solo First Pair Second Programming (SFPSP). The goal is to help software development teams to develop more reliable software. Our research was qualitative with support from quantitative data. The research included a literature study and an action study. The literature study was done in order to create a first version of SFPSP entirely based on literature, whereas the action study was done in order to evaluate as well as refine SFPSP based on practical experience. The results of this thesis is the practice SFPSP as well as an evaluation of said practice. Our evaluation shows that SFPSP leads to fewer code defects compared to solo programming. However, the cost with regard to development time and effort is significantly higher for SFPSP compared to solo programming. SFPSP is based on both theoretical and practical knowledge, and has therefore a solid foundation to build upon. Our literature study verified that no practice like SFPSP existed before this thesis. / Programvara är grundläggande för livet i det moderna samhället. Vi är beroende av det för kritiska aspekter som att hantera banköverföringar och medicinska journaler. Kodfel i programvara är dock ett vanligt problem, och programvara som inte fungerar som den ska kan orsaka stora skador på både människor och miljön. Många försök har gjorts för att förbättra programvaruutveckling med målet att minska bland annat kodfel. Ett sådant försök är uppfinningen av praxisen parprogrammering, där två programmerare delar och arbetar tillsammans på en enda arbetsstation. Det mer traditionella sättet att utveckla programvara är soloprogrammering, där varje utvecklare tilldelas en individuell arbetsstation. Dock kvarstår problemet med kodfel. Därför finns det ett behov av bättre metoder för att minska kodfel. Syftet med denna avhandling är att skapa en programvaruutvecklingsmodell för att minska kodfel. Modellen som föreslås i denna avhandling är en kombinerad praxis där kodning med soloprogrammering följs av omkodning med parprogrammering, kallad Solo First Pair Second Programming (SFPSP). Målet är att hjälpa programvaruutvecklingsteam att utveckla mer pålitlig programvara. Vår forskning var kvalitativ med stöd av kvantitativ data. Forskningen omfattade en litteraturstudie och en aktionsstudie. Litteraturstudien gjordes för att skapa en första version av SFPSP helt baserad på litteraturen, medan aktionsstudien gjordes för att utvärdera och förfina SFPSP baserat på praktisk erfarenhet. Resultaten av denna avhandling är praxisen SFPSP samt en utvärdering av denna praxis. Vår utvärdering visar att SFPSP leder till färre kodfel jämfört med soloprogrammering. Dock visar den att kostnaden med avseende på utvecklingstid och ansträngning är betydligt högre för SFPSP jämfört med soloprogrammering. SFPSP bygger på både teoretisk och praktisk kunskap och har därför en stabil grund att bygga på. Vår litteraturstudie verifierade att det inte fanns någon praxis som SFPSP före denna avhandling.

Page generated in 0.2988 seconds