• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 34
  • 4
  • 3
  • Tagged with
  • 41
  • 16
  • 13
  • 13
  • 13
  • 12
  • 11
  • 11
  • 10
  • 10
  • 9
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Méthode d'indexation qualitative : application à un plan de veille relatif aux thérapies émergentes contre la maladie d'Alzheimer / Qualitative indexing process : applied to build a search strategy plan about stand out topics on Alzheimer's disease therapy

Vaugeois-Sellier, Nathalie 03 December 2009 (has links)
Dans le contexte de recherche et développement d’un nouveau traitement thérapeutique, le chercheur veut surveiller ses thématiques de recherche pour actualiser ses connaissances. Il a besoin d’accéder à l’information qui lui est utile directement sur son ordinateur. La prise en compte de la complexité d’un système biologique, révèle la très grande difficulté à traduire de façon linguistique toute une réflexion hypothétique. Nous proposons dans ce travail, un procédé détaché du système de langue. Pour ce faire, nous présentons une méthodologie basée sur une indexation qualitative en utilisant un filtrage personnalisé. L’index n’est plus d’ordre linguistique mais de type « liaisons de connaissances ». Cette méthode d’indexation qualitative appliquée à « l’information retrieval » contraste avec l’indexation documentaire et l’utilisation d’un thésaurus tel que le MeSH lorsqu’il s’agit d’exprimer une requête complexe. Le choix du sujet d’expérimentation sur la base de données Medline via PubMed constitue une démonstration de la complexité d’expression d’une problématique de recherche. Le thème principal est un traitement possible de la maladie d’Alzheimer. Cette expérience permet de mettre en avant des documents contenus dans Medline qui ne répondent pas ou peu à une indexation en mots-clés. Les résultats obtenus suggèrent qu’une « indexation en connaissances » améliore significativement la recherche d’information dans Medline par rapport à une simple recherche sur Google pratiquée habituellement par le chercheur. Assimilable à une veille scientifique, cette méthodologie ouvre une nouvelle collaboration entre professionnels de l’information et chercheurs / In the context of research and development for a new therapeutic treatment, the researcher seeks to monitor relevant research topics in order to update field-specific knowledge. Direct computer access to relevant information is required. The complexity of biological systems increases the great difficulty of translating some hypothetical reflections in a linguistic manner or by semiotics. In this study, we propose a detached process of the system of language. To do this, we will present a methodology based on a qualitative indexing using personalized filtering. The index is no longer of a linguistic nature but a sort of “connection of knowledge”. This method of qualitative indexing applied to information retrieval is in contrast with documentation indexing systems and the use of thesauruses such as MeSH when it pertains to formulating a complex request. The choice of the experimentation subject using Medline database via PubMed proves the complexity of research problem formulation. The main theme is a possible treatment of Alzheimer's disease. This experiment makes it possible to highlight the documents contained in Medline which provide few or no answers by indexing keywords. The results obtained suggest that an indexing knowledge significantly improves search results for information via Medline in comparison to “Google” searches habitually carried out by the researcher. Comparable to scientific awareness, this methodology opens new collaboration possibilities between information professionals and research
32

De l'usage des métadonnées dans l'objet sonore / The use of sound objects metadata

Debaecker, Jean 09 October 2012 (has links)
La reconnaissance des émotions dans la musique est un challenge industriel et académique. À l’heure de l’explosion des contenus multimédias, il nous importe de concevoir des ensembles structurés de termes, concepts et métadonnées facilitant l’organisation et l’accès aux connaissances. Notre problématique est la suivante : est-Il possible d'avoir une connaissance a priori de l'émotion en vue de son élicitation ? Autrement dit, dans quelles mesures est-Il possible d'inscrire les émotions ressenties à l'écoute d'une oeuvre musicale dans un régime de métadonnées et de bâtir une structure formelle algorithmique permettant d'isoler le mécanisme déclencheur des émotions ? Est-Il possible de connaître l'émotion que l'on ressentira à l'écoute d'une chanson, avant de l'écouter ? Suite à l'écoute, son élicitation est-Elle possible ? Est-Il possible de formaliser une émotion dans le but de la sauvegarder et de la partager ? Nous proposons un aperçu de l'existant et du contexte applicatif ainsi qu'une réflexion sur les enjeux épistémologiques intrinsèques et liés à l'indexation même de l'émotion : à travers lune démarche psychologique, physiologique et philosophique, nous proposerons un cadre conceptuel de cinq démonstrations faisant état de l'impossible mesure de l'émotion, en vue de son élicitation. Une fois dit à travers notre cadre théorique qu'il est formellement impossible d'indexer les émotions, il nous incombe de comprendre la mécanique d'indexation cependant proposée par les industriels et académiques. Nous proposons, via l'analyse d'enquêtes quantitatives et qualitatives, la production d'un algorithme effectuant des préconisationsd'écoute d’œuvres musicales. / Emotion recognition in music is an industrial and academic challenge. In the age of multimedia content explosion, we mean to design structured sets of terms, concepts and metadata facilitating access to organized knowledge. Here is our research question : can we have an a priori knowledge of emotion that could be elicited afterwards ? In other words, to what extent can we record emotions felt while listening to music, so as to turn them into metadata ? Can we create an algorithm enabling us to detect how emotions are released ? Are we likely to guess ad then elicit the emotion an individual will feel before listening to a particular song ? Can we formalize emotions to save, record and share them ? We are giving an overview of existing research, and tackling intrinsic epistemological issues related to emotion existing, recording and sharing out. Through a psychological, physiological ad philosophical approach, we are setting a theoretical framework, composed of five demonstrations which assert we cannot measure emotions in order to elicit them. Then, a practical approach will help us to understand the indexing process proposed in academic and industrial research environments. Through the analysis of quantitative and qualitative surveys, we are defining the production of an algorithm, enabling us to recommend musical works considering emotion.
33

De l'usage des métadonnées dans l'objet sonore

Debaecker, Jean 12 October 2012 (has links) (PDF)
La reconnaissance des émotions dans la musique est un challenge industriel et académique. À l'heure de l'explosion des contenus multimédias, il devient nécessaire de concevoir des ensembles structurés de termes et concepts facilitant l'organisation et l'accès aux connaissances. Dans les bibliothèques musicales, l'analyse des sentiments et la classification par émotion sont très émergentes et demeurent un objet de recherche ambitieux. La gestion des contenus d'un objet sonaore numérisé répond à une indexation documentaire à trois niveaux : " contenu - auctorialité - matérialisation ". Ce triptyque nous semble tomber en désuétude et ne correspond plus aux attentes de l'usager. L'information musicale appelle ainsi à une production et représentation nouvelle. Notre problématique est la suivante : est-il possible d'avoir une connaissance a priori de l'émotion en vue de son élicitation ? Autrement dit, dans quelles mesures est-il possible de bâtir une structure formelle algorithmique permettant d'isoler le mécanisme déclencheur des émotions? Est-il possible de connaître l'émotion que l'on ressentira à l'écoute d'une chanson, avant de l'écouter ? Suite à l'écoute, son élicitation est-elle possible ? Est-il possible de formaliser une émotion dans le but de la sauvegarder et, ou, de la partager ? Dans ce travail de thèse, nous proposons d'abord un aperçu de l'existant et du contexte applicatif. Plusieurs scénarios très concrets sont envisageables, parmi eux : un répondeur téléphonique triant les messages enregistrés en fonction de leur humeur ; recherche de musique apaisante après une journée de travail ; recherche de musique excitante pour accompagner une activité sportive ; recherche d'opinions sur les réseaux sociaux, etc. ; Dans une seconde partie nous proposons une réflexion sur les enjeux épistémologiques intrinsèques et liés à l'indexation même de l'émotion. La " mise en œuvre d'une solution d'indexation automatique fait appel à de nombreux domaines scientifiques ".1 Afin de saisir la complexité de l'indexation de l'émotion pour l'enrichissement des métadonnées, nous allons adopter une méthodologie exploratoire interdisciplinaire. En effet, à travers une démarche psychologique, physiologique et philosophique, nous proposerons un cadre conceptuel de cinq démonstrations faisant état de l'impossible mesure de l'émotion, en vue de son élicitation. Une fois dit, à travers notre cadre théorique, qu'il est formellement impossible d'indexer les émotions ; il nous incombe de comprendre la mécanique d'indexation cependant proposée par les industriels et académiques. La réalité du terrain est telle que plusieurs interfaces web ou logicielles proposent des services d'expérience de moteur de recherche fouillant une base de données, avec des métadonnées sur les émotions. Dans la dernière partie, nous proposerons, via des enquêtes quantitatives et qualitatives, une analyse afin de soumettre une matrice algorithmique basée sur le web social capable de faire des préconisations d'écoute d'œuvres musicales eu égards aux émotions.
34

Surveillance électronique et métadonnées : vers une nouvelle conception constitutionnelle du droit à la vie privée au Canada?

Thibeault, Alexandre 03 1900 (has links)
Ce mémoire traite de la portée de la protection constitutionnelle du droit à la vie privée informationnelle au Canada, au regard de la surveillance électronique gouvernementale à grande échelle des métadonnées des communications électroniques, à des fins de sécurité nationale. Il est soutenu, après une présentation de l’importance démocratique de la vie privée, de même que de la nature et de la portée de certaines activités gouvernementales de surveillance électronique, que le cadre d’analyse du « Biographical core », qui conditionne l’étendue de la protection de la vie privée informationnelle en droit constitutionnel canadien, est susceptible d’inclure les métadonnées des communications électroniques. Cette position est appuyée par un argumentaire juridique fondé sur les règles d’interprétation et la jurisprudence constitutionnelle pertinente. Cet argumentaire se trouve renforcé par potentiel considérablement révélateur des métadonnées, des particularités propres aux activités de surveillance électronique analysées, ainsi que des implications non-juridiques soulevées par ces dernières. / This master’s thesis focuses on the scope of the Canadian constitutional protection of the right to privacy, in view of the wide scale governmental electronic surveillance of electronic communications metadata, conducted for national security purposes. It is argued, following a detailed presentation of the nature and extent of certain specific governmental electronic surveillance activities, that the « Biographical core » analytical framework, governing the scope of the protection granted to informational privacy in Canadian constitutional law, is most likely applicable to electronic communications metadata. This position is directly supported by the relevant constitutional interpretation rules and cases. This is particularly true in light of the fact that metadata are, inherently, potentially significantly revealing, especially considering the capacities of an array of electronic surveillance activities, as well as the non-legal implications they entail for privacy.
35

La modélisation d'objets pédagogiques pour une plateforme sémantique d'apprentissage / The modeling of learning objects for a semantic learning platform

Balog-Crisan, Radu 13 December 2011 (has links)
Afin de rendre les objets pédagogiques (OP) accessibles, réutilisables et adaptables, il est nécessaire de les modéliser. Outre la forme et la structure, il faut aussi décrire la sémantique des OP. Ainsi, nous proposons un schéma de modélisation d'OP d'après la norme LOM (Learning Object Metadata), en utilisant un modèle de données de type RDF (Ressource Description Framework). Pour encoder, échanger et réutiliser les métadonnées structurées d'OP, nous avons implémenté l'application RDF4LOM (RDF for LOM). Le recours aux outils du Web sémantique nous permet de proposer le prototype d'une plateforme sémantique d'apprentissage (SLCMS), qui valorise à la fois les ressources internes, les OP modélisés avec RDF, ainsi que les ressources externes (wikis, blogs ou encore agendas sémantiques). L'architecture du SLCMS est basée sur un Noyau sémantique capable d'interpréter les métadonnées et de créer des requêtes intelligentes. Pour la description des contraintes sémantiques et des raisonnements sur les OP, nous utilisons les ontologies. Grâce à des ontologies précises et complètes, les OP seront « interprétables » et « compréhensibles » par les machines. Pour le module Quiz sémantique, nous avons modélisé l'ontologie Quiz et l'ontologie LMD. La plateforme sémantique d'apprentissage permet la recherche d'OP pertinents, la génération de parcours personnalisés pour les apprenants et, en perspective, l'adaptabilité aux styles d'apprentissage. / In order to make Learning Objects (LO) accessible, reusable and adaptable, it is necessary to model them. Besides form and structure, one must also define the semantics associated with a given LO. Thus, we propose a modeling scheme for LOs that respects the LOM (Learning Object Metadata) standard and which uses a RDF-based (Resource Description Framework) data model. In order to encode, exchange and reuse such structured metadata for LOs, we have developed the RDF4LOM (RDF for LOM) application. By using Semantic Web tools, we are able to deliver a prototype of a semantic learning platform (SLCMS) that enhances internal resources, LOs modeled with RDF as well as external resources (semantic wikis, blogs or calendars). The architecture of this SLCMS is based upon a semantic Kernel whose role is to interpret metadata and create intelligent queries. We use ontologies, for the description of semantic constraints and reasoning rules concerning the LOs. By means of accurate and complete ontologies, the LOs will be machine-interpretable and also machine-understandable. For the semantic Quiz module, we have developed the Quiz and LMD ontologies. The semantic learning platform enables searching for appropriate LOs, generating personalized learning paths for learners and, as en evolution, adaptation to learning styles.
36

Gestion des risques appliquée aux systèmes d’information distribués / Risk management to distributed information systems

Lalanne, Vincent 19 December 2013 (has links)
Dans cette thèse nous abordons la gestion des risques appliquée aux systèmes d’information distribués. Nous traitons des problèmes d’interopérabilité et de sécurisation des échanges dans les systèmes DRM et nous proposons la mise en place de ce système pour l’entreprise: il doit nous permettre de distribuer des contenus auto-protégés. Ensuite nous présentons la participation à la création d’une entreprise innovante qui met en avant la sécurité de l’information, avec en particulier la gestion des risques au travers de la norme ISO/IEC 27005:2011. Nous présentons les risques liés à l’utilisation de services avec un accent tout particulier sur les risques autres que les risques technologiques; nous abordons les risques inhérents au cloud (défaillance d’un provider, etc...) mais également les aspects plus sournois d’espionnage et d’intrusion dans les données personnelles (Affaire PRISM en juin 2013). Dans la dernière partie nous présentons un concept de DRM d’Entreprise qui utilise les métadonnées pour déployer des contextes dans les modèles de contrôle d’usage. Nous proposons une ébauche de formalisation des métadonnées nécessaires à la mise en œuvre de la politique de sécurité et nous garantissons le respect de la réglementation et de la loi en vigueur. / In this thesis we discuss the application of risk management to distributed information systems. We handle problems of interoperability and securisation of the exchanges within DRM systems and we propose the implementation of this system for the company: it needs to permit the distribution of self-protected contents. We then present the (our) participation in the creation of an innovative company which emphasizes on the security of information, in particular the management of risks through the ISO/IEC 27005:2011 standard. We present risks related to the use of services, highlighting in particular the ones which are not technological: we approach inheritent risks in clouds (provider failure, etc ...) but also the more insidious aspects of espionage and intrusion in personal data (Case PRISM in June 2013). In the last section, we present a concept of a DRM company which uses metadata to deploy settings in usage control models. We propose a draft formalization of metadata necessary for the implementation of a security policy and guarantee respect of regulations and legislation.
37

Towards better privacy preservation by detecting personal events in photos shared within online social networks / Vers une meilleure protection de la vie privée par la détection d'événements dans les photos partagées sur les réseaux sociaux

Raad, Eliana 04 December 2015 (has links)
De nos jours, les réseaux sociaux ont considérablement changé la façon dont les personnes prennent des photos qu’importe le lieu, le moment, le contexte. Plus que 500 millions de photos sont partagées chaque jour sur les réseaux sociaux, auxquelles on peut ajouter les 200 millions de vidéos échangées en ligne chaque minute. Plus particulièrement, avec la démocratisation des smartphones, les utilisateurs de réseaux sociaux partagent instantanément les photos qu’ils prennent lors des divers événements de leur vie, leurs voyages, leurs aventures, etc. Partager ce type de données présente un danger pour la vie privée des utilisateurs et les expose ensuite à une surveillance grandissante. Ajouté à cela, aujourd’hui de nouvelles techniques permettent de combiner les données provenant de plusieurs sources entre elles de façon jamais possible auparavant. Cependant, la plupart des utilisateurs des réseaux sociaux ne se rendent même pas compte de la quantité incroyable de données très personnelles que les photos peuvent renfermer sur eux et sur leurs activités (par exemple, le cas du cyberharcèlement). Cela peut encore rendre plus difficile la possibilité de garder l’anonymat sur Internet dans de nombreuses situations où une certaine discrétion est essentielle (politique, lutte contre la fraude, critiques diverses, etc.).Ainsi, le but de ce travail est de fournir une mesure de protection de la vie privée, visant à identifier la quantité d’information qui permettrait de ré-identifier une personne en utilisant ses informations personnelles accessibles en ligne. Premièrement, nous fournissons un framework capable de mesurer le risque éventuel de ré-identification des personnes et d’assainir les documents multimédias destinés à être publiés et partagés. Deuxièmement, nous proposons une nouvelle approche pour enrichir le profil de l’utilisateur dont on souhaite préserver l’anonymat. Pour cela, nous exploitons les évènements personnels à partir des publications des utilisateurs et celles partagées par leurs contacts sur leur réseau social. Plus précisément, notre approche permet de détecter et lier les évènements élémentaires des personnes en utilisant les photos (et leurs métadonnées) partagées au sein de leur réseau social. Nous décrivons les expérimentations que nous avons menées sur des jeux de données réelles et synthétiques. Les résultats montrent l’efficacité de nos différentes contributions. / Today, social networking has considerably changed why people are taking pictures all the time everywhere they go. More than 500 million photos are uploaded and shared every day, along with more than 200 hours of videos every minute. More particularly, with the ubiquity of smartphones, social network users are now taking photos of events in their lives, travels, experiences, etc. and instantly uploading them online. Such public data sharing puts at risk the users’ privacy and expose them to a surveillance that is growing at a very rapid rate. Furthermore, new techniques are used today to extract publicly shared data and combine it with other data in ways never before thought possible. However, social networks users do not realize the wealth of information gathered from image data and which could be used to track all their activities at every moment (e.g., the case of cyberstalking). Therefore, in many situations (such as politics, fraud fighting and cultural critics, etc.), it becomes extremely hard to maintain individuals’ anonymity when the authors of the published data need to remain anonymous.Thus, the aim of this work is to provide a privacy-preserving constraint (de-linkability) to bound the amount of information that can be used to re-identify individuals using online profile information. Firstly, we provide a framework able to quantify the re-identification threat and sanitize multimedia documents to be published and shared. Secondly, we propose a new approach to enrich the profile information of the individuals to protect. Therefore, we exploit personal events in the individuals’ own posts as well as those shared by their friends/contacts. Specifically, our approach is able to detect and link users’ elementary events using photos (and related metadata) shared within their online social networks. A prototype has been implemented and several experiments have been conducted in this work to validate our different contributions.
38

La mise à disposition des œuvres et des informations sur les réseaux : régulation juridique et régulation technique

Dulong de Rosnay, Melanie 26 October 2007 (has links) (PDF)
Les développements techniques entraînent une croissance exponentielle de la circulation des œuvres et informations sur les réseaux. Les modèles de régulation de l'ère analogique élaborés sur la rareté du support sont remis en question par le numérique, fondé sur les paradigmes de la copie, de la réappropriation et du partage. Le droit d'auteur a été développé et adapté au rythme des innovations techniques de reproduction et de diffusion des œuvres, comme un correctif artificiel accordant une exclusivité temporaire d'exploitation. Il peut aussi conduire aux biens communs. Nous analysons comment droit et technique ont d'abord été pensés de manière indépendante. Les processus d'élaboration des normes et standards techniques et l'extension des droits exclusifs entraînent des tensions entre les industries culturelles et le public. Cette conception conduit à un enchevêtrement de lois et mesures techniques de protection au profit de la régulation technique. Nous proposons donc, dans la lignée de la lex informatica, un modèle fondé sur l'influence réciproque entre les disciplines, vers la reconception des catégories juridiques du droit d'auteur et vers une meilleure expression technique des droits. Le développement d'applications, d'ontologies et de métadonnées juridiques permet une automatisation de la régulation des échanges d'œuvres et d'informations. Mettant en œuvre une intégration plus équilibrée du droit et de la technique, ce modèle est notamment fondé sur l'analyse de licences et modèles contractuels qui se développent sur Internet, entre contrôle d'accès et biens communs.
39

La télévision, média de masse ou média individuel ? De la télévision traditionnelle à la e-télévision / Is television a mass media or an individual media? From traditional TV to e-television

Martin, Valérie 16 December 2015 (has links)
La télévision traditionnelle, « voix de la France » est un média de masse. Avec un taux d’équipement des foyers de plus de 98%, un taux d’écoute de plus de 3h50 par jour, un chiffre d’affaires publicitaires de plus de 4 Mrd EUR , et des « contenus rendez-vous » assurant des audiences record, cette télévision trône dans le salon et réunit la famille. Jusque dans les années 1980, elle reste placée sous le contrôle du pouvoir politique.Sous la Présidence de François Mitterrand, la télévision se libéralise. De nouvelles chaînes privées et commerciales financées par l’audience et la publicité apparaissent, tandis que le secteur public reste principalement financé par la redevance audiovisuelle. Dans les années 90, l’arrivée du câble et du satellite, puis de la TNT en 2005, permettent l’accroissement considérable du nombre de nouvelles chaînes et des offres de télévision (abonnements au câble, au satellite, et à Canal + en 1984). Le numérique révolutionne le secteur de la télévision, les technologies et les usages. Le nombre de chaînes continue de s’accroître de façon exponentielle. On voit se développer la production de contenus générés par les consommateurs (UGC), et l’interactivité est favorisée grâce aux réseaux sociaux. L’évolution des équipements changent les habitudes de consommation du petit écran, notamment pour les plus jeunes. L’ordinateur, la tablette, le Smartphone et la télévision connectée permettent de visionner « la télévision comme je veux, où je veux, quand je veux. ». Ainsi la télévision traditionnelle considérée comme un média de masse, tend à s’individualiser, et s’adapte aux goûts et aux envies de chacun. L’écosystème jusqu’à présent hexagonal est littéralement en train d’exploser pour faire face à l’internationalisation des contenus et à des acteurs audiovisuels majoritairement nord-américains. La réglementation devenue obsolète peine à trouver un nouveau cadre juridique à l’échelle française et européenne. Face à l’offre mondialisée, et les nouveaux usages de consommation notamment les usages délinéarisés (télévision de rattrapage, et Vidéo à la demande), la télévision continue néanmoins à fédérer le public autour de grands évènements d’actualité (évènements sportifs, politiques, journal télévisé du 20h…). Les profondes mutations et les changements rapides qui s’opèrent actuellement laissent planer une grande incertitude sur l’avenir de la télévision traditionnelle et faute de pouvoir s’adapter, celle-ci pourrait à plus ou moins long terme disparaitre… / Traditional TV, "Voice of France" is a mass medium. With a home ownership rate of over 98%, a viewing rate of l more than 3.50 hours, advertising revenue of over 4 billion euros , and “contenus Rendez-vous” bringing in record audiences, television rules over the living room, bringing the family together up into the 1980s. It is, however, controlled by the ruling political powers.Under the presidency of François Mitterrand, television was liberalized with the appearance of new private and commercial channels, financed by audiences and advertising, while the public sector continued to be funded by a license fee. In the 90s, the arrival of cable and satellite, followed by TNT in 2005, allowed the amazing increase of a number of new channels and TV services (« subscriptions to cable, satellite and finally Canal + in 1984 )But this evolution continues with the arrival of digital TV, revolutionizing the industry. It increases the number of channels exponentially, expands the production of content generated by consumers, and promotes interactivity through social networks. Technological advances are changing consumer habits with regard to the small screen, especially for young people. The computer, tablet, smartphone and the connected TV let you watch "television as I want, where I want, when I want”. Traditional TV, once considered as a mass media, is now a media that is individualized and that adapts to the tastes and desires of each viewer.The current financial system in France is literally exploding to deal with the internationalization of audiovisual content and players, with most of the content produced in North America.. Obsolete regulations can no longer keep pace with consumer demand in Europe and France. Faced with global supply and new viewing habits (delinearised viewing: replayand video on demand), television still continues to unite the public around major news events (sporting events, political events, the evening news …). The important, rapid changes now occurring in TV content and distribution lead to considerable uncertainty with regard to the future of traditional television, and unless it can adapt, it could more or less disappear in the long term.
40

Distribution multi-contenus sur Internet / Content distribution over Internet

Mnie Filali, Imane 27 September 2016 (has links)
Dans cette thèse, nous nous sommes intéressés aux protocoles pair-à-pair (P2P), qui représentent une solution prometteuse pour la diffusion et le partage de données à faible coût sur Internet. Nous avons mené, dans un premier temps, une étude comportementale de différents protocoles P2P pour le partage de fichier (distribution de contenus sans contrainte de temps) puis le live. Dans la première étude centréesur le partage de fichier, nous avons montré l’impact d’Hadopi sur le comportement des utilisateurs et discuté l’efficacité des protocoles en fonction du contenu et l’efficacité protocolaire, en se basant sur les choix des utilisateurs. BitTorrent s’est nettement démarqué au cours de cette étude, notamment pour les grands contenus. En ce qui concerne le live, nous nous sommes intéressés à la qualité de servicedu réseau de distribution live Sopcast, car plus de 60% des événements live diffusés en P2P le sont sur ce réseau. Notre analyse approfondie de ces deux modes de distribution nous a fait nous recentrer sur BitTorrent, qui est à la base de tous les protocoles P2P Live, et est efficace en partage de fichier et complètement open source. Dans la seconde partie de la thèse, nous avons proposé et implémenté dansun environnement contrôlé un nouveau protocole sur la base de BitTorrent avec des mécanismes protocolaires impliquant tous les pairs dans la gestion du réseau. Ces nouveaux mécanismes permettent d’augmenter l’efficacité du protocole via une meilleure diffusion, tant pour le live que le partage de fichier, de métadonnées (la pièce la plus rare) et via une méthode dite de push, par laquelle un client va envoyer du contenu aux pairs les plus dans le besoin / In this study, we focused on peer-to-peer protocols (P2P), which represent a promising solution for data dissemination and content delivery at low-cost in the Internet. We performed, initially, a behavioral study of various P2P protocols for file sharing (content distribution without time constraint) and live streaming. Concerning file sharing, we have shown the impact of Hadopi on users’ behavior and discussed the effectiveness of protocols according to content type, based on users’ choice. BitTorrent appeared as the most efficient approach during our study, especially when it comes to large content. As for streaming, we studied the quality of service of Sopcast, a live distribution network that accounts for more than 60% of P2P broadcast live events. Our in-depth analysis of these two distributionmodes led us to focus on the BitTorrent protocol because of its proven efficiency in file sharing and the fact that it is open source. In the second part of the thesis, we proposed and implemented a new protocol based on BitTorrent, in a controlled environment. The modifications that we proposed allow to increase the efficiency of the protocol through improved dissemination of metadata (the rarest piece), both for live and file sharing. An enhanced version is introduced with a push method, where nodes that lag behind receive an extra service so as to improve the overall performance

Page generated in 0.0412 seconds