• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 34
  • 5
  • 3
  • Tagged with
  • 43
  • 16
  • 13
  • 13
  • 13
  • 13
  • 11
  • 11
  • 10
  • 10
  • 9
  • 8
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Contributions à une nouvelle approche de Recherche d'Information basée sur la métaphore de l'impédance et illustrée sur le domaine de la santé / Contributions to a new information retrieving approach based on the impedance metaphor and illustrated on the health domain

Guemeida, Abdelbasset 16 October 2009 (has links)
Les récentes évolutions dans les technologies de l’information et de la communication, avec le développement de l’Internet, conduisent à l’explosion des volumes des sources de données. Des nouveaux besoins en recherche d’information émergent pour traiter l’information en relation aux contextes d’utilisation, augmenter la pertinence des réponses et l’usabilité des résultats produits, ainsi que les possibles corrélations entre sources de données, en rendant transparentes leurs hétérogénéités. Les travaux de recherche présentés dans ce mémoire apportent des contributions à la conception d’une Nouvelle Approche de Recherche d’Information (NARI) pour la prise de décision. NARI vise à opérer sur des grandes masses de données cataloguées, hétérogènes, qui peuvent être géo référencées. Elle est basée sur des exigences préliminaires de qualité (standardisation, réglementations), exprimées par les utilisateurs, représentées et gérées à l’aide des métadonnées. Ces exigences conduisent à pallier le manque de données ou leur insuffisante qualité, pour produire une information de qualité suffisante par rapport aux besoins décisionnels. En utilisant la perspective des utilisateurs, on identifie et/ou on prépare des sources de données, avant de procéder à l’étape d’intégration des contenus. L’originalité de NARI réside dans la métaphore de l’écart d’impédance (phénomène classique lorsque on cherche à connecter deux systèmes physiques hétérogènes). Cette métaphore, dont R. Jeansoulin est à l’origine, ainsi que l’attention portée au cadre réglementaire, en guident la conception. NARI est structurée par la dimension géographique (prise en compte de divers niveaux de territoires, corrélations entre plusieurs thématiques) : des techniques d’analyse spatiale supportent des tâches de la recherche d’information, réalisées souvent implicitement par les décideurs. Elle s’appuie sur des techniques d’intégration de données (médiation, entrepôts de données), des langages de représentation des connaissances et des technologies et outils relevant du Web sémantique, pour supporter la montée en charge, la généralisation et la robustesse théorique de l’approche. NARI est illustrée sur des exemples relevant de la santé / The recent developments in information and communication technologies along with the growth of the Internet have lead to the explosion of data source volumes. This has created many growing needs such as in information retrieval to: treat the information according to its usage context, to increase the relevance of answers and the usability of results, and to increase the potential correlations between results, which can be done by making the heterogeneities and source distribution transparent. Our contributions consist in designing a NARI (New Approach to Information Retrieval) for decision-making. NARI is designed to operate on large amounts of catalogued and heterogeneous data that can be geo-referenced. It is based on quality preliminary requirements expressed by users, which are represented and managed using metadata. These requirements lead to the lack of data or their insufficient quality in relation to decision-making needs. Using the users’ perspective, we identify and/or prepare the data sources, before integration step processing. NARI’s originality relies on the metaphor of the impedance mismatch (classical phenomenon when we try to connect two physical heterogeneous systems), due to R. Jeansoulin. This metaphor, as well as the attention paid to regulatory framework (standardization), guides the design of NARI. The geographical dimension structures NARI, taking into account various territorial levels, correlations between several themes. Thus, it takes advantage of spatial analysis techniques, by automating information retrieval tasks, often implicitly made by policy makers. NARI is based on data integration techniques (mediation, data warehouses), knowledge representation languages and a set of Semantic Web technologies and tools, adapted to support the scalability, robustness and generalization theory of the approach. NARI is illustrated on examples relevant to the health domain
32

Méthode d'indexation qualitative : application à un plan de veille relatif aux thérapies émergentes contre la maladie d'Alzheimer / Qualitative indexing process : applied to build a search strategy plan about stand out topics on Alzheimer's disease therapy

Vaugeois-Sellier, Nathalie 03 December 2009 (has links)
Dans le contexte de recherche et développement d’un nouveau traitement thérapeutique, le chercheur veut surveiller ses thématiques de recherche pour actualiser ses connaissances. Il a besoin d’accéder à l’information qui lui est utile directement sur son ordinateur. La prise en compte de la complexité d’un système biologique, révèle la très grande difficulté à traduire de façon linguistique toute une réflexion hypothétique. Nous proposons dans ce travail, un procédé détaché du système de langue. Pour ce faire, nous présentons une méthodologie basée sur une indexation qualitative en utilisant un filtrage personnalisé. L’index n’est plus d’ordre linguistique mais de type « liaisons de connaissances ». Cette méthode d’indexation qualitative appliquée à « l’information retrieval » contraste avec l’indexation documentaire et l’utilisation d’un thésaurus tel que le MeSH lorsqu’il s’agit d’exprimer une requête complexe. Le choix du sujet d’expérimentation sur la base de données Medline via PubMed constitue une démonstration de la complexité d’expression d’une problématique de recherche. Le thème principal est un traitement possible de la maladie d’Alzheimer. Cette expérience permet de mettre en avant des documents contenus dans Medline qui ne répondent pas ou peu à une indexation en mots-clés. Les résultats obtenus suggèrent qu’une « indexation en connaissances » améliore significativement la recherche d’information dans Medline par rapport à une simple recherche sur Google pratiquée habituellement par le chercheur. Assimilable à une veille scientifique, cette méthodologie ouvre une nouvelle collaboration entre professionnels de l’information et chercheurs / In the context of research and development for a new therapeutic treatment, the researcher seeks to monitor relevant research topics in order to update field-specific knowledge. Direct computer access to relevant information is required. The complexity of biological systems increases the great difficulty of translating some hypothetical reflections in a linguistic manner or by semiotics. In this study, we propose a detached process of the system of language. To do this, we will present a methodology based on a qualitative indexing using personalized filtering. The index is no longer of a linguistic nature but a sort of “connection of knowledge”. This method of qualitative indexing applied to information retrieval is in contrast with documentation indexing systems and the use of thesauruses such as MeSH when it pertains to formulating a complex request. The choice of the experimentation subject using Medline database via PubMed proves the complexity of research problem formulation. The main theme is a possible treatment of Alzheimer's disease. This experiment makes it possible to highlight the documents contained in Medline which provide few or no answers by indexing keywords. The results obtained suggest that an indexing knowledge significantly improves search results for information via Medline in comparison to “Google” searches habitually carried out by the researcher. Comparable to scientific awareness, this methodology opens new collaboration possibilities between information professionals and research
33

Un modèle uniforme pour la modélisation et la métamodélisation d'une mémoire d'entreprise

Gerbé, Olivier January 2000 (has links)
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur. / Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal. / De nos jours, les entreprises manipulent de gros volumes d'information toujours plus complexes, aussi bien dans leur nature que dans leur structure. Ces informations peuvent être regroupées en deux catégories : les données opérationnelles qui sont utilisées pour la gestion des entreprises et les connaissances corporatives qui constituent le savoir-faire de l'entreprise. Cette dernière catégorie fait actuellement l'objet d'importants travaux de recherche portant sur la représentation des savoir-faire de l'entreprise. Il s'agit alors de représenter d'une part les connaissances formelles comme les processus d'affaires, les procédures ou les politiques (mission, règlements, normes) et d'autre part les connaissances informelles comme les meilleures pratiques ou encore la culture de l'entreprise. Dans les systèmes de gestion traditionnels, les données opérationnelles sont structurées conformément à des modèles classiques (système comptable, système de paie, etc.) et évoluent peu. Par opposition, les connaissances corporatives sont souvent non structurées ou semi-structurées, elles évoluent beaucoup et elles nécessitent la description de la connaissance sur ces données (métadonnées). Dans ce contexte, les systèmes de gestion de bases de données existants (relationnels ou orientés objet) sont peu adaptés car les traitements des données et des métadonnées diffèrent. Dans cette thèse, nous proposons une approche basée sur le traitement uniforme des données et métadonnées. Nos travaux portent sur la spécification d'un formalisme capable de représenter d'une manière uniforme ces deux types de données. Ces travaux de métamodélisation sont basés sur les graphes conceptuels, un formalisme puissant, fondé sur la logique et permettant de modéliser les objets du discours par des concepts et des relations conceptuelles. À partir de ce formalisme, nous proposons un langage et un ensemble d'opérateurs permettant de modéliser et de manipuler d'une manière uniforme les différents niveaux de représentation de la connaissance. Ce formalisme et ce langage constituent un premier pas vers la réalisation d'outils permettant aux entreprises de capitaliser sur leur savoir-faire. Cette approche a été validée d'une manière théorique à travers la modélisation des modèles d'expertise de la méthode CommonKADS. En n une validation pratique a été réalisée par la constitution de mémoires d'entreprise contenant le savoir-faire et les meilleurs pratiques dans des domaines tels que l'aéronautique, les technologies de l'information et les banques.
34

De l'usage des métadonnées dans l'objet sonore / The use of sound objects metadata

Debaecker, Jean 09 October 2012 (has links)
La reconnaissance des émotions dans la musique est un challenge industriel et académique. À l’heure de l’explosion des contenus multimédias, il nous importe de concevoir des ensembles structurés de termes, concepts et métadonnées facilitant l’organisation et l’accès aux connaissances. Notre problématique est la suivante : est-Il possible d'avoir une connaissance a priori de l'émotion en vue de son élicitation ? Autrement dit, dans quelles mesures est-Il possible d'inscrire les émotions ressenties à l'écoute d'une oeuvre musicale dans un régime de métadonnées et de bâtir une structure formelle algorithmique permettant d'isoler le mécanisme déclencheur des émotions ? Est-Il possible de connaître l'émotion que l'on ressentira à l'écoute d'une chanson, avant de l'écouter ? Suite à l'écoute, son élicitation est-Elle possible ? Est-Il possible de formaliser une émotion dans le but de la sauvegarder et de la partager ? Nous proposons un aperçu de l'existant et du contexte applicatif ainsi qu'une réflexion sur les enjeux épistémologiques intrinsèques et liés à l'indexation même de l'émotion : à travers lune démarche psychologique, physiologique et philosophique, nous proposerons un cadre conceptuel de cinq démonstrations faisant état de l'impossible mesure de l'émotion, en vue de son élicitation. Une fois dit à travers notre cadre théorique qu'il est formellement impossible d'indexer les émotions, il nous incombe de comprendre la mécanique d'indexation cependant proposée par les industriels et académiques. Nous proposons, via l'analyse d'enquêtes quantitatives et qualitatives, la production d'un algorithme effectuant des préconisationsd'écoute d’œuvres musicales. / Emotion recognition in music is an industrial and academic challenge. In the age of multimedia content explosion, we mean to design structured sets of terms, concepts and metadata facilitating access to organized knowledge. Here is our research question : can we have an a priori knowledge of emotion that could be elicited afterwards ? In other words, to what extent can we record emotions felt while listening to music, so as to turn them into metadata ? Can we create an algorithm enabling us to detect how emotions are released ? Are we likely to guess ad then elicit the emotion an individual will feel before listening to a particular song ? Can we formalize emotions to save, record and share them ? We are giving an overview of existing research, and tackling intrinsic epistemological issues related to emotion existing, recording and sharing out. Through a psychological, physiological ad philosophical approach, we are setting a theoretical framework, composed of five demonstrations which assert we cannot measure emotions in order to elicit them. Then, a practical approach will help us to understand the indexing process proposed in academic and industrial research environments. Through the analysis of quantitative and qualitative surveys, we are defining the production of an algorithm, enabling us to recommend musical works considering emotion.
35

De l'usage des métadonnées dans l'objet sonore

Debaecker, Jean 12 October 2012 (has links) (PDF)
La reconnaissance des émotions dans la musique est un challenge industriel et académique. À l'heure de l'explosion des contenus multimédias, il devient nécessaire de concevoir des ensembles structurés de termes et concepts facilitant l'organisation et l'accès aux connaissances. Dans les bibliothèques musicales, l'analyse des sentiments et la classification par émotion sont très émergentes et demeurent un objet de recherche ambitieux. La gestion des contenus d'un objet sonaore numérisé répond à une indexation documentaire à trois niveaux : " contenu - auctorialité - matérialisation ". Ce triptyque nous semble tomber en désuétude et ne correspond plus aux attentes de l'usager. L'information musicale appelle ainsi à une production et représentation nouvelle. Notre problématique est la suivante : est-il possible d'avoir une connaissance a priori de l'émotion en vue de son élicitation ? Autrement dit, dans quelles mesures est-il possible de bâtir une structure formelle algorithmique permettant d'isoler le mécanisme déclencheur des émotions? Est-il possible de connaître l'émotion que l'on ressentira à l'écoute d'une chanson, avant de l'écouter ? Suite à l'écoute, son élicitation est-elle possible ? Est-il possible de formaliser une émotion dans le but de la sauvegarder et, ou, de la partager ? Dans ce travail de thèse, nous proposons d'abord un aperçu de l'existant et du contexte applicatif. Plusieurs scénarios très concrets sont envisageables, parmi eux : un répondeur téléphonique triant les messages enregistrés en fonction de leur humeur ; recherche de musique apaisante après une journée de travail ; recherche de musique excitante pour accompagner une activité sportive ; recherche d'opinions sur les réseaux sociaux, etc. ; Dans une seconde partie nous proposons une réflexion sur les enjeux épistémologiques intrinsèques et liés à l'indexation même de l'émotion. La " mise en œuvre d'une solution d'indexation automatique fait appel à de nombreux domaines scientifiques ".1 Afin de saisir la complexité de l'indexation de l'émotion pour l'enrichissement des métadonnées, nous allons adopter une méthodologie exploratoire interdisciplinaire. En effet, à travers une démarche psychologique, physiologique et philosophique, nous proposerons un cadre conceptuel de cinq démonstrations faisant état de l'impossible mesure de l'émotion, en vue de son élicitation. Une fois dit, à travers notre cadre théorique, qu'il est formellement impossible d'indexer les émotions ; il nous incombe de comprendre la mécanique d'indexation cependant proposée par les industriels et académiques. La réalité du terrain est telle que plusieurs interfaces web ou logicielles proposent des services d'expérience de moteur de recherche fouillant une base de données, avec des métadonnées sur les émotions. Dans la dernière partie, nous proposerons, via des enquêtes quantitatives et qualitatives, une analyse afin de soumettre une matrice algorithmique basée sur le web social capable de faire des préconisations d'écoute d'œuvres musicales eu égards aux émotions.
36

Surveillance électronique et métadonnées : vers une nouvelle conception constitutionnelle du droit à la vie privée au Canada?

Thibeault, Alexandre 03 1900 (has links)
Ce mémoire traite de la portée de la protection constitutionnelle du droit à la vie privée informationnelle au Canada, au regard de la surveillance électronique gouvernementale à grande échelle des métadonnées des communications électroniques, à des fins de sécurité nationale. Il est soutenu, après une présentation de l’importance démocratique de la vie privée, de même que de la nature et de la portée de certaines activités gouvernementales de surveillance électronique, que le cadre d’analyse du « Biographical core », qui conditionne l’étendue de la protection de la vie privée informationnelle en droit constitutionnel canadien, est susceptible d’inclure les métadonnées des communications électroniques. Cette position est appuyée par un argumentaire juridique fondé sur les règles d’interprétation et la jurisprudence constitutionnelle pertinente. Cet argumentaire se trouve renforcé par potentiel considérablement révélateur des métadonnées, des particularités propres aux activités de surveillance électronique analysées, ainsi que des implications non-juridiques soulevées par ces dernières. / This master’s thesis focuses on the scope of the Canadian constitutional protection of the right to privacy, in view of the wide scale governmental electronic surveillance of electronic communications metadata, conducted for national security purposes. It is argued, following a detailed presentation of the nature and extent of certain specific governmental electronic surveillance activities, that the « Biographical core » analytical framework, governing the scope of the protection granted to informational privacy in Canadian constitutional law, is most likely applicable to electronic communications metadata. This position is directly supported by the relevant constitutional interpretation rules and cases. This is particularly true in light of the fact that metadata are, inherently, potentially significantly revealing, especially considering the capacities of an array of electronic surveillance activities, as well as the non-legal implications they entail for privacy.
37

La modélisation d'objets pédagogiques pour une plateforme sémantique d'apprentissage / The modeling of learning objects for a semantic learning platform

Balog-Crisan, Radu 13 December 2011 (has links)
Afin de rendre les objets pédagogiques (OP) accessibles, réutilisables et adaptables, il est nécessaire de les modéliser. Outre la forme et la structure, il faut aussi décrire la sémantique des OP. Ainsi, nous proposons un schéma de modélisation d'OP d'après la norme LOM (Learning Object Metadata), en utilisant un modèle de données de type RDF (Ressource Description Framework). Pour encoder, échanger et réutiliser les métadonnées structurées d'OP, nous avons implémenté l'application RDF4LOM (RDF for LOM). Le recours aux outils du Web sémantique nous permet de proposer le prototype d'une plateforme sémantique d'apprentissage (SLCMS), qui valorise à la fois les ressources internes, les OP modélisés avec RDF, ainsi que les ressources externes (wikis, blogs ou encore agendas sémantiques). L'architecture du SLCMS est basée sur un Noyau sémantique capable d'interpréter les métadonnées et de créer des requêtes intelligentes. Pour la description des contraintes sémantiques et des raisonnements sur les OP, nous utilisons les ontologies. Grâce à des ontologies précises et complètes, les OP seront « interprétables » et « compréhensibles » par les machines. Pour le module Quiz sémantique, nous avons modélisé l'ontologie Quiz et l'ontologie LMD. La plateforme sémantique d'apprentissage permet la recherche d'OP pertinents, la génération de parcours personnalisés pour les apprenants et, en perspective, l'adaptabilité aux styles d'apprentissage. / In order to make Learning Objects (LO) accessible, reusable and adaptable, it is necessary to model them. Besides form and structure, one must also define the semantics associated with a given LO. Thus, we propose a modeling scheme for LOs that respects the LOM (Learning Object Metadata) standard and which uses a RDF-based (Resource Description Framework) data model. In order to encode, exchange and reuse such structured metadata for LOs, we have developed the RDF4LOM (RDF for LOM) application. By using Semantic Web tools, we are able to deliver a prototype of a semantic learning platform (SLCMS) that enhances internal resources, LOs modeled with RDF as well as external resources (semantic wikis, blogs or calendars). The architecture of this SLCMS is based upon a semantic Kernel whose role is to interpret metadata and create intelligent queries. We use ontologies, for the description of semantic constraints and reasoning rules concerning the LOs. By means of accurate and complete ontologies, the LOs will be machine-interpretable and also machine-understandable. For the semantic Quiz module, we have developed the Quiz and LMD ontologies. The semantic learning platform enables searching for appropriate LOs, generating personalized learning paths for learners and, as en evolution, adaptation to learning styles.
38

Gestion des risques appliquée aux systèmes d’information distribués / Risk management to distributed information systems

Lalanne, Vincent 19 December 2013 (has links)
Dans cette thèse nous abordons la gestion des risques appliquée aux systèmes d’information distribués. Nous traitons des problèmes d’interopérabilité et de sécurisation des échanges dans les systèmes DRM et nous proposons la mise en place de ce système pour l’entreprise: il doit nous permettre de distribuer des contenus auto-protégés. Ensuite nous présentons la participation à la création d’une entreprise innovante qui met en avant la sécurité de l’information, avec en particulier la gestion des risques au travers de la norme ISO/IEC 27005:2011. Nous présentons les risques liés à l’utilisation de services avec un accent tout particulier sur les risques autres que les risques technologiques; nous abordons les risques inhérents au cloud (défaillance d’un provider, etc...) mais également les aspects plus sournois d’espionnage et d’intrusion dans les données personnelles (Affaire PRISM en juin 2013). Dans la dernière partie nous présentons un concept de DRM d’Entreprise qui utilise les métadonnées pour déployer des contextes dans les modèles de contrôle d’usage. Nous proposons une ébauche de formalisation des métadonnées nécessaires à la mise en œuvre de la politique de sécurité et nous garantissons le respect de la réglementation et de la loi en vigueur. / In this thesis we discuss the application of risk management to distributed information systems. We handle problems of interoperability and securisation of the exchanges within DRM systems and we propose the implementation of this system for the company: it needs to permit the distribution of self-protected contents. We then present the (our) participation in the creation of an innovative company which emphasizes on the security of information, in particular the management of risks through the ISO/IEC 27005:2011 standard. We present risks related to the use of services, highlighting in particular the ones which are not technological: we approach inheritent risks in clouds (provider failure, etc ...) but also the more insidious aspects of espionage and intrusion in personal data (Case PRISM in June 2013). In the last section, we present a concept of a DRM company which uses metadata to deploy settings in usage control models. We propose a draft formalization of metadata necessary for the implementation of a security policy and guarantee respect of regulations and legislation.
39

Towards better privacy preservation by detecting personal events in photos shared within online social networks / Vers une meilleure protection de la vie privée par la détection d'événements dans les photos partagées sur les réseaux sociaux

Raad, Eliana 04 December 2015 (has links)
De nos jours, les réseaux sociaux ont considérablement changé la façon dont les personnes prennent des photos qu’importe le lieu, le moment, le contexte. Plus que 500 millions de photos sont partagées chaque jour sur les réseaux sociaux, auxquelles on peut ajouter les 200 millions de vidéos échangées en ligne chaque minute. Plus particulièrement, avec la démocratisation des smartphones, les utilisateurs de réseaux sociaux partagent instantanément les photos qu’ils prennent lors des divers événements de leur vie, leurs voyages, leurs aventures, etc. Partager ce type de données présente un danger pour la vie privée des utilisateurs et les expose ensuite à une surveillance grandissante. Ajouté à cela, aujourd’hui de nouvelles techniques permettent de combiner les données provenant de plusieurs sources entre elles de façon jamais possible auparavant. Cependant, la plupart des utilisateurs des réseaux sociaux ne se rendent même pas compte de la quantité incroyable de données très personnelles que les photos peuvent renfermer sur eux et sur leurs activités (par exemple, le cas du cyberharcèlement). Cela peut encore rendre plus difficile la possibilité de garder l’anonymat sur Internet dans de nombreuses situations où une certaine discrétion est essentielle (politique, lutte contre la fraude, critiques diverses, etc.).Ainsi, le but de ce travail est de fournir une mesure de protection de la vie privée, visant à identifier la quantité d’information qui permettrait de ré-identifier une personne en utilisant ses informations personnelles accessibles en ligne. Premièrement, nous fournissons un framework capable de mesurer le risque éventuel de ré-identification des personnes et d’assainir les documents multimédias destinés à être publiés et partagés. Deuxièmement, nous proposons une nouvelle approche pour enrichir le profil de l’utilisateur dont on souhaite préserver l’anonymat. Pour cela, nous exploitons les évènements personnels à partir des publications des utilisateurs et celles partagées par leurs contacts sur leur réseau social. Plus précisément, notre approche permet de détecter et lier les évènements élémentaires des personnes en utilisant les photos (et leurs métadonnées) partagées au sein de leur réseau social. Nous décrivons les expérimentations que nous avons menées sur des jeux de données réelles et synthétiques. Les résultats montrent l’efficacité de nos différentes contributions. / Today, social networking has considerably changed why people are taking pictures all the time everywhere they go. More than 500 million photos are uploaded and shared every day, along with more than 200 hours of videos every minute. More particularly, with the ubiquity of smartphones, social network users are now taking photos of events in their lives, travels, experiences, etc. and instantly uploading them online. Such public data sharing puts at risk the users’ privacy and expose them to a surveillance that is growing at a very rapid rate. Furthermore, new techniques are used today to extract publicly shared data and combine it with other data in ways never before thought possible. However, social networks users do not realize the wealth of information gathered from image data and which could be used to track all their activities at every moment (e.g., the case of cyberstalking). Therefore, in many situations (such as politics, fraud fighting and cultural critics, etc.), it becomes extremely hard to maintain individuals’ anonymity when the authors of the published data need to remain anonymous.Thus, the aim of this work is to provide a privacy-preserving constraint (de-linkability) to bound the amount of information that can be used to re-identify individuals using online profile information. Firstly, we provide a framework able to quantify the re-identification threat and sanitize multimedia documents to be published and shared. Secondly, we propose a new approach to enrich the profile information of the individuals to protect. Therefore, we exploit personal events in the individuals’ own posts as well as those shared by their friends/contacts. Specifically, our approach is able to detect and link users’ elementary events using photos (and related metadata) shared within their online social networks. A prototype has been implemented and several experiments have been conducted in this work to validate our different contributions.
40

La mise à disposition des œuvres et des informations sur les réseaux : régulation juridique et régulation technique

Dulong de Rosnay, Melanie 26 October 2007 (has links) (PDF)
Les développements techniques entraînent une croissance exponentielle de la circulation des œuvres et informations sur les réseaux. Les modèles de régulation de l'ère analogique élaborés sur la rareté du support sont remis en question par le numérique, fondé sur les paradigmes de la copie, de la réappropriation et du partage. Le droit d'auteur a été développé et adapté au rythme des innovations techniques de reproduction et de diffusion des œuvres, comme un correctif artificiel accordant une exclusivité temporaire d'exploitation. Il peut aussi conduire aux biens communs. Nous analysons comment droit et technique ont d'abord été pensés de manière indépendante. Les processus d'élaboration des normes et standards techniques et l'extension des droits exclusifs entraînent des tensions entre les industries culturelles et le public. Cette conception conduit à un enchevêtrement de lois et mesures techniques de protection au profit de la régulation technique. Nous proposons donc, dans la lignée de la lex informatica, un modèle fondé sur l'influence réciproque entre les disciplines, vers la reconception des catégories juridiques du droit d'auteur et vers une meilleure expression technique des droits. Le développement d'applications, d'ontologies et de métadonnées juridiques permet une automatisation de la régulation des échanges d'œuvres et d'informations. Mettant en œuvre une intégration plus équilibrée du droit et de la technique, ce modèle est notamment fondé sur l'analyse de licences et modèles contractuels qui se développent sur Internet, entre contrôle d'accès et biens communs.

Page generated in 0.0315 seconds