• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 7
  • 1
  • Tagged with
  • 18
  • 9
  • 6
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Combinatorial aspects of genome rearrangements and haplotype networks / Aspects combinatoires des réarrangements génomiques et des réseaux d'haplotypes

Labarre, Anthony 12 September 2008 (has links)
The dissertation covers two problems motivated by computational biology: genome rearrangements, and haplotype networks.<p><p>Genome rearrangement problems are a particular case of edit distance problems, where one seeks to transform two given objects into one another using as few operations as possible, with the additional constraint that the set of allowed operations is fixed beforehand; we are also interested in computing the corresponding distances between those objects, i.e. merely computing the minimum number of operations rather than an optimal sequence. Genome rearrangement problems can often be formulated as sorting problems on permutations (viewed as linear orderings of {1,2,n}) using as few (allowed) operations as possible. In this thesis, we focus among other operations on ``transpositions', which displace intervals of a permutation. Many questions related to sorting by transpositions are open, related in particular to its computational complexity. We use the disjoint cycle decomposition of permutations, rather than the ``standard tools' used in genome rearrangements, to prove new upper bounds on the transposition distance, as well as formulae for computing the exact distance in polynomial time in many cases. This decomposition also allows us to solve a counting problem related to the ``cycle graph' of Bafna and Pevzner, and to construct a general framework for obtaining lower bounds on any edit distance between permutations by recasting their computation as factorisation problems on related even permutations.<p><p>Haplotype networks are graphs in which a subset of vertices is labelled, used in comparative genomics as an alternative to trees. We formalise a new method due to Cassens, Mardulyn and Milinkovitch, which consists in building a graph containing a given set of partially labelled trees and with as few edges as possible. We give exact algorithms for solving the problem on two graphs, with an exponential running time in the general case but with a polynomial running time if at least one of the graphs belong to a particular class.<p>/<p>La thèse couvre deux problèmes motivés par la biologie: l'étude des réarrangements génomiques, et celle des réseaux d'haplotypes.<p><p>Les problèmes de réarrangements génomiques sont un cas particulier des problèmes de distances d'édition, où l'on cherche à transformer un objet en un autre en utilisant le plus petit nombre possible d'opérations, les opérations autorisées étant fixées au préalable; on s'intéresse également à la distance entre les deux objets, c'est-à-dire au calcul du nombre d'opérations dans une séquence optimale plutôt qu'à la recherche d'une telle séquence. Les problèmes de réarrangements génomiques peuvent souvent s'exprimer comme des problèmes de tri de permutations (vues comme des arrangements linéaires de {1,2,n}) en utilisant le plus petit nombre d'opérations (autorisées) possible. Nous examinons en particulier les ``transpositions', qui déplacent un intervalle de la permutation. Beaucoup de problèmes liés au tri par transpositions sont ouverts, en particulier sa complexité algorithmique. Nous nous écartons des ``outils standards' utilisés dans le domaine des réarrangements génomiques, et utilisons la décomposition en cycles disjoints des permutations pour prouver de nouvelles majorations sur la distance des transpositions ainsi que des formules permettant de calculer cette distance en temps polynomial dans de nombreux cas. Cette décomposition nous sert également à résoudre un problème d'énumération concernant le ``graphe des cycles' de Bafna et Pevzner, et à construire une technique générale permettant d'obtenir de nouvelles minorations en reformulant tous les problèmes de distances d'édition sur les permutations en termes de factorisations de permutations paires associées.<p><p>Les réseaux d'haplotypes sont des graphes dont une partie des sommets porte des étiquettes, utilisés en génomique comparative quand les arbres sont trop restrictifs, ou quand l'on ne peut choisir une ``meilleure' topologie parmi un ensemble donné d'arbres. Nous formalisons une nouvelle méthode due à Cassens, Mardulyn et Milinkovitch, qui consiste à construire un graphe contenant tous les arbres partiellement étiquetés donnés et possédant le moins d'arêtes possible, et donnons des algorithmes résolvant le problème de manière optimale sur deux graphes, dont le temps d'exécution est exponentiel en général mais polynomial dans quelques cas que nous caractérisons.<p> / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
12

Approximation of OLAP queries on data warehouses / Approximation aux requêtes OLAP sur les entrepôts de données

Cao, Phuong Thao 20 June 2013 (has links)
Nous étudions les réponses proches à des requêtes OLAP sur les entrepôts de données. Nous considérons les réponses relatives aux requêtes OLAP sur un schéma, comme les distributions avec la distance L1 et rapprocher les réponses sans stocker totalement l'entrepôt de données. Nous présentons d'abord trois méthodes spécifiques: l'échantillonnage uniforme, l'échantillonnage basé sur la mesure et le modèle statistique. Nous introduisons également une distance d'édition entre les entrepôts de données avec des opérations d'édition adaptées aux entrepôts de données. Puis, dans l'échange de données OLAP, nous étudions comment échantillonner chaque source et combiner les échantillons pour rapprocher toutes requêtes OLAP. Nous examinons ensuite un contexte streaming, où un entrepôt de données est construit par les flux de différentes sources. Nous montrons une borne inférieure de la taille de la mémoire nécessaire aux requêtes approximatives. Dans ce cas, nous avons les réponses pour les requêtes OLAP avec une mémoire finie. Nous décrivons également une méthode pour découvrir les dépendances statistique, une nouvelle notion que nous introduisons. Nous recherchons ces dépendances en basant sur l'arbre de décision. Nous appliquons la méthode à deux entrepôts de données. Le premier simule les données de capteurs, qui fournissent des paramètres météorologiques au fil du temps et de l'emplacement à partir de différentes sources. Le deuxième est la collecte de RSS à partir des sites web sur Internet. / We study the approximate answers to OLAP queries on data warehouses. We consider the relative answers to OLAP queries on a schema, as distributions with the L1 distance and approximate the answers without storing the entire data warehouse. We first introduce three specific methods: the uniform sampling, the measure-based sampling and the statistical model. We introduce also an edit distance between data warehouses with edit operations adapted for data warehouses. Then, in the OLAP data exchange, we study how to sample each source and combine the samples to approximate any OLAP query. We next consider a streaming context, where a data warehouse is built by streams of different sources. We show a lower bound on the size of the memory necessary to approximate queries. In this case, we approximate OLAP queries with a finite memory. We describe also a method to discover the statistical dependencies, a new notion we introduce. We are looking for them based on the decision tree. We apply the method to two data warehouses. The first one simulates the data of sensors, which provide weather parameters over time and location from different sources. The second one is the collection of RSS from the web sites on Internet.
13

Stratégies d'optimisation de la mémoire pour le calcul d'applications linéaires et l'indexation de document partagés

Ahmad, Mumtaz 14 November 2011 (has links) (PDF)
Cette thèse vise à développer des stratégies permettant d'augmenter la puissance du calcul séquentiel et des systèmes distribués, elle traite en particulier, la décomposition séquentielle des opérations ainsi que des systèmes d'édition collaboratifs décentralisés. La croissance rapide de l'utilisation des nouvelles technologies informatiques résulte de la nécessité d'avoir des performances élevées, dans tout domaine lié au calcul informatique. Une telle quête de performances a abouti à une plus grande complexité dans les architectures informatiques, conduisant à un stress non négligeable dans la technologie des compilateurs. De puissants microprocesseurs se trouvent au cœur de toute machine informatique, allant des serveurs et ordinateurs personnels, aux ordinateurs portables, jusqu'aux téléphones cellulaires " iPhone ". En effet, l'augmentation incessante des performances constitue un défi permanent dans les sciences informatiques. Par ailleurs, le développement rapide des réseaux informatiques a conduit à un progrès vers une édition collaborative en temps réel (RCE). Cette dernière permet à des groupes d'utilisateurs l'édition simultanée de documents partagés résidant dans des sites physiques dispersés, mais interconnectés par un réseau informatique. Dans de tels systèmes distribués, les conflits liés aux communications sont un défi à relever. De ce fait, la communication indexée devient une nécessité absolue. Nous introduisons, une méthode d'indexage avec précision contrôlée. Celle-ci permet la génération d'identifiants uniques utilisés dans l'indexage des communications dans les systèmes distribués, plus particulièrement dans les systèmes d'édition collaboratifs décentralisés. Ces identifiants sont des nombres réels avec un motif de précision contrôlé. Un ensemble fini d'identifiants est conservé pour permettre le calcul de cardinalités locales et globales. Cette propriété joue un rôle prépondérant dans la gestion des communications indexées. De plus, d'autres propriétés incluant la préservation de l'ordre sont observées. La méthode d'indexage a été testée et vérifiée avec succès. Ceci a permis la conception d'un système d'édition collaboratif décentralisé. Aussi, nous explorons les stratégies existantes, relatives a la décomposition séquentielle d'opérations, que nous étendons à de nouvelles stratégies. Ces stratégies mènent à une optimisation (processeur, compilateur, mémoire, code). Ces styles de décomposition portent un intérêt majeur à la communauté scientifique. Des recherches et des implémentations de plus en plus rapides résultent de la conception d'unité arithmétique.
14

Edition collaborative des documents semi-structurés

Martin, Stéphane 08 September 2011 (has links) (PDF)
Les éditeurs collaboratifs permettent à des utilisateurs éloignés de collaborer à une tâche commune qui va de l'utilisation d'un agenda partagé à la réalisation de logiciels. Ce concept est né avec SCCS en 1972 et connait un engouement récent (ex: Wikipedia). L'absence de centralisation et l'asynchronisme sont des aspects essentiels de cette approche qui relève d'un modèle pair-à-pair (P2P). D'un autre côté, le format XML est devenu une référence pour la manipulation et l'échange de documents. Notre travail vise à la réalisation d'un éditeur collaboratif P2P pour l'édition de documents semi-structurés qui sont une abstraction du format XML. Le problème est difficile et de nombreuses propositions se sont révélées erronées ou ne passant pas à l'échelle. Nous rappelons les concepts et l'état de l'art sur l'édition collaborative, les modèles centralisés et le P2P. Ensuite, nous explorons deux approches différentes : les transformées opérationnelles et le CRDT (Commutative Replicated Data Type) avec différentes structures de données arborescentes. L'objectif est de réaliser les opérations de base (ajout, suppression et ré-étiquetage) tout en garantissant la convergence du processus d'édition. Nous proposons un algorithme générique pour l'approche CRDT basée sur une notion d'indépendance dans la structure de données. Nous avons étendu nos travaux afin de réaliser l'opération de déplacement d'un sous-arbre et de prendre en compte le typage XML. Peu de travaux abordent ces deux points qui sont très utiles pour l'édition de documents. Finalement, nous donnons les résultats expérimentaux obtenus avec un prototype permettant de valider notre approche.
15

Les déclarations gouvernementales en Belgique (1944-1992). Étude de lexicométrie politique

Deroubaix, Jean-Claude 11 September 1997 (has links) (PDF)
Résumé Saisir la politique à travers son discours, mesurer en quelque sorte le discours politique des uns et des autres pour mieux les comparer et mettre en évidence en quoi, au-delà de la lecture immédiate et quotidiennement politique, ces discours nous renseignent sur le fonctionnement de la société, voilà les objectifs que nous nous sommes assignés tout au long de cette recherche. Le plan de l'exposé s'ajuste étroitement à la stratégie de recherche qui vise à mener de front sans jamais les confondre une réflexion sur l'objet (le vocabulaire du discours politique gouvernemental belge tel qu'il s'exprime entre 1944 et 1992 dans la déclaration liminaire à la prise de fonction d'un nouveau cabinet ministériel), sur la méthode (le choix, la critique et éventuellement la construction de méthodes qui sans être nécessairement nouvelles dans leur principe le sont dans leur mise en œuvre) et sur l'interprétation (en distinguant bien les deux sens du mot selon qu'il s'agisse de l'interprétation linguistico-socio-politique ou de l'interprétation statistique). L'application des méthodes statistiques de la lexicométrie à un corpus de textes politiques n'est pas une simple opération mécanique. En effet comme pour toute application statistique dans quelque discipline que ce soit, le fait de soumettre des “ données ” formellement bien conditionnées à une procédure ou à un ensemble de procédures statistiques, par la grâce à l'informatique, suffit à la production de résultats. On peut imaginer qu'à ce stade commence le travail du chercheur et celui du lexicologue politique en l'occurrence. Nous savons que ce patron est évidemment irréaliste, qu'une recherche se construit et que, d'une certaine façon, elle demeure indissociable d'une réflexion sur les méthodes et sur l'interprétation. Dans cette recherche-ci en particulier, la découverte de la dominance d'un facteur temporel dans la structuration du vocabulaire politique gouvernemental nous a mené à définir une méthode spécifique pour mettre en évidence ce facteur, pour essayer de l'analyser et de comprendre le processus d'évolution du langage politique qui lui est sous-jacent. Ainsi, la production de ce résultat de lexicologie politique a-t-il été indissociable d'une réflexion sur les problèmes de méthodes d'analyse du vocabulaire. La recherche de la structure du vocabulaire des coalitions gouvernementales s'est faite en construisant, pas à pas, une méthode. Le choix des méthodes est intrinsèquement lié au projet de recherche. Nous avons tenu à expliciter à chaque fois pourquoi nous utilisions une méthode et en quoi celle-ci permettait d'atteindre nos objectifs de manière efficace. Nous étions parti de l'hypothèse que le champ lexical des discours gouvernementaux était essentiellement parcouru par les lignes de force principales du domaine politique en régime de démocratie représentative de masse, c'est-à-dire les lignes de force qu'engendre la polarisation entre la gauche et la droite politique, ou celles que définissent en Belgique les polarisations communautaires (entre Flamands et francophones) et philosophiques (entre catholiques et laïques), nous avons cependant conclu à la continuité gouvernementale comme ligne principale de structuration du vocabulaire. Les textes des déclarations des gouvernements belges écrits et prononcés pour obtenir la confiance des Chambres législatives au moment de l'entrée en fonction d'un nouveau cabinet entre 1944 et 1992 forment une série chronologique textuelle lorsqu'ils sont étudiés du point de vue de la distribution du vocabulaire. Les gouvernants puisent dans plusieurs stocks lexicaux pour faire leur déclaration : Un stock est commun à toutes les déclarations et caractérise la déclaration gouvernementale comme genre de littérature politique, stock dont on peut penser que le segment “ le gouvernement qui se présente devant vous ” et la forme “ confiance ” sont de bons représentants ; à coté de ce stock lexical commun subsistent plusieurs autres stocks qui fournissent durant des périodes déterminées leur lot de vocabulaire. C'est la mise en évidence de ces vocabulaires plus fréquemment employés durant une période déterminée qui nous conduisit à qualifier ce corpus de “ chronique textuelle ”. Le cheminement de la recherche nous a tout d'abord conduit à mettre en œuvre l'analyse factorielle des correspondances et des méthodes de classification automatique. L'abandon de notre hypothèse d'un champ lexical principalement polarisé entre la gauche et la droite au profit d'une hypothèse de structuration temporelle du corpus découle de l'AFC du tableau lexical (tronqué en ne retenant que les formes de fréquence supérieure ou égale à 10) qui révèle un effet “ Gutmann ” sensible sur le plan des axes 1 et 2 (forme en S des projections des points-déclarations). Cet aspect de chronique textuelle est confirmé par la comparaison entre l'ordre naturel de rédaction des déclarations et celui de leur représentation sur le premier axe. Une première définition du contenu lexical de la structure temporelle est proposée grâce à l'étude de la répartition des formes. L'hypothèse d'un effet temporel dévoilé par l'analyse factorielle est mis en évidence aussi à travers les méthodes de classification. Ces méthodes ont permis d'affiner la caractérisation des lignes de forces dégagées par l'analyse factorielle en fournissant des typologies de vocabulaire, en répartissant en classes disjointes les différentes sortes de vocabulaire selon leur fréquence d'usage par les gouvernements successifs. Certaines de ces classes de vocabulaire peuvent être envisagées comme des pots communs, des urnes spécialisées ou générales dans lesquelles ont puisé les gouvernements pour bâtir leur discours. Pour détecter les classes de vocabulaire responsables de l'aspect chronologique, nous avons construit une méthode de classification qui tient compte de la connexité deux à deux des déclarations. Ce qui a permis de distinguer les classes de vocabulaire dont l'usage a varié dans le temps, des classes de vocabulaires d'usage stable ou d'usage accidentel. Nous avons dès lors pu proposer un mode de fonctionnement du renouvellement du vocabulaire des discours gouvernementaux qui puisse rendre compte de la chronologicité de l'ensemble. L'intérêt des méthodes utilisées pour aboutir à ce diagnostic et à cette hypothèse de fonctionnement est d'utiliser peu d'hypothèses a priori tant du point de vue statistique (car les méthodes utilisées appartiennent essentiellement au domaine de la statistique descriptive) que du point de vue de la production sociolinguistique (ou politico-linguistique). Guidée par les données lexicales du corpus, notre démarche n'exclut cependant pas une volonté de définir des méthodes applicables à d'autres corpus. La démarche nous semble exportable : choisir (ou construire) la méthode qui permettra de mettre en évidence plus clairement, plus précisément les phénomènes étonnants déjà découverts, et cela au fur et à mesure du dévoilement des structures, des avancées partielles dans la compréhension. Dans la pratique, cette démarche n'a rien de linéaire. D'autres voies ont été envisagées ; nous avons tenu, dans un chapitre consacré aux expériences, à rendre compte d'au moins l'une d'entre elles : l'usage des distances de Levenshtein pour mesurer la “ dissemblance ” entre textes de déclarations en fonction de la manière dont les formes sont agencées dans le discours. Il nous semble qu'au prix de modifications dans l'application, il émerge peut-être un point de vue statistique intéressant sur le vocabulaire et sa mise en œuvre attestée dans un corpus. Enfin, un dernier apport consiste dans ce qui pourrait paraître, assez secondaire : la mise au point d'une méthode standardisée de choix des exemples qui satisfasse à des critères statistiques (les exemples doivent contenir beaucoup de formes appartenant à la liste à illustrer) et contribue à l'interprétation (en mettant en évidence, les formes d'intérêt dans le segment exemplaire). L'outil de recherche d'un exemple proposé doit être considéré comme une généralisation des concordanciers et autres outils de mise en évidence de contextes car il s'agit d'une méthode de visualisation de contextes communs à plusieurs formes lexicales. Le diagnostic de “ chronologicité ” est déduit d'un travail statistique d'analyse du vocabulaire; nous en proposons aussi une interprétation. Plusieurs facteurs concourent à “ fabriquer ” le caractère chronologique du corpus : le rituel de l'énonciation, la mission dévolue au gouvernement et le mode de composition du gouvernement, chacun de ces facteurs n'étant pas indépendant des autres. Le rituel de l'énonciation est un facteur de détermination de la déclaration gouvernementale comme style de discours politique ; il contribue au moins partiellement à la constitution du stock lexical commun. À ce titre, son action devrait être neutre du point de vue de la chronologicité. Toutefois, le rituel de la présentation officielle du gouvernement devant les chambres (qui représentent la nation) implique que le discours soit un discours rassembleur qui s'adresse à la totalité des électeurs et pas seulement à ceux qui ont voté pour la majorité. Ce discours, par définition, se doit de gommer les éléments partisans qui sont présents dans les discours électoraux. De ce fait, ce discours va puiser une partie de ses thèmes dans l'actualité politique, dans les problèmes politiques du moment, mais en mobilisant le vocabulaire commun en usage dans l'ensemble du monde politique pendant la période qui a précédé sa demande de confiance et non un vocabulaire partisan. Les problèmes liés à la guerre, à la mise en place de la Sécurité sociale, à la “ crise ” énergétique, à la transformation institutionnelle n'ont jamais été résolus le temps d'un seul gouvernement. On conçoit donc qu'ils induisent des effets de périodisation dans le vocabulaire du corpus : plusieurs gouvernements successifs vont s'y référer jusqu'à ce qu'ils disparaissent provisoirement ou définitivement de la liste des problèmes de l'heure. Le rituel conduit à diminuer l'impact du lexique partisan dans le discours de présentation, mais il favorise l'émergence d'un vocabulaire caractéristique de la période politique. Sans l'imposer, le rituel implique donc une mise en retrait des aspects partisans du programme politique. Le rôle dévolu au gouvernement comme représentant de l'État renforce cette pression sur l'effacement, dans le discours inaugural, de l'idéologie partisane. Au nom de la continuité de l'État, il conduit à utiliser le vocabulaire des gouvernements précédents pour marquer cette volonté de permanence dans la gestion des problèmes du moment. La contrainte de gestion “ raisonnable ” des affaires d'État, que s'imposent les gouvernements, aligne le discours sur l'actualité politique plutôt que sur la mise en œuvre d'un bouleversement idéologique. Enfin, les cabinets qui ont été investis de l'autorité exécutive durant la période 1944-1992 ont été essentiellement des cabinets de coalition. L'atténuation des programmes est le propre de la discussion autour de la formation d'un gouvernement, la recherche du compromis l'impose. Sans oublier qu'il n'est pas inutile de laisser du flou dans le programme de gouvernement, de recourir donc plus à l'énoncé des problèmes à prendre en considération qu'à la proposition de solutions concrètes. Ceci favorise encore la reprise des thèmes d'actualité et leur vocabulaire plus que la mobilisation d'un vocabulaire partisan. La périodisation du corpus répond donc à une périodisation de la vie politique belge autour de thèmes imposés par la situation sociale, économique, communautaire ainsi que par la situation internationale. La politique partisane est peu présente dans le discours gouvernemental car elle s'exprime dans le discours des partis et dans celui des parlementaires. Le gouvernement unifie le discours partisan dominant. La présence quasi constante dans l'exécutif d'une famille politique (les partis catholiques) inhibe les ruptures ; cette famille se succède à elle-même, ne se désavoue pas et fait du discours gouvernemental un discours “ neutralisé ”. Ceci ne signifie nullement que l'action du gouvernement soit neutre. L'idéologie bien entretenue d'un discours gouvernemental empreint de raison, responsable et qui place l'intérêt de l'État et de la Nation au-dessus des querelles de partis est éminemment favorable aux partis qui se réclament du centre (comme les partis sociaux-chrétiens) au détriment de leurs partenaires plus marqués dans le champ politique traditionnel (libéraux et socialistes) ou communautaire (Volksunie, FDF, Rassemblement wallon). L'exposé de programme gouvernemental se distingue du discours partisan en ce qu'il prétend réunir la totalité de la nation dans un projet commun, laissant au discours partisan le rôle de réunir les électeurs du parti autour d'un programme d'éventuel “ projet commun ”. Les vocabulaires utilisés portent la marque de cette division politique des tâches. En somme, transparaissent dans le discours gouvernemental les éléments, les mots, d'une “ culture ” politique commune aux milieux dirigeants. Cette “ culture ” qui transcende les différences entre partis évolue surtout sous la poussée de la transformation de la société et en fonction des mutations politiques extérieures surtout en Belgique, petit pays soumis aux influences de nations plus puissantes.
16

Approches anytime et distribuées pour l'appariment de graphes / Anytime and distributed approaches for graph matching

Abu-Aisheh, Zeina 25 May 2016 (has links)
En raison de la capacité et de l'amélioration des performances informatiques, les représentations structurelles sont devenues de plus en plus populaires dans le domaine de la reconnaissance de formes (RF). Quand les objets sont structurés à base de graphes, le problme de la comparaison d'objets revient à un problme d'appariement de graphes (Graph Matching). Au cours de la dernière décennie, les chercheurs travaillant dans le domaine de l'appariement de graphes ont porté une attention particulière à la distance d'édition entre graphes (GED), notamment pour sa capacité à traiter différent types de graphes. GED a été ainsi appliquée sur des problématiques spécifiques qui varient de la reconnaissance de molécules à la classi fication d'images. / Due to the inherent genericity of graph-based representations, and thanks to the improvement of computer capacities, structural representations have become more and more popular in the field of Pattern Recognition (PR). In a graph-based representation, vertices and their attributes describe objects (or part of them) while edges represent interrelationships between the objects. Representing objects by graphs turns the problem of object comparison into graph matching (GM) where correspondences between vertices and edges of two graphs have to be found.
17

La relation auteur-éditeur dans le contrat d'édition littéraire / the relations established between authors and publishers in the literary publishing contract

Naudin, Hermine 07 September 2015 (has links)
La démocratisation de l’écrit dans notre société culturelle moderne a fait que tout un chacun peut se revendiquer auteur. La reconnaissance n’est plus désormais à rechercher à travers la traditionnelle publication chez un éditeur mais à travers l’immatérialité des outils d’auto-édition offerts en ligne. D’une part, avec la phase de désintermédiation qui se joue entre les différents acteurs du secteur littéraire, l’écrivain se passe d’une maison d’édition. L’éditeur disparaît. D’autre part, l’auteur, personnage romantique et emblématique sur lequel le droit d’auteur a été forgé, s’efface progressivement du paysage juridique. Avec l’effacement du mythe est emportée la vision propriétaire des droits d’auteur, au profit de l’utilisateur. L’auteur disparaît. Les nouvelles pratiques de cette société connectée bouleversent le droit et sa capacité d’adaptation. Pourtant le contrat d’édition littéraire, socle de la relation auteur-éditeur, existe bel et bien et constitue le sujet de cette étude. Modèle dominant des contrats d’auteur, l’ambition de cette recherche est d’arriver à saisir à travers cette relation la nature du contrat d’édition et le jeu des nouveaux équilibres posés par l'ère numérique (réforme du Code de propriété intellectuelle), mais aussi de saisir les mutations à la lisière du droit d’auteur qui redéfinissent la possession dans l’ère immatérielle avec les modèles alternatifs du contrat d’édition littéraire (licences libres et creative commons). Les moyens d'y répondre emprunteront à l'analyse juridique mais aussi dans une juste mesure à l'internormativité, qui permettra d'observer le droit avec les yeux du sociologue, de l'économiste et de l'historien / The liberalization of writing in our contemporary cultural society has made it so anyone can now aim for the title of author. The recognition of one’s work is now sought, not through the traditional means of publishing, with the assistance of a professional publisher, but through immaterial processes of self- online publishing. On one hand, thanks to these new means, the author is able to cut the intermediation of the publishing field and to avoid using a professional publishing company. On the other hand, the author, romantic and emblematic character upon whom author’s rights have been forged is fading away from the legal landscape. With the decay of the myth, the ownership conception of author’s rights is taken away by those of the user. The author is fading away. The new customs of our over connected society are dramatically changing law and its ability to adapt. Although, publishing contracts are still a part of the process and are the subject at the heart of this study. The French intellectual property code was able to grant this contract access to the dematerialized world by incorporating the paradigm shift. Main model of publishing contracts, its ambivalent nature is due to the merging of both civil and intellectual property law that can be applied to it. This study aims to capture the true nature of the publishing contract figure, through the relations established between authors and publishers, including their new balance, and also to grasp a full understanding of the mutations surrounding the authors’ rights and that redefine ownership in a now immaterial era through the new alternative means of self-publishing (free licenses and creative commons)
18

Edition collaborative des documents semi-structurés

Martin, Stéphane 08 September 2011 (has links)
Les éditeurs collaboratifs permettent à des utilisateurs éloignés de collaborer à une tâche commune qui va de l'utilisation d'un agenda partagé à la réalisation de logiciels. Ce concept est né avec SCCS en1972 et connait un engouement récent (ex: Wikipedia). L'absence de centralisation et l'asynchronisme sont des aspects essentiels de cette approche qui relève d'un modèle pair-à-pair (P2P).  D'un autre côté,le format XML est devenu une référence pour la manipulation et l'échange de documents. Notre travail vise à la réalisation d'un éditeur collaboratif P2P pour l'édition de documents semi-structurés qui sont une abstraction du format XML.  Le problème est difficile et de nombreuses propositions se sont révélées erronées ou ne passant pas à l'échelle. Nous rappelons les concepts et l'état de l'art sur l'édition collaborative, les modèles centralisés et le P2P.  Ensuite, nous explorons deux approches différentes : les transformées opérationnelles et le CRDT (Commutative Replicated Data Type) avec différentes structures de données arborescentes. L'objectif est de réaliser les opérations de base (ajout, suppression et ré-étiquetage) tout en garantissant la convergence du processus d'édition. Nous proposons un algorithme générique pour l'approche CRDT basée sur une notion d'indépendance dans la structure de données.  Nous avons étendu nos travaux afin de réaliser l'opération de déplacement d'un sous-arbre et de prendre en compte le typage XML. Peu de travaux abordent ces deux points qui sont très utiles pour l'édition de documents. Finalement, nous donnons les résultats expérimentaux obtenus avec un prototype permettant de valider notre approche. / Collaborative editors allow different users to work together on a common task. Such tasks range from using a shared calendar to realizing software programmed by users located at distant sites. This concept was invented in 1972 with SCCS. In the last years, this paradigm became popular (ex. Wikipedia). Decentralization and asynchronicity are essential in this approach, leading to peer-to-peer (P2P) models. Meanwhile, the XML format has arrived as the de facto standard for editing and exchanging documents. Our work aims at defining a collaborative editor for semi-structured documents, which provide an abstraction of the XML format. The problem is difficult since many previous approaches are flawed or not scalable. Firstly,we describe the basic concepts on collaborative edition and network models and we give the state of the art of this topic. Then, we investigate two different approaches : the operational transformation(OT) approach and the Commutative Replicated Data Type (CRDT) approach for different (tree-like) data structures. Our goal is to ensure the convergence of the editing process with the basic operations (Add, Deland rename a node. We have proposed a new generic algorithm based on semantic independence in data structure for CRDT approach. We have extended our results by dealing with the operation that moves a subtree and with XML schema compliance. Few works have been devoted to these extensions which are useful in collaborative edition. Finally, we provide experimental results obtained from our implementation that validate our approach.

Page generated in 0.0865 seconds