• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 7
  • 2
  • 1
  • Tagged with
  • 30
  • 30
  • 12
  • 11
  • 10
  • 7
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Sydonie : modèle de document et ingénierie du Web

Lecarpentier, Jean-Marc 05 December 2011 (has links) (PDF)
Cette thèse de doctorat est articulée autour des ré flexions sur les évolutions du web et de l'approche des documents numériques. Elle se concrétise dans la mise au point d'un framework reprenant nos propositions de modèle de document, d'interactions et d'ingénierie du web. Nous appelons ce framework Sydonie pour SYstème de gestion de DOcuments Numériques pour l'Internet et l'édition. Il est distribué en logiciel libre. Nous proposons un modèle de document inspiré des spécifications fonctionnelles des notices bibliographiques, consignées dans le rapport sur les FRBR (Functional Requirements for Bibliographic Records). Notre modèle propose de regrouper, sous la forme d'un arbre, les différentes versions linguistiques et divers formats de fichier d'un même document. Ce modèle règle élégamment la sélection de la vue du document la plus appropriée à un utilisateur grâce à la négociation de contenu. Pour un document composite, il permet, de plus, d'inclure les composants sous la forme la plus appropriée. Notre réflexion sur les processus mis en oeuvre pour le développement d'applications web, complétée par les études réalisées dans le domaine de l'ingénierie du web, nous permettent de proposer, au sein du framework Sydonie, une architecture logicielle qui apporte des solutions souples et extensibles pour le développement d'applications web. Enfin, nous avons étudié les mécanismes à proposer pour rendre la gestion des métadonnées plus accessible aux développeurs web. Nous utilisons le modèle de document sous forme d'arbre pour proposer un modèle de gestion des métadonnées au sein des applications web.
22

Pérennité des business models des projets collaboratifs et communautaires ouverts : cas des projets et communautés open source/logiciel libre / Sustainability of business models, open collaborative and community projects : case of projects and communities open source/free software

Kadji ngassam, Martial tangui 01 June 2015 (has links)
De nos jours, de multiples travaux de recherches s’intéressent au secteur du logiciel libre (ou Open Source). Ceux-ci ont pour la plus part traité la question de la motivation des développeurs dans la dynamique de création collective de la valeur. Notre travail vient à la suite de la forte industrialisation de cette activité, qui attire des acteurs guidés principalement par la perspective de la captation de valeur économique, dans un contexte de faible degré d’appropriation de valeur puisque les droits de propriété sont proscrits pour les logiciels Open Source. Cette situation bouscule les principes de base et l’identité des projets Open Source remettant ainsi en cause la pérennité des Business Models (BM).Notre étude met en lumière le BM, non pas comme un outil, mais comme un ensemble de phases au cours desquelles la pérennité doit être analysée et anticipée. Nous avons aussi mis en avant la nécessité d’analyser la pérennité dans l’Open Source sur quatre dimensions ou niveaux (pérennité des logiciels, pérennité des entreprises éditrices de logiciel open source, pérennité des communautés Open Source et pérennité des données). Par la suite, grâce à notre démarche qualitative basée sur trois études de cas et sur 52 entretiens semi-directifs, nous avons pu identifier des points de tension et mis en évidence leurs impacts sur la pérennité des BM Open Source lors des phases de création, de captation et de partage de la valeur. C’est ainsi qu’il est ressorti comme risques, le détournement de la valeur et le comportement de free rider développé par les acteurs pour tenter de renforcer l’appropriabilité de la valeur. Cela passe d’une part par les tentatives de rétention de connaissances et d’autre part, par la nécessité de maintenir en interne les capacités intellectuelles détenues principalement par les développeurs. Cela pose les dilemmes entre ouverture/fermeture et rétention/diffusion. Nous exposons pour finir dans ce travail des éléments qui ressortent comme étant déterminants pour la pérennité des BM Open Source. / Nowadays, several research works are interested in the free software industry (or Open Source). Most of them have addressed the issue of developers’ motivation in a dynamic collective creation of value. Our work therefore comes as a result of the heavy industrialization of this activity, which attracts software developers primarily guided by the desire of creating economic value, in a context of low levels of ownership value, as property rights are prohibited for Open Source software. This disrupts the basic principles and identity of Open Source projects and therefore questions the sustainability of business models (BM).Our study highlights the BM, not as a tool, but as a series of steps in which sustainability should be analyzed and anticipated. We’ve also emphasized on the need to analyze the sustainability in Open Source in four dimensions or levels (the sustainability of open source software, sustainability of companies creating such freeware, Open Source communities and data’ sustainability). Subsequently, through our qualitative approach based on three case studies and 52 semi-structured interviews, we were able to identify some points of tension and highlighted their impact on the sustainability of Open Source BM during their phases of creation, capturing and sharing of value. Thus it has emerged some risks such as, the diversion of value and the free rider behavior developed by actors who try to strengthen appropriateness of value. This requires on one hand some knowledge retention efforts and on the other hand, the need to maintain internal intellectual capacity primarily held by developers. This creates dilemmas between opening and closing; retention and release. Finally we explain in this work element that stands out as critical to the sustainability of Open Source BM.
23

Algorithmic authority in music creation : the beauty of losing control = De l’autorité algorithmique dans la création musicale : la beauté de la perte de contrôle

Bortoletto Vaz, Tiago 01 1900 (has links)
Type de dépôt #5 (version complète) / De plus en plus de tâches humaines sont prises en charge par les algorithmes dans le domaine des arts. Avec les nouvelles techniques d’intelligence artificielle (IA) disponibles, qui reposent généralement sur le concept d’autoapprentissage, la frontière entre l’assistance informatique et la création algorithmique proprement dite s’estompe. À titre de mise en contexte, je présente, à l’aide d’exemples récents, un aperçu de la manière dont les artistes utilisent des algorithmes sophistiqués dans leur travail - et comment cette nouvelle forme d’art piloté par l’IA pourrait différer des premières formes d’art générées par ordinateur. Ensuite, sur la base de théories récentes issues d’une société post-humaniste et la montée de ce que certains auteurs appellent le dataisme, j’aborde des questions liées à l’autonomie, à la collaboration, aux droits d’auteur et au contrôle de la composition sur la création sonore et musicale. D’un point de vue pratique, je présente les logiciels libres et open source (FLOSS, de l’anglais Free/Libre and Open Source Software) qui ont pris une place constante dans mon processus de composition ; et je discute de la façon dont leur écosystème, principalement dans le domaine de l’IA, a façonné mon travail au fil des ans, tant d’un point de vue esthétique que pratique. Une série de trois pièces mixtes produites dans le cadre de ce projet de recherche-création est ensuite analysée. Je présente les différentes dimensions dans lesquelles le concept d’autorité algorithmique a pris part à mon processus de composition, des approches techniques aux choix esthétiques. Enfin, je propose des stratégies de notation musicale, basées sur des standards ouverts, visant à assurer la lisibilité, et donc la pérennité de mon travail. / Algorithms have taken over an increasing number of human tasks in the realm of the arts. With newly available AI techniques, typically relying on the concept of self-learning, the line separating computer assistance from actual algorithmic creation is blurring. To contextualize, through recent illustrative examples I elaborate an overview of ways in which artists are making use of sophisticated algorithms in their work – and how this new form of AI-driven art might differ from early computer-generated art. Then, based on recent theories concerning a post-humanist society and the rise of what some authors call dataism, I discuss issues related to autonomy, collaboration, authorship and compositional control over the creation of sound and music. From a practical perspective, I present the Free/Libre and Open Source Software (FLOSS) that have been a consistent presence in my compositional process; and discuss how their ecosystem, mainly in the domain of AI, has shaped my work over the last decade from both aesthetic and practical standpoints. A series of three mixed pieces produced as part of this research-creation project is then analyzed. I present the different dimensions in which the concept of algorithmic authority took part in my composition process, from technical approaches to aesthetic choices. Finally, I propose some strategies for music notation, based on open standards, aiming to assure the readability, and therefore the perpetuity of my work.
24

Essais sur les logiciels libres : licences doubles, effets de réseau, et concurrence

Latulippe, Johan 10 1900 (has links)
This thesis examines the microeconomic consequences of the arrival of open source in the software market. Specifically, it analyzes three features of open source software by using specific models of industrial organization. Open source software is free, and may be modified or duplicated by anyone. The first paper studies the entry of an open source software in a closed source software market. Using a model of horizontal differentiation, the analysis considers a closed source firm's investment in the quality of its software. The introduction of open source on the market reduces the firm's investment in quality and increases the price of its software. Moreover, the entry of open source software may reduce consumer welfare. Post-entry by an open source software, the reduction in market share lowers the firm's incentive to invest in quality. The second paper features vertical differentiation to study a monopolist selling supporting product to its software. The study begins by contrasting the supply of support by an open source provider and a closed source vendor. The model shows that in both cases the levels of support offered are the same. In addition, consumer welfare is higher and profit lower under an open source software. Then, the paper considers the competition in the provision of support. Here, the supply of high level support is greater than under a monopolist. Finally, the monopolist adopts a dual licensing strategy to extract more surplus from developers interested in modifying open source software and redistributing the resulting product. This technique, when the developers place high value on the source code, generates more profit if the monopolist chooses to publish as open source rather than closed source. The last paper studies how a closed source firm is affected by the introduction of an open source benefiting from contributions by users. A vertical differentiation model is used, and reveals that, when contribution of users is present, the closed source vendor may lower its price to a level where it forces the open source out of the market. The firm's lower price not only increases demand for its software, but also induces consumers into switching from open to closed source software therefore reducing the contribution of users. / Les logiciels libres sont uniques en leur genre\ : non seulement sont-ils distribués gra-tuitement, mais on peut aussi les modifier et les copier. Cette thèse étudie l'impact de ces propriétés du logiciel libre sur la compétition et sur les entreprises de logiciel propriétaire. Des modèles propres à l'organisation industrielle sont utilisés. Le première étude examine l'arrivée d'un logiciel libre sur un marché occupé par un logiciel propriétaire. En utilisant un modèle de différenciation horizontale, le papier consi-dère une firme propriétaire qui investit dans la qualité de son logiciel. L'arrivée d'un logiciel libre cause l'entreprise du logiciel propriétaire à réduire le niveau de son investissement et à augmenter le prix de son produit. Il s'avère alors que l'introduction du logiciel libre sur le marché réduit l'investissement de l'entreprise et engendre même l'augmentation du prix du produit. De plus, l'arrivée du logiciel libre peut réduire le niveau de bien-être des consommateurs. Comme le logiciel libre ne réagit pas aux décisions stratégique de l'entreprise, cette dernière voit son marché réduit peu importe sa stratégie. La firme décide conséquemment de vendre un produit de moindre qualité à un prix plus élevé à une clientèle réduite. Le deuxième papier propose un modèle qui utilise la différenciation verticale afin d'exa-miner un monopoleur offrant un produit complémentaire à son logiciel. L'étude compare d'abord les cas d'un logiciel libre et d'un logiciel propriétaire, toujours dans le contexte d'un monopoleur offrant du support professionnel pour son logiciel. Il est établi que le bien-être des consommateurs est plus élevé, et le profit inférieur dans le cas d'un distributeur de logiciel libre. Ensuite, le modèle initial est modifié avec l'ajout d'une seconde entreprise offrant du support professionnel. Dans ce cas, l'offre de support de haut niveau est plus élevée. Finalement, le monopoleur adopte une stratégie de licences doubles. Ce concept permet au monopoleur de proposer la vente d'une licence même si son logiciel est libre. Cette technique génère plus de profits, certaines conditions étant présentes, que si l'entreprise optait pour un logiciel propriétaire. Un logiciel libre profite des contributions de ses usagers pour améliorer son produit. Le troisième papier examine l'arrivée d'un tel produit sur un marché dominé par un logiciel propriétaire. Le modèle de différenciation verticale utilisé contraste les deux logiciels dans un marché donné et révèle que la contribution des utilisateurs peut diminuer la part de marché du logiciel libre au profit de son conccurrent. De fait, en diminuant ses prix le licenceur du logiciel propriétaire incite le consommateur à délaisser le logiciel libre pour le produit de son concurrent.
25

La spécificité des contrats liés aux technologies issues du numérique. Quelles singularités ces contrats présentent-ils, comparés à ceux du monde analogique ? / The specificity of agreements linked to digital technologies. What are their singularities, compared with the agreements of the analogical world?

Cohen, Véronique-Déborah 16 December 2011 (has links)
Les technologies issues du numérique ont donné naissance à des contrats qui nécessitent une approche particulière et qui posent parfois des difficultés de mise en oeuvre, d’application, d’interprétation, et même de qualification, tant leur existence ne peut désormais plus être ignorée dans le paysage juridique. A cela, s’ajoute le fait qu’ils répondent à un réel besoin, à la fois de la part des praticiens du droit et des acteurs de ces contrats. C’est sans compter qu’ils se démarquent des conventions issues du monde analogique en de nombreux points, sachant que néanmoins, ils s’inscrivent dans le cadre d’une évolution logique et naturelle du droit. C’est ainsi que depuis quelques années, le droit voit se profiler des contrats imposant au législateur d’élaborer de nouveaux textes, en raison des lacunes juridiques encore grandes en la matière. La question qui se pose d’emblée est alors de savoir quelle est leur place dans la vie juridique, et surtout, comment ils sont perçus et analysés par rapport à ceux plus « classiques » issus du monde analogique. Dès lors, d’autres interrogations s’enchaînent : dans quel type d’environnement évoluent-ils ? Quels sont les critères qui caractérisent le mieux les contrats liés aux technologies issues du numérique ? Et surtout, qu’est-ce qui les rend si spécifiques et si inédits par rapport aux autres contrats, et qu’est-ce qui fait leur essence même ? On en vient alors à se demander si la dématérialisation de leur objet et leur orientation tournée vers les technologies influencent leur mode de formation et leur exécution. Autrement dit, quel est leur impact sur l’équilibre contractuel et quelles sont leurs implications juridiques concrètes ? Une chose est sûre : si ces contrats font appel à un vocabulaire technique propre au monde numérique et que leur objet peut sembler de prime abord inédit et complexe, en réalité, il en est autrement, les prestations auxquelles ils renvoient étant au final, très proches de celles qui nous entourent depuis toujours. / Over the last decades, the fast-evolving technologies and the information and communication technologies (I.C.T) have been widespread in the current analogical world. They are engendered agreements which need a particular approach and which can’t be ignored today, because of their difficulties of application, interpretation, and even of qualification. The analogical world failed to offer a legal framework to that innovative and dynamic digital world creating tremendous legal uncertainty. Consequently, the emerging lack of appropriate agreements forced policymakers, regulators and legislators to elaborate new governance, new regulation and new acts to respond to those needs and expectations issued of the Information Society. The purpose is also to answer to the real needs of the lawyers and the professors of Law. These agreements are very different of the agreements of the analogical world in numerous points, but are inscribed in a logical and natural evolution of the Right of contracts. That’s why, it’s necessary to know what is their place in the legal life, and above all, how they are perceived and analyzed regarding the more "classical" contracts of the analogical world. Furthermore, other questions may be asked : in which kind of environment they evolve? What is characterizing the contracts linked to the information and communication technologies? What makes them so specific and so particular compared with the other agreements? The dematerialization of technology centered object can influence their way of formation, their execution and the balance of the agreements? What are their legal implications? If these agreements make reference to an specific and technical terminology of I.C.T., to the digital world, and if their object may be complex, in reality, the services generated by the Information Society are surrounding us in our daily life and are not different of the services we know since ever.
26

L'utopie du logiciel libre. La construction de projets de transformation sociale en lien avec le mouvement du free software.

Broca, Sebastien 12 January 2012 (has links) (PDF)
Dans le mouvement d'extension de la portée sociale du logiciel libre s'est constituée une utopie, qui constitue un pan de l'imaginaire politique contemporain. Cette utopie s'étend désormais bien au-delà de son milieu socio-culturel d'origine (le milieu hacker), du fait des liens tissés entre " libristes " et défenseurs des " biens communs ", du poids croissant de l'approche open source, et à proportion de l'intérêt suscité par le logiciel libre chez certains intellectuels critiques à partir de la fin des années 1990. Reprenant l'idéal cybernétique de libre circulation de l'information, l'utopie du logiciel libre se présente comme une contestation de la vision néolibérale de la propriété intellectuelle, et comme une critique des formes d'organisation du travail caractéristiques du capitalisme industriel. Elle se déploie en tant qu'" utopie concrète " (E. Bloch), mettant en jeu des pratiques de collaboration en ligne, des créations juridiques originales, et des formes de militantisme. Elle embrasse un idéal d'auto-organisation de la société civile, fondé sur la valorisation d'un domaine d'activités sociales distinct tant de l'État que du marché. Elle est toutefois condamnée à demeurer en deçà de cet idéal, et reste par ailleurs toujours menacée par les séductions du mythe et les renoncements de l'idéologie.
27

Essais sur les logiciels libres : licences doubles, effets de réseau, et concurrence

Latulippe, Johan 10 1900 (has links)
This thesis examines the microeconomic consequences of the arrival of open source in the software market. Specifically, it analyzes three features of open source software by using specific models of industrial organization. Open source software is free, and may be modified or duplicated by anyone. The first paper studies the entry of an open source software in a closed source software market. Using a model of horizontal differentiation, the analysis considers a closed source firm's investment in the quality of its software. The introduction of open source on the market reduces the firm's investment in quality and increases the price of its software. Moreover, the entry of open source software may reduce consumer welfare. Post-entry by an open source software, the reduction in market share lowers the firm's incentive to invest in quality. The second paper features vertical differentiation to study a monopolist selling supporting product to its software. The study begins by contrasting the supply of support by an open source provider and a closed source vendor. The model shows that in both cases the levels of support offered are the same. In addition, consumer welfare is higher and profit lower under an open source software. Then, the paper considers the competition in the provision of support. Here, the supply of high level support is greater than under a monopolist. Finally, the monopolist adopts a dual licensing strategy to extract more surplus from developers interested in modifying open source software and redistributing the resulting product. This technique, when the developers place high value on the source code, generates more profit if the monopolist chooses to publish as open source rather than closed source. The last paper studies how a closed source firm is affected by the introduction of an open source benefiting from contributions by users. A vertical differentiation model is used, and reveals that, when contribution of users is present, the closed source vendor may lower its price to a level where it forces the open source out of the market. The firm's lower price not only increases demand for its software, but also induces consumers into switching from open to closed source software therefore reducing the contribution of users. / Les logiciels libres sont uniques en leur genre\ : non seulement sont-ils distribués gra-tuitement, mais on peut aussi les modifier et les copier. Cette thèse étudie l'impact de ces propriétés du logiciel libre sur la compétition et sur les entreprises de logiciel propriétaire. Des modèles propres à l'organisation industrielle sont utilisés. Le première étude examine l'arrivée d'un logiciel libre sur un marché occupé par un logiciel propriétaire. En utilisant un modèle de différenciation horizontale, le papier consi-dère une firme propriétaire qui investit dans la qualité de son logiciel. L'arrivée d'un logiciel libre cause l'entreprise du logiciel propriétaire à réduire le niveau de son investissement et à augmenter le prix de son produit. Il s'avère alors que l'introduction du logiciel libre sur le marché réduit l'investissement de l'entreprise et engendre même l'augmentation du prix du produit. De plus, l'arrivée du logiciel libre peut réduire le niveau de bien-être des consommateurs. Comme le logiciel libre ne réagit pas aux décisions stratégique de l'entreprise, cette dernière voit son marché réduit peu importe sa stratégie. La firme décide conséquemment de vendre un produit de moindre qualité à un prix plus élevé à une clientèle réduite. Le deuxième papier propose un modèle qui utilise la différenciation verticale afin d'exa-miner un monopoleur offrant un produit complémentaire à son logiciel. L'étude compare d'abord les cas d'un logiciel libre et d'un logiciel propriétaire, toujours dans le contexte d'un monopoleur offrant du support professionnel pour son logiciel. Il est établi que le bien-être des consommateurs est plus élevé, et le profit inférieur dans le cas d'un distributeur de logiciel libre. Ensuite, le modèle initial est modifié avec l'ajout d'une seconde entreprise offrant du support professionnel. Dans ce cas, l'offre de support de haut niveau est plus élevée. Finalement, le monopoleur adopte une stratégie de licences doubles. Ce concept permet au monopoleur de proposer la vente d'une licence même si son logiciel est libre. Cette technique génère plus de profits, certaines conditions étant présentes, que si l'entreprise optait pour un logiciel propriétaire. Un logiciel libre profite des contributions de ses usagers pour améliorer son produit. Le troisième papier examine l'arrivée d'un tel produit sur un marché dominé par un logiciel propriétaire. Le modèle de différenciation verticale utilisé contraste les deux logiciels dans un marché donné et révèle que la contribution des utilisateurs peut diminuer la part de marché du logiciel libre au profit de son conccurrent. De fait, en diminuant ses prix le licenceur du logiciel propriétaire incite le consommateur à délaisser le logiciel libre pour le produit de son concurrent.
28

Développement d'indicateurs biomécaniques en manutention et leur application dans l'étude des différences entre les sexes lors de levers de charges en hauteur

Martinez, Romain 09 1900 (has links)
Les blessures musculo-squelettiques du membre supérieur représentent un problème de santé publique dans le secteur de la manutention. En plus d’affecter la qualité de vie du travailleur, ces lésions entraînent une perte de temps de travail et une augmentation des coûts de production. Alors que nous avons des évidences épidémiologiques que les femmes manutentionnaires sont plus nombreuses que les hommes à souffrir de douleurs à l’épaule, la littérature fait défaut d’indices biomécaniques qui expliquent l'origine de cette différence. L'objectif général de cette thèse était d'améliorer l'évaluation des techniques de manutention du membre supérieur, avec trois objectifs spécifiques : (1) développer des indices cinématiques, électromyographiques et musculo-squelettiques synthétiques pour évaluer et différencier des techniques de manutention du membre supérieur ; (2) développer un logiciel libre d'analyse biomécanique ; et (3) utiliser les indices et le logiciel développés pour décrire les différences biomécaniques entre des femmes et des hommes manutentionnaires. Nous avons récolté des données de cinématique, d'électromyographie et de force sur 30 femmes et 30 hommes réalisant une tâche de manutention qui consistait à déplacer une boîte de 6 et 12 kg entre la hauteur des hanches et la hauteur des yeux. À partir de ces données, nous avons développé des indicateurs synthétiques : un indicateur cinématique utile pour identifier des techniques de manutention problématiques et plus généralement les fonctions articulaires ; des indicateurs électromyographiques qui permettent d'estimer la quantité d'activation musculaire et la co-contraction musculaire ; et des indicateurs musculo-squelettiques qui permettent d'estimer les contraintes musculaires totales et les contraintes appliquées à l'articulation glénohumérale. Nous avons implémenté ces indicateurs avec pyomeca, notre logiciel libre d'analyse biomécanique. Mis à disposition de la communauté biomécanique, pyomeca supporte des tâches utiles dans le quotidien d'un chercheur biomécanique, mais également des routines biomécaniques plus avancées, axées sur la mécanique du corps rigide et le traitement de signal. Ce dernier se démarque des logiciels biomécaniques existants parce que c'est une solution libre, conviviale, spécialisée et sûre. Nous avons ensuite appliqué les indices synthétiques pour décrire les différences biomécaniques entre les femmes et les hommes participant à notre expérimentation. L'indicateur cinématique a montré que les femmes employaient une technique de manutention moins sécuritaire, avec une plus grande contribution glénohumérale, une faible contribution des membres inférieurs et une boite plus éloignée du tronc. Ces différences de technique se sont répercutées sur les indicateurs électromyographiques et musculo-squelettiques, avec des activations musculaires deux fois plus importantes comparativement aux hommes et une moindre stabilité de l'articulation glénohumérale. Ces différences pourraient contribuer à expliquer la prévalence de blessure du membre supérieur plus élevée chez les femmes manutentionnaires. Cette thèse a donc permis de développer des indicateurs synthétiques et un logiciel libre d'analyse biomécanique qui pourraient permettre aux ergonomes d'évaluer l'exposition aux risques de blessures du membre supérieur pendant une tâche de travail dynamique. Appliqués à une population spécifique, ces indicateurs suggèrent qu'il est crucial d'accorder une attention particulière au sexe pendant l'évaluation d'une tâche de travail au-dessus des épaules. / Work-related upper limb musculoskeletal disorders represent a public health challenge in the material handling industry. In addition to affecting the worker's quality of life, these injuries result in lost work time and increased production costs. While we have epidemiological evidence that more female material handlers suffer from shoulder pain than men, the literature is lacking biomechanical indicators that explain the origin of this difference. The general objective of this thesis was to improve the evaluation of upper limb handling techniques, with three specific objectives~: (1) to develop synthetic kinematic, electromyographic and musculoskeletal indicators to evaluate and differentiate upper limb handling techniques~; (2) to develop an open source biomechanical analysis software~; and (3) to use the developed indicators and software to describe the biomechanical differences between female and male workers. We collected kinematics, electromyography and force data on 30 women and 30 men performing a handling task that consisted in lifting a 6 and 12~kg box from hip to eye level. From these data, we developed synthetic indicators~: a kinematic indicator useful to identify poor handling techniques and more generally joint functions~; two electromyographic indicators to quantify the amount of muscle activation and muscle co-contraction~; and two musculoskeletal indicators to estimate total muscle stress and stress applied to the glenohumeral joint. We have implemented these indicators with pyomeca, our open-source biomechanical analysis software. Available to the biomechanical community, pyomeca provide basic operations useful in the daily workflow of a biomechanical researcher, but also more advanced biomechanical routines geared towards rigid body mechanics and signal processing. pyomeca stands from existing biomechanical software because it is an open-source, user-friendly, specialized and secure solution. We then applied our synthetic indicators to describe the biomechanical differences between the women and men participating in our experiment. The kinematic indicator showed that women used a poor handling technique, with a higher glenohumeral contribution, a low contribution from the lower limbs and a box further away from the trunk. These differences in technique affected the electromyographic and musculoskeletal indicators, with twice as much muscle activation compared to men and less glenohumeral stability. These results may contribute to the sex difference in the prevalence of upper limb musculoskeletal disorders. This thesis has enabled the development of biomechanical indicators and an open-source software that could allow ergonomists to assess the upper limb exposure during a dynamic lifting task. Applied to a specific population, these indicators argue for a careful consideration of sex during ergonomics intervention, particularly during overhead work.
29

Les licences libres et open source : outil stratégique de création et de captation de valeur pour les éditeurs open source : vers un dispositif de veille sur les business models viables

Alhiane, Rachid 17 February 2011 (has links)
Cette thèse présente un retour d’expérience sur le dispositif de veille et d’intelligence économique mise en place au sein de Marseille Innovation pour permettre aux éditeurs open source accompagnées dans sa pépinière d’entreprise de surveiller efficacement leur environnement pour y détecter des opportunités de développement. Ce projet s’inscrit dans le cadre d’une démarche globale, conduite par Marseille Innovation et ses partenaires pour structurer un réseau d’acteurs open source en PACA.Nous avons tout d’abord réalisé un état de l’art de la littérature open source en soulignant le paradoxe que pose le modèle open source pour les éditeurs qui choisissent d’utiliser les licences libres : l’adoption d’un modèle open source par certains éditeurs pour leurs logiciels permet une création de valeur pouvant être supérieure à celle générée dans le cadre de modèles propriétaires traditionnels, mais que cet avantage est contrebalancé par une dangereuse incertitude, quant à la captation de cette valeur, susceptible d’être récupérée par des concurrents n’ayant pourtant consentis aucun effort de développement et n’en ayant pas subis les coûts. Par la suite, nous avons présenté la naissance du logiciel libre comme le résultat des mutations de l’industrie informatique qui ont marqué le début des années 70, mutations qui ont fait passer le logiciel libre de la sphère publique à la sphère commerciale. En réaction, les défenseurs du logiciel libre ont inventé un système original de « licences publiques » pour protéger ces logiciels contre tout verrouillage technique ou légal de leur utilisation, de leur diffusion et de leur modification. Cependant, si ces licences publiques permettent de favoriser la création de valeur, à travers la coopération d’une communauté de programmeurs et la diffusion du logiciel, le caractère aléatoire de la rémunération dans le modèle open source a conduit les éditeurs à chercher et inventer de nouveaux « Bunisess Models » plus ou moins aléatoires, garantissant mieux leurs revenus.Partant des connaissances accumulées sur le modèle open source, nous avons par la suite exposé la démarche initiée par Marseille Innovation, en collaboration avec CCI de Marseille Provence et l’association Libertis, pour structurer un réseau d’acteurs open source en PACA. Cette démarche a abouti au lancement de plusieurs chantiers d’intérêt commun dont un sur la mise en place d’un dispositif de surveillance sur la filière open source.La stratégie adoptée pour mettre en place ce dispositif de surveillance consiste dans un premier temps à dresser un état de l’art des différentes approches théoriques et pratiques recensées sur le sujet dans la littérature SIC. Ensuite, une approche pragmatique de la veille a été choisie et les moyens organisationnels, processuels et techniques pour mettre en place ce dispositif de surveillance ont été étudiés. Des actions de sensibilisation à la veille et l’intelligence économique ont été également conduites auprès des membres du réseau et des startups open source accompagnées par Marseille Innovation, grâce à lesquelles des besoins en veille sont identifiés et des produits d’information sont élaborés pour permettre aux membres du réseau open source de suivre efficacement leur environnement. Des études de veille sont également réalisées pour répondre aux attentes des entreprises sur le mode de création et de captation de valeurs dans l’open source, les segments de marché porteurs, les licences informatiques et les business models qui en découlent. / This thesis presents a feedback on the competitive intelligence device set up in Marseille Innovation to allow open source software editors housed in its business incubator, to effectively monitor their environment in order to detect new opportunities for development. This project is part of a comprehensive approach, led by Marseille Innovation and its partners to structure a network of open source companies in the PACA area (south of France).First, we achieved a state of the art of open source literature emphasizing the paradox posed by the open source model for software editors who choose to use free software licenses : the adoption of an open source model by some editors for their software allows a value creation that could be greater than that generated through traditional proprietary models, but this advantage is offset by a dangerous uncertainty as to the value capture, could be recovered by competitors who have yet made no programming effort to and not having incurred costs. Subsequently, we presented the birth of free software as the result of changes in the computer industry that marked the early '70s, changes which caused the passage of free software from non commercial/public sphere to commercial/private sphere. In response, defenders of free software have invented an original system of "public licenses" to protect these software’s against any technical or legal interlocking of their use, their distribution and their modification. However, if these public licenses allow to promote a value creation, through the cooperation of a community of programmers and software distribution, the randomness of remuneration in the open source model has led software editors to seek and invent new "Business Models" more or less random, to better ensure their income.Based on knowledge accumulated on the open source model, we have subsequently explained the approach initiated by Marseille Innovation, in collaboration with Marseille-Provence Chamber of Commerce and Industry (CCI) and Libertis, to structure a network of open source companies in the PACA area. This approach led to the launch of several projects of mutual interest, including one on the setting-up of a monitoring device to monitor open source software industry.The approach adopted to setting-up this monitoring device consists in a first step to establish a state of the art of different theoretical approaches and practices identified in the information and communication sciences’ literature. Then, a pragmatic approach of monitoring has been chosen. Organizational means, processual and technical have been studied to set up this monitoring device. Raising awareness actions to competitive intelligence were also conducted with members of the network and open source startups coached by Marseille Innovation, through which information needs are identified and information products are developed to enable members of open source network to effectively monitor their environment. Bibliometric studies are also made to meet the expectations of open source companies on how to create and capture value in the open source software model, about promising market segments, software licenses and business models that result.
30

Constrained optimization for machine learning : algorithms and applications

Gallego-Posada, Jose 06 1900 (has links)
Le déploiement généralisé de modèles d’apprentissage automatique de plus en plus performants a entraîné des pressions croissantes pour améliorer la robustesse, la sécurité et l’équité de ces modèles—-souvent en raison de considérations réglementaires et éthiques. En outre, la mise en œuvre de solutions d’intelligence artificielle dans des applications réelles est limitée par leur incapacité actuelle à garantir la conformité aux normes industrielles et aux réglementations gouvernementales. Les pipelines standards pour le développement de modèles d’apprentissage automatique adoptent une mentalité de “construire maintenant, réparer plus tard”, intégrant des mesures de sécurité a posteriori. Cette accumulation continue de dette technique entrave le progrès du domaine à long terme. L’optimisation sous contraintes offre un cadre conceptuel accompagné d’outils algorithmiques permettant d’imposer de manière fiable des propriétés complexes sur des modèles d’apprentissage automatique. Cette thèse appelle à un changement de paradigme dans lequel les contraintes constituent une partie intégrante du processus de développement des modèles, visant à produire des modèles d’apprentissage automatique qui sont intrinsèquement sécurisés par conception. Cette thèse offre une perspective holistique sur l’usage de l’optimisation sous contraintes dans les tâches d’apprentissage profond. Nous examinerons i) la nécessité de formulations contraintes, ii) les avantages offerts par le point de vue de l’optimisation sous contraintes, et iii) les défis algorithmiques qui surgissent dans la résolution de ces problèmes. Nous présentons plusieurs études de cas illustrant l’application des techniques d’optimisation sous contraintes à des problèmes courants d’apprentissage automatique. Dans la Contribution I, nous plaidons en faveur de l’utilisation des formulations sous contraintes en apprentissage automatique. Nous soutenons qu’il est préférable de gérer des régularisateurs interprétables via des contraintes explicites plutôt que par des pénalités additives, particulièrement lorsqu’il s’agit de modèles non convexes. Nous considérons l’entraînement de modèles creux avec une régularisation L0 et démontrons que i) il est possible de trouver des solutions réalisables et performantes à des problèmes de grande envergure avec des contraintes non convexes ; et que ii) l’approche contrainte peut éviter les coûteux ajustements par essais et erreurs inhérents aux techniques basées sur les pénalités. La Contribution II approfondit la contribution précédente en imposant des contraintes explicites sur le taux de compression atteint par les Représentations Neuronales Implicites—-une classe de modèles visant à entreposer efficacement des données (telles qu’une image) dans les paramètres d’un réseau neuronal. Dans ce travail, nous nous concentrons sur l’interaction entre la taille du modèle, sa capacité représentationnelle, et le temps d’entraînement requis. Plutôt que de restreindre la taille du modèle à un budget fixe (qui se conforme au taux de compression requis), nous entraînons un modèle surparamétré et creux avec des contraintes de taux de compression. Cela nous permet d’exploiter la puissance de modèles plus grands pour obtenir de meilleures reconstructions, plus rapidement, sans avoir à nous engager à leur taux de compression indésirable. La Contribution III présente les avantages des formulations sous contraintes dans une application réaliste de la parcimonie des modèles avec des contraintes liées à l’équité non différentiables. Les performances des réseaux neuronaux élagués se dégradent de manière inégale entre les sous-groupes de données, nécessitant ainsi l’utilisation de techniques d’atténuation. Nous proposons une formulation qui impose des contraintes sur les changements de précision du modèle dans chaque sous-groupe, contrairement aux travaux antérieurs qui considèrent des contraintes basées sur des métriques de substitution (telles que la perte du sous-groupe). Nous abordons les défis de la non-différentiabilité et de la stochasticité posés par nos contraintes proposées, et démontrons que notre méthode s’adapte de manière fiable aux problèmes d’optimisation impliquant de grands modèles et des centaines de sous-groupes. Dans la Contribution IV, nous nous concentrons sur la dynamique de l’optimisation lagrangienne basée sur le gradient, une technique populaire pour résoudre les problèmes sous contraintes non convexes en apprentissage profond. La nature adversariale du jeu min-max lagrangien le rend sujet à des comportements oscillatoires ou instables. En nous basant sur des idées tirées de la littérature sur les régulateurs PID, nous proposons un algorithme pour modifier les multiplicateurs de Lagrange qui offre une dynamique d’entraînement robuste et stable. Cette contribution met en place les bases pour que les praticiens adoptent et mettent en œuvre des approches sous contraintes avec confiance dans diverses applications réelles. Dans la Contribution V, nous fournissons un aperçu de Cooper : une bibliothèque pour l’optimisation sous contraintes basée sur le lagrangien dans PyTorch. Cette bibliothèque open-source implémente toutes les contributions principales présentées dans les chapitres précédents et s’intègre harmonieusement dans le cadre PyTorch. Nous avons développé Cooper dans le but de rendre les techniques d’optimisation sous contraintes facilement accessibles aux chercheurs et praticiens de l’apprentissage automatique. / The widespread deployment of increasingly capable machine learning models has resulted in mounting pressures to enhance the robustness, safety and fairness of such models--often arising from regulatory and ethical considerations. Further, the implementation of artificial intelligence solutions in real-world applications is limited by their current inability to guarantee compliance with industry standards and governmental regulations. Current standard pipelines for developing machine learning models embrace a “build now, fix later” mentality, retrofitting safety measures as afterthoughts. This continuous incurrence of technical debt hinders the progress of the field in the long-term. Constrained optimization offers a conceptual framework accompanied by algorithmic tools for reliably enforcing complex properties on machine learning models. This thesis calls for a paradigm shift in which constraints constitute an integral part of the model development process, aiming to produce machine learning models that are inherently secure by design. This thesis provides a holistic perspective on the use of constrained optimization in deep learning tasks. We shall explore i) the need for constrained formulations, ii) the advantages afforded by the constrained optimization standpoint and iii) the algorithmic challenges arising in the solution of such problems. We present several case-studies illustrating the application of constrained optimization techniques to popular machine learning problems. In Contribution I, we advocate for the use of constrained formulations in machine learning. We argue that it is preferable to handle interpretable regularizers via explicit constraints, rather than using additive penalties, specially when dealing with non-convex models. We consider the training of sparse models with L0-regularization and demonstrate that i) it is possible to find feasible, well-performing solutions to large-scale problems with non-convex constraints; and that ii) the constrained approach can avoid the costly trial-and-error tuning inherent to penalty-based techniques. Contribution II expands on the previous contribution by imposing explicit constraints on the compression-rate achieved by Implicit Neural Representations—-a class of models that aim to efficiently store data (such as an image) within a neural network’s parameters. In this work we concentrate on the interplay between the model size, its representational capacity and the required training time. Rather than restricting the model size to a fixed budget (that complies with the required compression rate), we train an overparametrized, sparse model with compression-rate constraints. This allows us to exploit the power of larger models to achieve better reconstructions, faster; without having to commit to their undesirable compression rate. Contribution III showcases the advantages of constrained formulations in a realistic model sparsity application with non-differentiable fairness-related constraints. The performance of pruned neural networks degrades unevenly across data sub-groups, thus requiring the use of mitigation techniques. We propose a formulation that imposes constraints on changes in the model accuracy in each sub-group, in contrast to prior work which considers constraints based on surrogate metrics (such as the sub-group loss). We address the non-differentiability and stochasticity challenges posed by our proposed constraints, and demonstrate that our method scales reliably to optimization problems involving large models and hundreds of sub-groups. In Contribution IV, we focus on the dynamics of gradient-based Lagrangian optimization, a popular technique for solving the non-convex constrained problems arising in deep learning. The adversarial nature of the min-max Lagrangian game makes it prone to oscillatory or unstable behaviors. Based on ideas from the PID control literature, we propose an algorithm for updating the Lagrange multipliers which yields robust, stable training dynamics. This contribution lays the groundwork for practitioners to adopt and implement constrained approaches confidently in diverse real-world applications. In Contribution V, we provide an overview of Cooper: a library for Lagrangian-based constrained optimization in PyTorch. This open-source library implements all the core contributions presented in the preceding chapters and integrates seamlessly with the PyTorch framework. We developed Cooper with the goal of making constrained optimization techniques readily available to machine learning researchers and practitioners.

Page generated in 0.0376 seconds