• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 422
  • 171
  • 72
  • 2
  • 1
  • 1
  • Tagged with
  • 721
  • 336
  • 296
  • 278
  • 254
  • 246
  • 243
  • 144
  • 133
  • 92
  • 90
  • 82
  • 79
  • 69
  • 68
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
551

La représentation des interfaces utilisateur au cinéma : d'une image informatique à une image cinématographique

Rapenne, Thomas 07 1900 (has links)
La bulle bleue d’un message texte, la fenêtre d’un navigateur web, les lignes de programmation dans un terminal informatique, les diagrammes affichés sur les écrans de contrôle d’un vaisseau spatial : de 2001 à 2020, ces images d’interfaces s’insinuent partout dans les films. En informatique, l’interface utilisateur est l’environnement virtuel utile à l’usager pour interagir avec la machine. Au cinéma, la représentation de l'interface est le moyen de figurer cette interaction tout en empruntant immédiatement aux images de la machine. Si les interfaces sont de plus en plus fréquentes au cinéma, leur représentation est néanmoins très normée, obéissant le plus souvent très fidèlement aux conventions des genres cinématographiques qui l’ont modelée. Pourtant, en dressant leur inventaire en quatre grands types et en observant quelques cas d’exceptions, leur représentation révèle une grammaire cinématographique dotée de moyens narratifs, de trucages filmiques et d’effets de montage nouveaux qui restent à définir et dont on mesurera la valeur ajoutée. / The blue bubble of a text message, the window of a web browser, the programming lines in a computer terminal, the diagrams displayed on the control screens of a spaceship: from 2001 to 2020, these images of interfaces are everywhere in the movies. In computer science, the user interface is the virtual environment useful to the user to interact with the machine. In cinema, the representation of the interface is the way to represent this interaction while immediately borrowing from the machine's images. If the interfaces are more and more frequent in the cinema, their representation is nevertheless very standardized, obeying most often very faithfully the conventions of the cinematographic genres that have shaped it. However, by drawing up an inventory of four main types and observing a few exceptions, their representation reveals a cinematographic grammar endowed with new narrative means, filmic tricks and editing effects that remain to be defined and whose added value will be measured.
552

Extraction of UML class diagrams from natural language specifications

Yang, Song 11 1900 (has links)
Dans l’ingénierie dirigée par modèle, les diagrammes de classes UML servent à la planification et à la communication entre les différents acteurs d’un projet logiciel. Dans ce mémoire, nous proposons une méthode automatique pour l’extraction des diagrammes de classes UML à partir de spécifications en langues naturelles. Pour développer notre méthode, nous créons un dépôt de diagrammes de classes UML et de leurs spécifications en anglais fournies par des bénévoles. Notre processus d’extraction se fait en plusieurs étapes: la segmentation des spécifications en phrases, la classification de ces phrases, la génération des fragments de diagrammes de classes UML à partir de chaque phrase, et la composition de ces fragments en un diagramme de classes UML. Nous avons validé notre approche d’extraction en utilisant le dépôt de paires diagramme-spécification. Même si les résultats obtenus montrent une précision et un rappel bas, notre travail a permis d’identifier les éléments qui peuvent être améliorés pour une meilleure extraction. / In model-driven engineering, UML class diagrams serve as a way to plan and communicate between developers. In this thesis, we propose an automated approach for the extraction of UML class diagrams from natural language software specifications. To develop our approach, we create a dataset of UML class diagrams and their English specifications with the help of volunteers. Our approach is a pipeline of steps consisting of the segmentation of the input into sentences, the classification of the sentences, the generation of UML class diagram fragments from sentences, and the composition of these fragments into one UML class diagram. We develop a quantitative testing framework specific to UML class diagram extraction. Our approach yields low precision and recall but serves as a benchmark for future research.
553

Algorithmic authority in music creation : the beauty of losing control = De l’autorité algorithmique dans la création musicale : la beauté de la perte de contrôle

Bortoletto Vaz, Tiago 01 1900 (has links)
Type de dépôt #5 (version complète) / De plus en plus de tâches humaines sont prises en charge par les algorithmes dans le domaine des arts. Avec les nouvelles techniques d’intelligence artificielle (IA) disponibles, qui reposent généralement sur le concept d’autoapprentissage, la frontière entre l’assistance informatique et la création algorithmique proprement dite s’estompe. À titre de mise en contexte, je présente, à l’aide d’exemples récents, un aperçu de la manière dont les artistes utilisent des algorithmes sophistiqués dans leur travail - et comment cette nouvelle forme d’art piloté par l’IA pourrait différer des premières formes d’art générées par ordinateur. Ensuite, sur la base de théories récentes issues d’une société post-humaniste et la montée de ce que certains auteurs appellent le dataisme, j’aborde des questions liées à l’autonomie, à la collaboration, aux droits d’auteur et au contrôle de la composition sur la création sonore et musicale. D’un point de vue pratique, je présente les logiciels libres et open source (FLOSS, de l’anglais Free/Libre and Open Source Software) qui ont pris une place constante dans mon processus de composition ; et je discute de la façon dont leur écosystème, principalement dans le domaine de l’IA, a façonné mon travail au fil des ans, tant d’un point de vue esthétique que pratique. Une série de trois pièces mixtes produites dans le cadre de ce projet de recherche-création est ensuite analysée. Je présente les différentes dimensions dans lesquelles le concept d’autorité algorithmique a pris part à mon processus de composition, des approches techniques aux choix esthétiques. Enfin, je propose des stratégies de notation musicale, basées sur des standards ouverts, visant à assurer la lisibilité, et donc la pérennité de mon travail. / Algorithms have taken over an increasing number of human tasks in the realm of the arts. With newly available AI techniques, typically relying on the concept of self-learning, the line separating computer assistance from actual algorithmic creation is blurring. To contextualize, through recent illustrative examples I elaborate an overview of ways in which artists are making use of sophisticated algorithms in their work – and how this new form of AI-driven art might differ from early computer-generated art. Then, based on recent theories concerning a post-humanist society and the rise of what some authors call dataism, I discuss issues related to autonomy, collaboration, authorship and compositional control over the creation of sound and music. From a practical perspective, I present the Free/Libre and Open Source Software (FLOSS) that have been a consistent presence in my compositional process; and discuss how their ecosystem, mainly in the domain of AI, has shaped my work over the last decade from both aesthetic and practical standpoints. A series of three mixed pieces produced as part of this research-creation project is then analyzed. I present the different dimensions in which the concept of algorithmic authority took part in my composition process, from technical approaches to aesthetic choices. Finally, I propose some strategies for music notation, based on open standards, aiming to assure the readability, and therefore the perpetuity of my work.
554

Proposition d'amélioration d'un processus de développement de systèmes d'information - conclusions d'une expérience sur le terrain

Massé, Richard 12 January 2019 (has links)
Québec Université Laval, Bibliothèque 2018
555

Modèle de m-learning et conception d'applications mobiles comme outils de support pour l'enseignement à distance en informatique et génie logiciel

Kambale, Bernard 21 September 2018 (has links)
De nombreuses études menées dans le domaine de l'éducation ont révélé que l'apprentissage mobile apparaît de plus en plus comme une méthode d'apprentissage efficace avec l'utilisation des téléphones intelligents. Toujours opérationnels et facilement transportables, les téléphones intelligents peuvent être utilisés n'importe où, à n'importe quel moment et dans n'importe quel contexte. Considérant ce potentiel des téléphones intelligents dans notre société actuelle, nous présentons dans ce mémoire un modèle de l'apprentissage mobile conçu comme outil de support d'apprentissage en informatique et génie logiciel. Pour atteindre ce but, nous présentons d'abord les efforts qui tentent d'intégrer le téléphone intelligent parmi les outils de programmation. Dans ce sens, nous montrons des exemples d'utilisation des applications mobiles de programmation. Nous démontrons ensuite que le téléphone intelligent a des limites qui rendent l'exercice de programmation non efficace. Compte tenu de ces limites, nous montrons que, en particulier pour les cours de programmation, l'apprentissage mobile joue pleinement son rôle lorsqu'il permet d'accéder à l'information utile, de manière continue pour soutenir le processus d'apprentissage. Ainsi, nous arrivons à la conception de l'apprentissage mobile comme outil de support d'apprentissage en informatique et génie logiciel. Dans ce sens, l'apprentissage mobile offre un environnement d'accès aux mises à jour sur le travail planifié, aux notifications, aux commentaires, aux échéanciers de tâches, aux nouvelles tâches à réaliser, etc. Ensuite, après avoir étudié différents styles architecturaux et différents types d'applications, nous présentons des possibilités d'implémentation de ce modèle de l'apprentissage mobile. Nous identifions l'architecture hybride de développement d'applications mobiles comme l'architecture idéale pour concevoir et développer des outils de l'apprentissage mobile. Nous montrons le fonctionnement de cette architecture hybride en utilisant l'infrastructure logicielle Apache Cordova pour produire des outils d'apprentissage à la fois personnalisables et portables. / Many studies undertaken in the field of education have revealed that m-learning is emerging more and more as an effective learning method with the use of smartphones. Always turned on and easily transported, smartphones can be used anywhere, at any given time and in any context. Considering this potential of smartphones in our current society, in this thesis we present an m-learning model designed as a learning support tool in computer science and software engineering. To achieve this goal, we first show the existing efforts to integrate smartphones into programming tools. Following the same idea, we show examples of using mobile applications for programming. We then demonstrate that smartphones have limitations that make the programming exercise ineffective. Given these limitations, we show that, especially for programming courses, m-learning plays its role fully when it provides access to useful information on an ongoing basis to support the learning process. Thus, we come up with the design of m-learning as a learning support tool in computer science and software engineering. In this sense, m-learning provides an environment to receive updates on the planned work, notifications, comments, task schedules, new tasks to be performed, etc. Then, after having studied different architectural styles and different types of applications, we present possibilities of implementation of this m-learning model. We identify the hybrid architecture as the ideal architecture for designing and developing m-learning tools. We show how this hybrid architecture works by using the Apache Cordova Framework to produce m-learning tools that are both customizable and portable.
556

Modélisation des massifs rocheux fissurés par la méthode des éléments distincts

Tahiri, Abdelouahed 20 May 1992 (has links) (PDF)
Dans les massifs rocheux fissurés, il est très difficile de réaliser des ouvrages sans avoir fait, au préalable, une étude de sa fracturation et de son comportement mécanique et hydraulique. L'étude d'un massif rocheux fissuré doit comporter les étapes suivantes : - Relevé systématique des discontinuités du massif, - Étude statistique de ses discontinuités pour identifier les différentes familles qui découpent le massif, - Étude du comportement mécanique des discontinuités, - Étude générale de stabilité, - Étude hydraulique. Notre recherche est relative à l'étude générale de stabilité. Les méthodes classiques de calcul de stabilité, basées sur l'analyse des forces en situation d'équilibre limite et ne prenant pas en compte la déformabilité du massif et la répartition des contraintes existantes dans celui-ci, ne donnent pas entière satisfaction. La méthode que nous avons développée est une méthode dite par "éléments distincts". Elle permet de modéliser les massifs rocheux fissurés par un assemblage de blocs définis par le système de discontinuités et de calculer leurs interactions réciproques. L'interaction entre les blocs se transmet à travers leurs contacts (ou joints) suivant les lois de comportement mécanique de ces derniers. On peut exprimer les contraintes au niveau des joints en fonction de leurs rigidités et des déplacements des blocs. La minimisation de l'énergie potentielle totale de la structure étudiée permet de produire un système d'équations où sont exprimés les forces exercées sur le système et les déplacements des blocs par l'intermédiaire d'une matrice de rigidité. Il est souvent nécessaire de considérer des lois de comportement mécanique des joints non-linéaires, ce qui conduit à un système d'équations non-linéaires dont la résolution se fait d'une manière incrémentale itérative. Par cette méthode, on peut alors étudier les déformations causées par la réalisation d'une excavation dans le massif, rendre compte des ruptures locales qui peuvent évoluer suivant des mécanismes de ruptures progressives. Dans cette recherche, nous avons également modélisé les systèmes d'ancrages par boulons ou tirants actifs et par armatures passives scellées dans le massif. Le comportement mécanique des ancrages est considéré comme élasto-plastique avec écrouissage cinématique.
557

Kevoree : Model@Runtime pour le développement continu de systèmes adaptatifs distribués hétérogènes

Fouquet, François 06 March 2013 (has links) (PDF)
La complexité croissante des systèmes d'information modernes a motivé l'apparition de nouveaux paradigmes (objets, composants, services, etc), permettant de mieux appréhender et maîtriser la masse critique de leurs fonctionnalités. Ces systèmes sont construits de façon modulaire et adaptable afin de minimiser les temps d'arrêts dus aux évolutions ou à la maintenance de ceux-ci. Afin de garantir des propriétés non fonctionnelles (par ex. maintien du temps de réponse malgré un nombre croissant de requêtes), ces systèmes sont également amenés à être distribués sur différentes ressources de calcul (grilles). Outre l'apport en puissance de calcul, la distribution peut également intervenir pour distribuer une tâche sur des nœuds aux propriétés spécifiques. C'est le cas dans le cas des terminaux mobiles proches des utilisateurs ou encore des objets et capteurs connectés proches physiquement du contexte de mesure. L'adaptation d'un système et de ses ressources nécessite cependant une connaissance de son état courant afin d'adapter son architecture et sa topologie aux nouveaux besoins. Un nouvel état doit ensuite être propagé à l'ensemble des nœuds de calcul. Le maintien de la cohérence et le partage de cet état est rendu particulièrement difficile à cause des connexions sporadiques inhérentes à la distribution, pouvant amener des sous-systèmes à diverger. En réponse à ces défi scientifiques, cette thèse propose une abstraction de conception et de déploiement pour systèmes distribués dynamiquement adaptables, grâce au principe du Model@Runtime. Cette approche propose la construction d'une couche de réflexion distribuée qui permet la manipulation abstraite de systèmes répartis sur des nœuds hétérogènes. En outre, cette contribution introduit dans la modélisation des systèmes adaptables la notion de cohérence variable, permettant ainsi de capturer la divergence des nœuds de calcul dans leur propre conception. Cette couche de réflexion, désormais cohérente "à terme", permet d'envisager la construction de systèmes adaptatifs hétérogènes, regroupant des nœuds mobiles et embarqués dont la connectivité peut être intermittente. Cette contribution a été concrétisée par un projet nommé ''Kevoree'' dont la validation démontre l'applicabilité de l'approche proposée pour des cas d'usages aussi hétérogènes qu'un réseau de capteurs ou une flotte de terminaux mobiles.
558

Comportement dynamique des barrages en béton et prise en compte des effets de site sur les ondes sismiques incidentes

Milovanovitch, Vladan D. 06 October 1992 (has links) (PDF)
L'influence des effets de site sur la réponse sismique des barrages-voûtes a été étudiée récemment par différents auteurs. Dans les travaux effectués jusqu'à présent l'excitation sismique est utilisée de différentes façons, mais toujours en se limitant à quelques angles d'incidence d'ondes sismiques, définis à l'avance. Les réponses des barrages-voûtes dans ces conditions ne représentent que des cas particuliers sur lesquels sont basées les conclusions. La méthode des surfaces d'énergie présentée dans ce travail, représente une méthode générale (et en même temps économique) qui se sert du balayage tridimensionnel fin sur tous les angles d'incidence dans l'espace, pour différents types d'ondes sismiques et leurs différentes célérités de propagation. L'excitation sismique est représentée par les ondes P, SV, SH et ondes de Rayleigh. Leurs expressions ont été développées en séries limitées et remplacées par différentes combinaisons de fonctions de forme dont les coefficients sont les fonctions d'angles d'incidence et de direction. Cette méthode nous permet de définir les intervalles d'angles d'incidence les plus dangereux et ceux les moins dangereux pour un barrage ainsi que l'influence et l'importance des effets de site sur la réponse sismique des barrages-voûtes. Dans les conditions générales d'angles d'incidence, plusieurs paramètres ont été variés et analysés à l'aide de 12 différents modèles qui représentent des systèmes complexes du barrage-voûte avec son réservoir et la masse rocheuse qui les entoure. Ces paramètres sont : les angles d'incidence , la position du noeud dans le barrage, les célérités de propagation d'ondes du champ proche dans la roche, les célérités de propagation d'ondes du champ lointain, les effets de site, les types d'ondes, la compressibilité de l'eau, la présence de la retenue pleine, le changement de la taille et de la forme du réservoir, la direction de la vallée, des petites modifications de la forme de la frontière du modèle numérique, l'utilisation des éléments fluides pour modéliser le réservoir. La méthode d'énergie maximale traite le problème extrémal de l'énergie dans le barrage sur l'espace des fonctions de forme. L'excitation sismique est représentée par un signal plus complexe que celui obtenu par des ondes P, S V, SH et ondes de Rayleigh. Dans les analyses sismiques sur les effets maxima on détermine également des mouvements "éventuels" de la roche qui donnent l'énergie maximale dans le barrage. Les conclusions donnent un apport théorique basé sur les analyses paramétriques effectuées dans ces conditions générales d'angles d'incidence, ainsi qu'un apport pratique qui montre le moyen de détermination de la position du barrage la plus favorable par rapport aux intervalles d'angles prédominants de séismes (en remplissant en même temps les autres conditions nécessaires: statiques, géologiques etc.). Dans le domaine théorique cette thèse élargit et classifie nos connaissances sur les phénomènes des effets de site, en premier lieu l'influence sur le barrage (structure étendue) du massif rocheux, dont les propriétés mécaniques sont exprimées par la célérité de propagation d'ondes sismiques et de l'interaction barrage-fluide du lac de retenue. La méthode présentée dans ce travail ainsi que le logiciel entièrement créé pour le même travail peuvent être applicables, avec peu de modifications, sur d'autres structures étendues dont le comportement sismique est décrit dans le domaine linéaire de façon suffisamment correcte.
559

Vers une méthodologie de développement d'outils de réalité virtuelle pour faciliter la convergence métiers en conception de produits centrée sur l'homme

Bennes, Lionel 27 November 2013 (has links) (PDF)
La conception concourante de produits matériels centrée sur l'homme est basée sur une collaboration entre le concepteur mécanicien, l'ergonome et le designer industriel. Cette collaboration souvent difficile peut être facilitée par l'utilisation d'objets intermédiaires de conception, tels que la Réalité Virtuelle (RV). Néanmoins, bien que largement utilisée dans l'industrie, la RV souffre d'un déficit d'acceptation de la part des concepteurs de produits. Dans le cadre de ces travaux, nous proposons d'utiliser la RV sous la forme d'outils immersifs d'assistance à la convergence multidisciplinaire développés selon une démarche anthropocentrée en fonction des besoins spécifiques à chaque projet de conception de produits. Afin d'optimiser les délais de développement, nous proposons une méthodologie de conception d'applications immersive dédiée : la méthodologie ASAP(As Soon As Possible). Une première série expérimentale a été conduite dans le cadre de contrats industriels d'études et de recherche afin de valider la faisabilité de la méthodologie et l'efficacité des outils développés.Une deuxième série expérimentale a été effectuée sur plus de 50 sujets dans le cadre de projets, cette fois, pédagogiques qui ont nécessité le développement de 12 applications. Elle a permis de valider quantitativement l'influence des outils immersifs sur l'efficacité perçue des phases de convergence interdisciplinaires ainsi que l'influence de l'approche proposée sur l'acceptation de la RV par les concepteurs de produits. Ces travaux de thèse présentent une première approche qui, selon nous, permettra à terme, de faire évoluer l'usage de la RV vers une intégration plus forte au sein des processus de conception de produits avec, par exemple, une plus large utilisation des applications immersives de modélisation 3D, réelles sources d'innovation.
560

Les licences libres et open source : outil stratégique de création et de captation de valeur pour les éditeurs open source : vers un dispositif de veille sur les business models viables

Alhiane, Rachid 17 February 2011 (has links)
Cette thèse présente un retour d’expérience sur le dispositif de veille et d’intelligence économique mise en place au sein de Marseille Innovation pour permettre aux éditeurs open source accompagnées dans sa pépinière d’entreprise de surveiller efficacement leur environnement pour y détecter des opportunités de développement. Ce projet s’inscrit dans le cadre d’une démarche globale, conduite par Marseille Innovation et ses partenaires pour structurer un réseau d’acteurs open source en PACA.Nous avons tout d’abord réalisé un état de l’art de la littérature open source en soulignant le paradoxe que pose le modèle open source pour les éditeurs qui choisissent d’utiliser les licences libres : l’adoption d’un modèle open source par certains éditeurs pour leurs logiciels permet une création de valeur pouvant être supérieure à celle générée dans le cadre de modèles propriétaires traditionnels, mais que cet avantage est contrebalancé par une dangereuse incertitude, quant à la captation de cette valeur, susceptible d’être récupérée par des concurrents n’ayant pourtant consentis aucun effort de développement et n’en ayant pas subis les coûts. Par la suite, nous avons présenté la naissance du logiciel libre comme le résultat des mutations de l’industrie informatique qui ont marqué le début des années 70, mutations qui ont fait passer le logiciel libre de la sphère publique à la sphère commerciale. En réaction, les défenseurs du logiciel libre ont inventé un système original de « licences publiques » pour protéger ces logiciels contre tout verrouillage technique ou légal de leur utilisation, de leur diffusion et de leur modification. Cependant, si ces licences publiques permettent de favoriser la création de valeur, à travers la coopération d’une communauté de programmeurs et la diffusion du logiciel, le caractère aléatoire de la rémunération dans le modèle open source a conduit les éditeurs à chercher et inventer de nouveaux « Bunisess Models » plus ou moins aléatoires, garantissant mieux leurs revenus.Partant des connaissances accumulées sur le modèle open source, nous avons par la suite exposé la démarche initiée par Marseille Innovation, en collaboration avec CCI de Marseille Provence et l’association Libertis, pour structurer un réseau d’acteurs open source en PACA. Cette démarche a abouti au lancement de plusieurs chantiers d’intérêt commun dont un sur la mise en place d’un dispositif de surveillance sur la filière open source.La stratégie adoptée pour mettre en place ce dispositif de surveillance consiste dans un premier temps à dresser un état de l’art des différentes approches théoriques et pratiques recensées sur le sujet dans la littérature SIC. Ensuite, une approche pragmatique de la veille a été choisie et les moyens organisationnels, processuels et techniques pour mettre en place ce dispositif de surveillance ont été étudiés. Des actions de sensibilisation à la veille et l’intelligence économique ont été également conduites auprès des membres du réseau et des startups open source accompagnées par Marseille Innovation, grâce à lesquelles des besoins en veille sont identifiés et des produits d’information sont élaborés pour permettre aux membres du réseau open source de suivre efficacement leur environnement. Des études de veille sont également réalisées pour répondre aux attentes des entreprises sur le mode de création et de captation de valeurs dans l’open source, les segments de marché porteurs, les licences informatiques et les business models qui en découlent. / This thesis presents a feedback on the competitive intelligence device set up in Marseille Innovation to allow open source software editors housed in its business incubator, to effectively monitor their environment in order to detect new opportunities for development. This project is part of a comprehensive approach, led by Marseille Innovation and its partners to structure a network of open source companies in the PACA area (south of France).First, we achieved a state of the art of open source literature emphasizing the paradox posed by the open source model for software editors who choose to use free software licenses : the adoption of an open source model by some editors for their software allows a value creation that could be greater than that generated through traditional proprietary models, but this advantage is offset by a dangerous uncertainty as to the value capture, could be recovered by competitors who have yet made no programming effort to and not having incurred costs. Subsequently, we presented the birth of free software as the result of changes in the computer industry that marked the early '70s, changes which caused the passage of free software from non commercial/public sphere to commercial/private sphere. In response, defenders of free software have invented an original system of "public licenses" to protect these software’s against any technical or legal interlocking of their use, their distribution and their modification. However, if these public licenses allow to promote a value creation, through the cooperation of a community of programmers and software distribution, the randomness of remuneration in the open source model has led software editors to seek and invent new "Business Models" more or less random, to better ensure their income.Based on knowledge accumulated on the open source model, we have subsequently explained the approach initiated by Marseille Innovation, in collaboration with Marseille-Provence Chamber of Commerce and Industry (CCI) and Libertis, to structure a network of open source companies in the PACA area. This approach led to the launch of several projects of mutual interest, including one on the setting-up of a monitoring device to monitor open source software industry.The approach adopted to setting-up this monitoring device consists in a first step to establish a state of the art of different theoretical approaches and practices identified in the information and communication sciences’ literature. Then, a pragmatic approach of monitoring has been chosen. Organizational means, processual and technical have been studied to set up this monitoring device. Raising awareness actions to competitive intelligence were also conducted with members of the network and open source startups coached by Marseille Innovation, through which information needs are identified and information products are developed to enable members of open source network to effectively monitor their environment. Bibliometric studies are also made to meet the expectations of open source companies on how to create and capture value in the open source software model, about promising market segments, software licenses and business models that result.

Page generated in 0.0269 seconds