• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 422
  • 171
  • 72
  • 2
  • 1
  • 1
  • Tagged with
  • 721
  • 336
  • 296
  • 278
  • 254
  • 246
  • 243
  • 144
  • 133
  • 92
  • 90
  • 82
  • 79
  • 69
  • 68
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
511

Formal specification of interactive graphics programming languages

Mallgren, William R. January 1900 (has links)
Thesis (Ph. D.)--University of Washington, 1981. / Includes bibliographical references (p. [259]-265) and index.
512

L'impact cognitif des dispositifs médiatiques sur les enfants d'âge préscolaire en situation d'apprentissage avec un adulte. Étude d'un cas de simulateur informatique dans le contexte d'une exposition scientifique

Bernard, François-Xavier 20 November 2006 (has links) (PDF)
La recherche s'intéresse à l'apport au plan cognitif des dispositifs médiatiques présentés dans les expositions scientifiques interactives pour jeunes enfants, dans différents contextes d'accompagnement. Deux études ont été réalisées successivement dans l'exposition des 3/5 ans de la Cité des enfants à la Cité des sciences et de l'industrie (Paris), à propos d'un simulateur informatique proposant de réaliser des mélanges de peintures. Quarante-cinq enfants âgés de moins de six ans, ont été observés : vingt sous la conduite d'un tuteur expert, puis vingt-cinq sous la conduite d'un de leur parent. Afin de caractériser les interactions dyadiques en cours d'activité, nous avons eu recours à un modèle : le carré médiatique. Il ressort de l'analyse des interactions adulte-enfant que la tutelle exercée n'a d'impact qu'à partir d'un certain âge relatif au domaine de connaissances considéré, et apparaît essentiellement liée au contenu informationnel des échanges. Par ailleurs, l'activité de simulation semble avoir principalement fonction d'exercice formel pour l'enfant. L'impact de l'utilisation des dispositifs de type simulation, présentés dans les expositions scientifiques, serait donc subordonné à l'expérience préalable de l'enfant, mais aussi à la qualité de la tutelle déployée par l'adulte accompagnateur. Ce dernier point pose la question de l'aide à la conceptualisation, sur le plan du discours, mais aussi à l'utilisation, sur le plan manipulatoire.
513

"Rhétorique de la conception" : pour une prise de conscience des stratégies de l'outil de création : proposition d'une typologie de postures d'auteurs / A “rhetoric for creative authoring” : becoming aware of the strategies inherent in the creative authoring tools : Proposing a typology for authors’ positions

Farge, Odile 08 December 2014 (has links)
Les outils de création numériques, conçus pour faciliter la publication des textes en ligne ou la création d’animations interactives, proposent et parfois imposent des façons de présenter les contenus. Les auteurs sont-ils conscients de la possible influence de ces présupposés, anticipations de pratiques et contraintes ? Jusqu’à quel point l’écriture est-elle conditionnée par l’outil que l’auteur emploie ? Quelles sont ses effets sur l’écriture numérique ? Dans cette thèse, nous montrons que les outils-logiciels sont structurés comme des « discours » adressés à l’auteur-concepteur, fondés sur des stratégies que nous nommons « rhétorique de la conception ». Comme l’auteur d’un texte numérique anticipe lors de l'acte d'écriture sur les pratiques du lecteur, l’outil propose des discours qui constituent un ensemble de présupposés, de sous-entendus et d'implicites anticipant sur les pratiques de l'auteur. Il s’agit alors de se pencher sur les relations de pouvoir ainsi établies, et nous nous demanderons si certains éléments de discours de l’outil-logiciel ne sont pas de nature à influencer considérablement le créateur, pour qu’il adhère aux propositions défendant les intérêts ou les stratégies de l'industrie culturelle du logiciel. La création à partir d’éléments préfabriqués remet-elle alors en cause le statut de l’auteur ? / The tools for digital creation, designed as they are to facilitate the publication of online texts or the creation of interactive animations, propose and sometimes impose ways of presenting contents. Are writers aware of the possible influence of these assumptions, patterns of practice and constraints? How much is the act of authoring conditioned by the tool used by the writer? What effect do such tools have on digital creation? In this thesis we will show that software tools are structured as « frameworks » aimed at the writer-designer and based on strategies that we have called « rhetoric for creative authoring ». Just as, in the act of authoring, the writer of a digital text anticipates the practices of the reader, the tool itself proposes a framework which amounts to a number of underlying or implicit givens which anticipate the practices of the author. We therefore need to look into the power relationship thus established and to ask ourselves whether certain elements of the software-tool framework are not strongly influencing the author in order to make him/her adhere to propositions which defend the interests or strategies of the software cultural industry. When starting from prefabricated elements does the creative act not call into question the very status of the author?
514

Pérennité des business models des projets collaboratifs et communautaires ouverts : cas des projets et communautés open source/logiciel libre / Sustainability of business models, open collaborative and community projects : case of projects and communities open source/free software

Kadji ngassam, Martial tangui 01 June 2015 (has links)
De nos jours, de multiples travaux de recherches s’intéressent au secteur du logiciel libre (ou Open Source). Ceux-ci ont pour la plus part traité la question de la motivation des développeurs dans la dynamique de création collective de la valeur. Notre travail vient à la suite de la forte industrialisation de cette activité, qui attire des acteurs guidés principalement par la perspective de la captation de valeur économique, dans un contexte de faible degré d’appropriation de valeur puisque les droits de propriété sont proscrits pour les logiciels Open Source. Cette situation bouscule les principes de base et l’identité des projets Open Source remettant ainsi en cause la pérennité des Business Models (BM).Notre étude met en lumière le BM, non pas comme un outil, mais comme un ensemble de phases au cours desquelles la pérennité doit être analysée et anticipée. Nous avons aussi mis en avant la nécessité d’analyser la pérennité dans l’Open Source sur quatre dimensions ou niveaux (pérennité des logiciels, pérennité des entreprises éditrices de logiciel open source, pérennité des communautés Open Source et pérennité des données). Par la suite, grâce à notre démarche qualitative basée sur trois études de cas et sur 52 entretiens semi-directifs, nous avons pu identifier des points de tension et mis en évidence leurs impacts sur la pérennité des BM Open Source lors des phases de création, de captation et de partage de la valeur. C’est ainsi qu’il est ressorti comme risques, le détournement de la valeur et le comportement de free rider développé par les acteurs pour tenter de renforcer l’appropriabilité de la valeur. Cela passe d’une part par les tentatives de rétention de connaissances et d’autre part, par la nécessité de maintenir en interne les capacités intellectuelles détenues principalement par les développeurs. Cela pose les dilemmes entre ouverture/fermeture et rétention/diffusion. Nous exposons pour finir dans ce travail des éléments qui ressortent comme étant déterminants pour la pérennité des BM Open Source. / Nowadays, several research works are interested in the free software industry (or Open Source). Most of them have addressed the issue of developers’ motivation in a dynamic collective creation of value. Our work therefore comes as a result of the heavy industrialization of this activity, which attracts software developers primarily guided by the desire of creating economic value, in a context of low levels of ownership value, as property rights are prohibited for Open Source software. This disrupts the basic principles and identity of Open Source projects and therefore questions the sustainability of business models (BM).Our study highlights the BM, not as a tool, but as a series of steps in which sustainability should be analyzed and anticipated. We’ve also emphasized on the need to analyze the sustainability in Open Source in four dimensions or levels (the sustainability of open source software, sustainability of companies creating such freeware, Open Source communities and data’ sustainability). Subsequently, through our qualitative approach based on three case studies and 52 semi-structured interviews, we were able to identify some points of tension and highlighted their impact on the sustainability of Open Source BM during their phases of creation, capturing and sharing of value. Thus it has emerged some risks such as, the diversion of value and the free rider behavior developed by actors who try to strengthen appropriateness of value. This requires on one hand some knowledge retention efforts and on the other hand, the need to maintain internal intellectual capacity primarily held by developers. This creates dilemmas between opening and closing; retention and release. Finally we explain in this work element that stands out as critical to the sustainability of Open Source BM.
515

Génération automatique de test pour les contrôleurs logiques programmables synchrones / Automated test generation for logical programmable synchronous controllers

Tka, Mouna 02 June 2016 (has links)
Ce travail de thèse, effectué dans la cadre du projet FUI Minalogic Bluesky, porte sur le test fonctionnel automatisé d'une classe particulière de contrôleurs logiques programmables (em4) produite par InnoVista Sensors. Ce sont des systèmes synchrones qui sont programmés au moyen d'un environnement de développement intégré (IDE). Les personnes qui utilisent et programment ces contrôleurs ne sont pas nécessairement des programmeurs experts. Le développement des applications logicielles doit être par conséquent simple et intuitif. Cela devrait également être le cas pour les tests. Même si les applications définies par ces utilisateurs ne sont pas nécessairement très critiques, il est important de les tester d'une manière adéquate et efficace. Un simulateur inclu dans l'IDE permet aux programmeurs de tester leurs programmes d'une façon qui reste à ce jour informelle et interactive en entrant manuellement des données de test. En se basant sur des recherches précédentes dans le domaine du test des programmes synchrones, nous proposons un nouveau langage de spécification de test, appelé SPTL (Synchronous Programs Testing Language) qui rend possible d'exprimer simplement des scénarios de test qui peuvent être exécutées à la volée pour générer automatiquement des séquences d'entrée de test. Il permet aussi de décrire l'environnement où évolue le système pour mettre des conditions sur les entrées afin d'arriver à des données de test réalistes et de limiter celles qui sont inutiles. SPTL facilite cette tâche de test en introduisant des notions comme les profils d'utilisation, les groupes et les catégories. Nous avons conçu et développé un prototype, nommé "Testium", qui traduit un programme SPTL en un ensemble de contraintes exploitées par un solveur Prolog qui choisit aléatoirement les entrées de test. La génération de données de test s'appuie ainsi sur des techniques de programmation logique par contraintes. Pour l'évaluer, nous avons expérimenté cette méthode sur des exemples d'applications EM4 typiques et réels. Bien que SPTL ait été évalué sur em4, son utilisation peut être envisagée pour la validation d'autres types de contrôleurs ou systèmes synchrones. / This thesis work done in the context of the FUI project Minalogic Bluesky, concerns the automated functional testing of a particular class of programmable logic controllers (em4) produced by InnoVista Sensors. These are synchronous systems that are programmed by means of an integrated development environment (IDE). People who use and program these controllers are not necessarily expert programmers. The development of software applications should be as result simple and intuitive. This should also be the case for testing. Although applications defined by these users need not be very critical, it is important to test them adequately and effectively. A simulator included in the IDE allows programmers to test their programs in a way that remains informal and interactive by manually entering test data.Based on previous research in the area of synchronous test programs, we propose a new test specification language, called SPTL (Synchronous Testing Programs Language) which makes possible to simply express test scenarios that can be executed on the fly to automatically generate test input sequences. It also allows describing the environment in which the system evolves to put conditions on inputs to arrive to realistic test data and limit unnecessary ones. SPTL facilitates this testing task by introducing concepts such as user profiles, groups and categories. We have designed and developed a prototype named "Testium", which translates a SPTL program to a set of constraints used by a Prolog solver that randomly selects the test inputs. So, generating test data is based on constraint logic programming techniques.To assess this, we experimented this method on realistic and typical examples of em4 applications. Although SPTL was evaluated on EM4, its use can be envisaged for the validation of other types of synchronous controllers or systems.
516

Gestion agile de processus métier : proposition d'une approche tirée par les compétences / Agile Business Process Management : Proposal for a competency-based approach

Triaa, Wafa 21 September 2018 (has links)
Dans cette thèse, nous nous sommes intéressés à la gestion dynamique des processus métiers. L’objectif étant de permettre d’une part, une exécution robuste qui prend en compte la dynamicité des différents éléments de processus métiers. D'autre part l’objectif est aussi de gérer les processus en prenant en compte les compétences nécessaires à leurs exécutions. Ce travail de thèse s’appuie sur l’approche BPM et plus précisément à sa phase d’exécution. Dans un monde de travail turbulent et en constante évolution, on parle souvent de modèles adaptables ou adaptatifs, de modèles qui s’enrichissent à chaque exécution et ne suivent pas un modèle structuré et prédéfini tel que le cas du BPM (Business Process Management) classique. En effet, les outils d’automatisation des processus métiers actuels ont été conçus pour fournir un soutien aux acteurs impliqués pour répondre aux questions : Qu'est-ce qui doit être fait? Qui est en charge de le faire? Quand faut-il être effectué? La plupart du temps ces systèmes sont prescriptifs. Ainsi, les acteurs impliqués ne sont pas seulement supportés, ils sont forcés à effectuer les tâches dans des séquences spécifiées. De surcroit, un processus flexible c’est un processus capable de changer que les parties qui ont besoin d'être changées tout en gardant la stabilité de ses autres parties. Dans ce contexte, parmi les approche prometteuses, l’approche orientée services offre aux entreprises une modularité permettant de remplacer facilement un composant par un autre, de le réutiliser et d’étendre son objectif en lui ajoutant un autre composant. De ce fait, dans le but de supporter l’agilité des processus métiers, nous proposons une approche combinant les trois approches suivantes : l’approche BPM, la gestion des compétences et l'approche orientée service dans un environnement social supportant le travail collaboratif. / In the modern economy, creating agile business processes is one of the conditions to obtain/ maintain competitive advantage on the market. Efficient organizations need to ensure that their business processes are flexible so that these processes can easily accommodate changes in regulations and policies. Actually, the management of business processes is supported by the BPM (Business Process Management) approach. It addresses the management, transformation and improvement of organizational operations. Yet, actual BPM does not feature the means to have a continuous adaptation of their business processes and quick adjustment of their models and resources allocation to meet changing environmental conditions. In this thesis, we aim to support the agility of business processes to ensure a continuous adaptation to changes. The agility of business processes, combined with the agility of employees and that of information technology are prerequisites for achieving business agility. To support agility at IT level, we use the SOA (Service Oriented Architecture) approach. Indeed, the SOA can provide numerous benefits to the organization, enabling it to reduce complexity and increase flexibility through their reutilization and modularity features. Moreover, resources which are important assets in successful process’s implementation are widely supported with agile organization regarded as primordial factor for successful agility implementation. For this reason, we propose an approach that combines management of processes with the required skills to their execution and to better enhance the process flexibility we combine BPM with SOA in a social environment.
517

Un modèle à composant pour la gestion de contextes pervasifs orientés service / A component model for pervasive service oriented context management

Aygalinc, Colin 18 December 2017 (has links)
L'informatique pervasive promeut une vision d'un cadre dans lequel un patchwork de ressources hétérogènes et volatiles est intégré dans les environnements du quotidien. Ces ressources, matérielles ou logicielles, coopèrent de manière transparente, souvent aux travers d'applications, pour fournir des services à haute valeur ajoutée adaptés à chaque utilisateur et son environnement, grâce à la notion de contexte. Ces applications sont déployées dans un large spectre d'environnements d'exécution, allant d'infrastructures distantes de Cloud Computing jusqu'au plus près de l'utilisateur dans des passerelles Fog Computing ou directement dans les capteurs du réseau. Dans ces travaux, nous nous intéressons spécifiquement au module de contexte d'une plateforme Fog Computing. Pour faciliter la conception et l'exécution des applications Fog Computing, une approche populaire est de les bâtir au dessus d'une plateforme adoptant l'architecture à service, ce qui permet de réduire leur complexité et simplifie la gestion du dynamisme. Dans nos travaux, nous proposons d'étendre cette approche en modélisant le contexte comme un ensemble de descriptions de services, disponible à la conception, et exposé dynamiquement par le module de contexte à l'exécution, selon les besoins des applications et l'état de l'environnement. Ce module est programmé à l'aide d'un modèle à composant spécifique. L'unité de base de notre modèle à composant est l'entité de contexte, qui est composé de modules hautement cohérents implémentant distinctement les spécifications des services proposées par l'entité de contexte. Ces modules peuvent décrire de manière simple leur logique de synchronisation avec les sources de contexte distantes grâce à un langage dédié à ce domaine. A l'exécution, les instances d'entitées de contexte sont rendues introspectables et reconfigurables dynamiquement, ce qui permet, grâce à un manager autonomique externe, de veiller à la satisfaction des besoins des applications. Nous avons développé une implémentation de référence de ce modèle à composant, nommée CReAM, qui a pu être utilisée dans la passerelle domotique iCASA, développée en partenariat avec Orange Labs. / Pervasive computing promotes environments where a patchwork of heterogeneous and volatile resources are integrated in places of daily life. These hardware and software resources cooperate in a transparent way, through applications, in order to provide high valueadded services. These services are adapted to each user and its environment, via the notion of context. Pervasive applications are now widely distributed, from distant cloud facilities down to Fog Computing gateway or even in sensors, near the user. Depending on the localization, various forms of context are needed by the applications. In this thesis, we focus on the context module at Fog Level. In order to simplify the design and execution, Fog applications are built on top of a service-oriented platform, freeing the developer of technical complexity and providing a support to handle the dynamism. We propose to extend this approach by providing the context as a set of service descriptions, available at design to the application developer. At runtime, depending on the context sources availability and on application current needs, context services are published or withdrawn inside the platform by the context module. We tailor a specific component model to program this context module. The base unit of our component model is called context entity. It is composed of highly coherent modules, implementing distinctly each service description proposed by the underlying context entity. These modules can simply describe their synchronization logic with context sources thanks to a domain specific language. At runtime, context entity instances can be introspected and reconfigured. An external autonomic manager uses these properties to match dynamically the context services exposed by the context module to the application needs. We have developed a reference implementation of our work, called CReAM, which can be used in a smart home gateway called iCASA, developed in a partnership with Orange Labs.
518

Modélisation et mise en œuvre de processus collaboratifs ad hoc / Modeling and enacting ad hoc collaborative processes

Kedji, Komlan Akpédjé 05 July 2013 (has links)
Le développement logiciel est une activité intensément collaborative. Les problématiques habituelles de collaboration (organisation des tâches, utilisation des ressources, communication, etc.) y sont exacerbées par le rythme rapide des changements, la complexité et la grande interdépendance des artéfacts, le volume toujours croissant d’informations de contexte à traiter, la distribution géographique des participants, etc. Par conséquent, la question du support outillé de la collaboration se pose plus fortement que jamais en ingénierie logicielle. Dans cette thèse, nous abordons la question de la collaboration sous l’angle de la modélisation et de l’exploitation des processus de développement. Ces derniers sont traditionnellement considérés comme une structure imposée sur le développement d’un produit logiciel. Cependant, une part importante de la collaboration en génie logiciel est de nature ad hoc, faite d’activités non planifiées. Afin de faire contribuer les processus logiciels au support de la collaboration, en particulier celle non planifiée, nous nous intéressons à leur fonction de banques d’information sur les éléments clés de cette collaboration et les interactions entre ces derniers. Notre contribution est, d’une part, un modèle conceptuel du support au développement collaboratif, capable de rendre compte de la structure d’outils classiques comme ceux de gestion de versions ou de gestion de défauts logiciels. Ce modèle conceptuel est ensuite appliqué aux modèles de processus logiciels. Nous définissons ainsi une approche globale d’exploitation des informations de processus pour le support de la collaboration, basée sur les notions centrales de langage de requête d’information et de mécanisme de réaction aux événements. D’autre part, nous proposons un métamodèle, CMSPEM (Collaborative Model-Based Software & System Process Engineering Metamodel), qui enrichit le standard SPEM (Software & System Process Engineering Metamodel) avec des concepts et relations nécessaires au support de la collaboration. Ce métamodèle est outillé avec des outils de création de modèle (éditeurs graphiques et textuels), et un serveur de processus offrant un langage de requêtes basé sur HTTP/REST et un framework de souscription et de réaction aux événements de processus. Enfin, notre approche conceptuelle a été illustrée et validée, en premier lieu, par une analyse des pratiques inférées à partir des données de développement de 219 projets open source. En second lieu, des utilitaires de support à la collaboration (mise à disposition d’informations conceptuelles, automatisation d’actions, extraction d’information sur les contributions individuelles) ont été implémentés à travers le serveur de processus CMSPEM. / Software development is an intensively collaborative activity, where common collaboration issues (task management, resource use, communication, etc.) are aggravated by the fast pace of change, artifact complexity and interdependency, an ever larger volume of context information, geographical distribution of participants, etc. Consequently, the issue of tool-based support for collaboration is a pressing one in software engineering. In this thesis, we address collaboration in the context of modeling and enacting development processes. Such processes are traditionally conceived as structures imposed upon the development of a software product. However, a sizable proportion of collaboration in software engineering is ad hoc, and composed of unplanned activities. So as to make software processes contribute to collaboration support, especially the unplanned kind, we focus on their function of information repositories on the main elements of collaboration and the interactions of such elements. Our contribution, on the one hand, is a conceptual model of collaborative development support, which is able to account for popular tools like version control systems and bug tracking systems. This conceptual model is then applied to software processes. We hence define a global approach for the exploitation of process information for collaboration support, based on the central notions of query language and event handling mechanism. On the other hand, we propose a metamodel, CMSPEM (Collaborative Model-Based Software & System Process Engineering Metamodel), which extends SPEM (Software & System Process Engineering Metamodel) with concepts and relationships necessary for collaboration support. This metamodel is then tooled with model creation tools (graphical and textual editors), and a process server which implements an HTTP/REST-based query language and an event subscription and handling framework. Our approach is illustrated and validated, first, by an analysis of development practices inferred from project data from 219 open source projects. Second, collaboration support utilities (making contextual information available, automating repetitive actions, generating reports on individual contributions) have been implemented using the CMSPEM process server.
519

Vers les réseaux guidés par et pour les applications hautement dynamiques. / Towards networks guided by and for highly dynamic applications

Simo Tegueu, Armel francklin 04 July 2018 (has links)
Les applications modernes s’appuient sur des architectures qui combinent de plus en plus de composants logiciels émanant de plusieurs éditeurs, implantant des fonctions de plus en plus spécialisées, et très souvent déployés dans le « cloud ». De ce fait, ces applications nécessitent une dynamique et une adaptation certaines vis-à-vis des flux de données que leurs composants échangent et des besoins de qualité de service (QdS) que ces flux requièrent. Pour la majorité des applications, il s’avère difficile d’identifier à l’avance l’ensemble des flux et/ou d’exprimer précisément les besoins de QdS associés. Ainsi, fournir un service de communication réseau capable de répondre et de suivre les besoins de ces applications sans gaspiller, par surdimensionnement, l’utilisation des ressources réseau, pose plusieurs défis aux réseaux de communication supports, notamment un haut degré de flexibilité, largement au-delà des possibilités des réseaux de communication actuels. L’objectif de ce travail de thèse est de développer le concept de réseau guidé par les applications (ADN : Application Driven Networking), réseau capable d’offrir des services de communication personnalisés et dynamiques aux applications. Le qualificatif personnalisé signifie que le service ADN répond à des besoins de communication applicatifs exprimés avec un niveau de granularité très fin pouvant aller jusqu’aux flux élémentaires. Ces besoins peuvent être exprimés explicitement par l’application ou inférés par le réseau par analyse du trafic. L’aspect dynamique signifie que le service ADN est reprogrammé et ajusté pour suivre l’évolution des besoins de l’application dans le temps. Les contributions de ce travail de thèse couvrent plusieurs points. Nous avons défini l’architecture générale d’un réseau ADN bâti sur une infrastructure réseau de type SDN (Software Defined Network) en explicitant ses composants fonctionnels et en spécifiant les interfaces entre composants. Nous avons développé les algorithmes de ses principaux composants, notamment deux algorithmes d’allocation de ressources réseau qui calculent les chemins de données et les ressources réseau à y réserver pour satisfaire les exigences de bande passante et de délai des services ADN, tout en optimisant l’utilisation de ressources. Nous avons mis au point deux heuristiques de migration des services ADN afin de répartir aux mieux la charge du réseau et d’augmenter l’admissibilité des requêtes des services ADN à venir. Nous avons développé un prototype démonstrateur de réseau ADN qui fournit un ensemble de services ADN à des applications dynamiques basées sur le middleware temps réel DDS (Data Distribution Service). / Modern applications are typically composed of lots of software components that tend to implement self-contained specialized functions. These components are often supplied by many software editors and provisioned and accessed via the cloud. As a consequence, the data flows that are exchanged between applications’ components and their QoS requirements vary over time. Moreover, in many situations, it is quite difficult to pre-identify this set of data flows and/or express precisely the associated QoS. Hence, providing a network service that meets application requirements and dynamically evolves with their needs without uselessly wasting network resources poses several challenges to the underlying communication network. Notably, the necessity of a high level of flexibility, far beyond the capabilities of today’s communication networks. The aim of this PhD is to develop the Application Driven Networking (ADN) concept, which is able to provide tailored and dynamic network services to applications. Tailored means that the ADN service captures a fine-grained description of application needs, which can consider elementary flows. These needs can be expressed, either, explicitly by the application or inferred by the network by traffic analysis. The dynamic facet means that the ADN service is reprogrammed and adjusted to fit to evolving application needs. The main contributions of this thesis are the following. First, a general architecture of the ADN network built on top of a Software Defined Network (SDN) infrastructure is proposed. Algorithms related to the ADN functional components are also proposed, in particular two network resource allocation algorithms that calculate the optimal (in terms of network resource utilization) data paths and the required network resources that meet application requirements. Two ADN service migration heuristics are also proposed to efficiently distribute the network load and increase the acceptance of forthcoming network service requests. An ADN network prototype is developed as proof of concept. It provides ADN services to dynamic applications with QoS requirements built on top of the DDS (Data Distribution Service) middleware.
520

Systèmes d'information sociaux / Social Information Systems

Quast, Marc 24 October 2012 (has links)
Les systèmes d'information d'entreprise actuels s'articulent autour d'applications centrales lourdes, qui ne fournissent pas l'agilité nécessaire pour survivre dans un environnement économique hautement concurrentiel. De nombreux acteurs (unités commerciales, individus, équipes et communautés) doivent introduire leurs propres applications pour pallier à ces limitations, avec pour résultat un système d'information fragmenté, incohérent et impossible à gouverner. Cette étude propose un paradigme d'architecture d'entreprise alternatif, qui s'appuie sur une décomposition plus fine du système d'information et une distribution différente des responsabilités. Il permet à tout acteur de contribuer au système d'information en introduisant des fragments, privés ou partagés avec d'autres acteurs, qui peuvent ensuite être composés pour former des applications dédiées à un profil. Les récents mécanismes de l'informatique sociale sont proposés pour gérer les volumes potentiels importants de fragments émergeant de la communauté d'employés. L'objectif des systèmes d'informations sociaux est à la fois d'améliorer la cohérence et la gouvernabilité du système d'information de l'entreprise et d'exploiter l'intelligence et l'énergie collective de l'entreprise à des fins d'agilité métier maximale. / Present enterprise information systems are centered on heavy corporate applications, which cannot and indeed do not provide the agility required to survive in todays' competitive business landscape. Actors (business units, individuals, teams and communities) must introduce their own applications to work around these limitations, resulting in a fragmented, inconsistent and ungovernable information system. This thesis proposes an alternative enterprise architecture paradigm based upon a finer-grained decomposition of information systems and a different distribution of responsibilities. It empowers all actors to contribute fragments to the information system, private or shared with other actors, which can then be composed to form profile-specific applications. Consumer-space social mechanisms are proposed to manage the potentially huge resulting numbers of fragments emerging from the employee community. The aim of social information systems is both to improve the overall consistency and governability of the enterprise information system and to leverage the collective intelligence and energy of the corporation towards maximum business agility.

Page generated in 0.0255 seconds