• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 101
  • 33
  • 16
  • Tagged with
  • 149
  • 69
  • 38
  • 20
  • 17
  • 17
  • 14
  • 13
  • 12
  • 12
  • 12
  • 11
  • 11
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Traitement des signaux et images en temps réel : "implantation de H.264 sur MPSoC"

Messaoudi, Kamel 19 December 2012 (has links) (PDF)
Cette thèse est élaborée en cotutelle entre l'université Badji Mokhtar (Laboratoire LERICA) et l'université de bourgogne (Laboratoire LE2I, UMR CNRS 5158). Elle constitue une contribution à l'étude et l'implantation de l'encodeur H.264/AVC. Durent l'évolution des normes de compression vidéo, une réalité sure est vérifiée de plus en plus : avoir une bonne performance du processus de compression nécessite l'élaboration d'équipements beaucoup plus performants en termes de puissance de calcul, de flexibilité et de portabilité et ceci afin de répondre aux exigences des différents traitements et satisfaire au critère " Temps Réel ". Pour assurer un temps réel pour ce genre d'applications, une solution reste possible est l'utilisation des systèmes sur puce (SoC) ou bien des systèmes multiprocesseurs sur puce (MPSoC) implantés sur des plateformes reconfigurables à base de circuit FPGA. L'objective de cette thèse consiste à l'étude et l'implantation des algorithmes de traitement des signaux et images et en particulier la norme H.264/AVC, et cela dans le but d'assurer un temps réel pour le cycle codage-décodage. Nous utilisons deux plateformes FPGA de Xilinx (ML501 et XUPV5). Dans la littérature, il existe déjà plusieurs implémentations du décodeur. Pour l'encodeur, malgré les efforts énormes réalisés, il reste toujours du travail pour l'optimisation des algorithmes et l'extraction des parallélismes possibles surtout avec une variété de profils et de niveaux de la norme H.264/AVC.Dans un premier temps de cette thèse, nous proposons une implantation matérielle d'un contrôleur mémoire spécialement pour l'encodeur H.264/AVC. Ce contrôleur est réalisé en ajoutant, au contrôleur mémoire DDR2 des deux plateformes de Xilinx, une couche intelligente capable de calculer les adresses et récupérer les données nécessaires pour les différents modules de traitement de l'encodeur. Ensuite, nous proposons des implantations matérielles (niveau RTL) des modules de traitement de l'encodeur H.264. Sur ces implantations, nous allons exploiter les deux principes de parallélisme et de pipelining autorisé par l'encodeur en vue de la grande dépendance inter-blocs. Nous avons ainsi proposé plusieurs améliorations et nouvelles techniques dans les modules de la chaine Intra et le filtre anti-blocs. A la fin de cette thèse, nous utilisons les modules réalisés en matériels pour la l'implantation Matérielle/logicielle de l'encodeur H.264/AVC. Des résultats de synthèse et de simulation, en utilisant les deux plateformes de Xilinx, sont montrés et comparés avec les autres implémentations existantes
122

Planification et dimensionnement des réseaux optiques de longues distances

Jarray, Abdallah 02 1900 (has links)
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau. / The research project focuses on the design and planning problems of long distance optical networks also called OWANs (Optical Wide Area Networks) or "backbone". These are networks that carry aggregate flows in circuit switching mode. OWAN networks connect sites with optical fibers, cross-connected by optical and/or electric switches/routers. OWAN networks are meshed throughout a country or continent and allow the transit of data at very high speed. In the first part of the thesis, we are interested in the design problem of agile optical networks. The problem of agility is motivated by the growing of bandwidth demand and by the dynamic pattern of client traffic. Equipment deployed by network operators must allow greater reconfigurability and scalability to manage the complexity of connections among clients and deal with a dynamic traffic pattern. Often, the problem of network design is to provide the required bandwidth to grant a given traffic pattern. Here, we seek to choose the best nodal configuration with the agility level that can guarantee the optimal network resource provisioning. We will also study two other types of problems that can face a network operator. The first problem is the network resource provisioning. Once the network architecture design is chosen, the remaining question is : How to resize and optimize the architecture to meet the agility level required to grant any demand. The definition of the network provisioning scheme is a complex optimization problem. It consists of defining a set of optical paths, choosing the routes followed by them, and their assigned wavelengths, so as to optimize the solution quality with respect to some network metrics. Moreover, we need to define the best design strategy adapted to the dynamic traffic pattern. The second problem is to optimize the capital investment cost (CAPEX) and the operational expenses (OPEX) of the selected optical transport architecture. In the case of the design architecture considered in this thesis, the CAPEX includes the routing cost, the installation cost and the commissioning service cost for all required network equipment in end connections and intermediate nodes. OPEX correspond to expenses related to the operation of the transport network. Given the symmetrical nature and the exponential number of variables in most mathematical formulations developed for these types of problems, we particularly explored solving approaches based on a column generation algorithm and greedy heuristics which adapt well to these types of modeling and large scale mathematical models. A comparative study of several provisioning strategies and solution algorithms on different traffic and OWAN network instances show that the minimum network cost is obtained in two cases : An anticipative dimensioning strategy combined with a column generation solution combined with a rounding off heuristic in the context of no disturbance or possible disturbance of previously granted connections. Also, a good repartition of used network resources (MSPPs, PXC and wavelengths) is observed with the scenarios using a myopic strategy and a column generation solution approach. The results obtained from this thesis also show that a considerable saving in CAPEX and OPEX costs are possible in the case of an intelligent allocation and heteregenous distribution of network resources through network nodes compared with the classical architecture that adopts a uniform architecture using the same configuration in all nodes. Indeed, we demonstrated that it is possible to reduce the number of PXCs (Photonic Switches) while satisfying the traffic matrix and keeping the overall cost of provisioning network unchanged compared to what is happening in a classic architecture. This implies a substantial reduction in network CAPEX and OPEX costs. In our experiments with various network and traffic instances, we show that a careful dimensioning and location of the nodal equipment can save up to 65% of network expenses.
123

De l'empowerment à l'engagement du client sur les plateformes en ligne : ou comment favoriser l'activité des clients sur Internet

Morrongiello, Caroline 25 June 2014 (has links) (PDF)
Intérêt du sujet : Avec l'avènement du web2.0, l'influence interpersonnelle inclut désormais son extension dans le cyberespace avec le bouche-à-oreille électronique (eBAO). Internet modifie ainsi en profondeur les relations établies avec les consommateurs et conduit à une redéfinition de la relation marque -consommateur. Le web 2.0 apparaît ainsi comme un outil formidable au rééquilibrage des pouvoirs entre eux. Cependant, au-delà de ce constat, nous nous interrogeons quant à l'asymétrie entre les consommateurs et les marques dans ces conversations : le marketing est-il prêt à jouer le jeu ? Quelle perception le consommateur a-t-il de ce rééquilibrage ? Objectif de recherche : L'objectif de cette recherche est de comprendre les perceptions du web 2.0 par les consommateurs et les comportements qui en résultent. Thèse défendue : Face à cette redéfinition des relations entre consommateurs et entreprises, nous suggérons que les entreprises souhaitant des consommateurs engagés doivent accepter de céder une partie du pouvoir. Contribution attendue : Cette thèse vise à contribuer aux études précédentes et à pallier leurs limites. Alors que la littérature académique étudie les motivations des consommateurs à poster des avis en ligne en général (Hennig-Thurau et al, 2004 ; Sher et Lee, 2009), il manque des études empiriques considérant l'impact de facteurs individuels des consommateurs sur leur participation et sur leur engagement vis-à-vis d'une marque en particulier sur le web 2.0. Nous chercherons ainsi à comprendre le rôle des capacités de pouvoir du consommateur sur cette participation et cet engagement en ligne. Méthode : Une combinaison des approches qualitatives et quantitatives a constitué notre méthodologie de recherche. Dans un premier temps, une étude qualitative et une étude quantitative ont été réalisées auprès des consommateurs dans un contexte touristique. Celle-ci s'est déroulée en collaboration avec les offices de tourisme du Grand Bornand et d'Aix les Bains. Dans un deuxième temps, une expérimentation a été réalisée auprès des jeunes consommateurs (de 18 à 30 ans) dans le secteur spécifique des Smartphones et des tablettes mobiles. Principaux résultats : L'étude exploratoire nous a permis de souligner dans un premier temps les multiples paradoxes générés par l'eBAO diffusé sur les plateformes d'opinions. L'eBAO apparaît comme utile pour les consommateurs et les entreprises, cependant, un fort scepticisme règne face à celles-ci. La première étude quantitative nous a permis de mettre en avant les facteurs de participation et d'engagement : l'aide à l'entreprise, la sincérité perçue des avis postés, le scepticisme des consommateurs concernant les pratiques en ligne et l'attachement à la marque. D'une manière générale, nous constatons la volonté des consommateurs d'influencer. La seconde étude quantitative, l'expérimentation, nous montre que les caractéristiques des plateformes d'opinions en ligne ont un impact sur l'intention d'engagement et le comportement engageant. Cette étude nous montre l'importance de la véracité des commentaires en ligne et le risque infime de voir une plateforme d'opinions se transformer en défouloir.
124

Contribution à la spécification et à l'élaboration d'une plateforme de maintenance orientée connaissances.

Hedi Karray, Mohamed 09 March 2012 (has links) (PDF)
Le maintien en condition opérationnelle des équipements industriels est un des enjeux importants de l'entreprise, et a fait passer la maintenance d'un centre de coût à un centre de profit, ce qui a eu pour conséquence une éclosion de logiciels d'aide à la maintenance allant de la GMAO aux plateformes de e-maintenance. Ces systèmes d'aide fournissent aux différents acteurs de la maintenance, un support à la décision et un ensemble de services permettant une gestion informatisée d'activités de base appartenant au processus de maintenance (exemple l'intervention, la planification, le diagnostic, etc.). Toutefois, les besoins des utilisateurs évoluent dans le temps en fonction de nouvelles contraintes, de leur expertise, des nouvelles connaissances. Par contre les services fournis n'évoluent pas et nécessitent une réactualisation. Afin de tenir compte de l'évolution de ces connaissances, pour que ces systèmes d'aide puissent répondre aux besoins des utilisateurs et puissent proposer des services à la demande et des services évolutifs nous avons fait le point dans cette thèse sur les avantages et limites des systèmes informatiques d'aide existants notamment les plateformes de e-maintenance (systèmes les plus avancés aujourd'hui en maintenance). Pour pallier le manque des systèmes existants, nous avons proposé le concept de s-maintenance qui est caractérisé principalement par les échanges collaboratifs entre applications et utilisateurs, par des connaissances communes du domaine de maintenance. Pour mettre en œuvre ce concept, nous avons proposé une plateforme orientée connaissances assurant des fonctionnalités auto-x (auto-traçabilité, auto-apprentissage, autogestion) qui permettent de répondre aux caractéristiques de la s-maintenance. L'architecture à base de composants de cette plateforme prend appui sur une base de connaissances partagée entre les différents composants qu'elle intègre au profit de l'interopérabilité sémantique ainsi que de la capitalisation des connaissances. Nous avons par ailleurs développé une ontologie du domaine de maintenance sur laquelle s'appuie cette base de connaissances. Finalement, afin de développer les fonctionnalités auto-x assurées par la plateforme nous avons proposé un système à base de traces exploitant la base de connaissances et l'ontologie associée.
125

Une Approche Computationnelle pour l'Etude de Processus Morphogénétiques - de la motilité des cellules à la croissance des vaisseaux

Stéphanou, Angélique 15 December 2011 (has links) (PDF)
Les processus morphogénétiques sont les processus qui sous-tendent l'émergence de la forme. Leur étude consiste à décrire, comprendre et expliquer comment les formes apparaissent et évoluent. Pour cela, une approche computationnelle basée sur la simulation numérique, c'est à dire sur la réalisation d'expérience in silico a été utilisée et appliquée à deux cas morphogénétiques en particulier. Le premier cas a concerné la motilité cellulaire, c'est à dire l'étude des mécanismes à l'origine des mouvements et de la forme de la cellule. Une plateforme de modélisation hybride a pour cela été développée. Elle couple un modèle continu des déformations membranaires qui résultent de la dynamique spatio-temporelle de l'actine à un modèle discret de type automate cellulaire pour rendre compte de la nature discrète des adhésions et des fibres du cytosquelette de la cellule. Plusieurs situations expérimentales ont été considérées de la migration de la cellule aux formes cellulaires observées sur des substrats patternés (c'est à dire qui présentent des motifs adhésifs contrôlés) et ont permis de développer progressivement les différents éléments de la plateforme. Le second cas morphogénétique considéré a concerné la croissance vasculaire à travers différentes approches. Une approche expérimentale a eu pour but de mettre en évidence l'impact de la rigidité du substrat sur la formation de cordons vasculaires in vitro. La seconde approche a porté sur le développement d'un modèle computationnel hybride pour rendre compte de la croissance vasculaire dans le contexte de l'angiogenèse tumorale. Le modèle hybride couple une formulation continue pour d écrire les processus de diffusion des différentes espèces moléculaires impliquées (tels que les facteurs de croissance ou l'oxygène) à une formulation discrète pour d écrire la migration individuelle des cellules endothéliales formant les vaisseaux. La structure modulaire du modèle computationnel a de plus permis d'int égrer les mécanismes d'adaptation du diamètre des vaisseaux qui résultent des contraintes hémodynamiques c'est à dire liées au flux sanguin. La plateforme computationnelle a été développée par la suite pour intégrer un module de croissance tumorale et un module sur les moyens d'actions thérapeutiques, dans le cadre du projet CATS pour Computer-Assisted Therapeutic Strategy. L'ambition de ce projet en cours de développement, est de mettre au point une tumeur virtuelle destinée à tester et à optimiser de nouveaux protocoles thérapeutiques.
126

soCloud : une plateforme multi-nuages distribuée pour la conception, le déploiement et l'exécution d'applications distribuées à large échelle

Paraiso, Fawaz 18 June 2014 (has links) (PDF)
L'informatique multi-nuages s'est imposée comme un paradigme de choix pour créer des applications distribuées à large échelle s'exécutant à des emplacements géographiques ré- partis. L'informatique multi-nuages consiste en l'utilisation de multiples environnements de nuages indépendants qui ne nécessitent pas d'accord a priori entre les fournisseurs de nuage ou un tiers. Toutefois, ces applications conçues pour un environnement multi-nuages doivent faire face à de véritables défis en terme d'architecture, de modèle et de technologies. L'utilisation de l'informatique multi-nuages se heurte à l'hétérogénéité et à la complexité des offres de nuage. Ainsi, l'informatique multi-nuages doit faire face aux défis de la portabilité, de l'approvisionnement, de l'élasticité et de la haute disponibilité que nous identifions dans cette thèse. Dans ce travail de thèse, nous proposons un modèle d'applications nommé soCloud qui adresse ces quatre défis. C'est un modèle basé sur le standard SCA du consortium OASIS pour concevoir de manière simple et cohérente des applications distribuées à large échelle pour un environnement multi-nuages. Un nouveau langage dédié d'élasticité a été proposé pour exprimer efficacement l'élasticité d'applications multi-nuages par l'abstraction. Nous proposons aussi une plateforme multi-nuages soCloud conçue pour déployer, exécuter et gérer des applications réparties à travers plusieurs nuages. Le modèle d'applications soCloud a été utilisé pour la mise en œuvre de trois applications distribuées déployées dans un environnement multi-nuages. Quant à la plateforme soCloud, elle a été implantée, déployée et expérimentée sur dix nuages : Windows Azure, DELL KACE, Amazon EC2, CloudBees, OpenShift, dotCloud, Jelastic, Heroku, Appfog et Eucalyptus. Ces expériences sont utilisées pour valider la nouveauté des solutions approtées. Grâce à notre contribution, nous visons à offrir un moyen simple et efficace pour concevoir, déployer, exécuter et gérer des applications distribuées pour des environnements multi- nuages en proposant un modèle et une plateforme.
127

Exécution d'applications parallèles en environnements hétérogènes et volatils : déploiement et virtualisation

Miquée, Sébastien 25 January 2012 (has links) (PDF)
La technologie actuelle permet aux scientifiques de divers domaines d'obtenir des données de plus en plus précises et volumineuses, Afin de résoudre ces problèmes associés à l'obtention de ces données, les architectures de calcul évoluent, en fournissant toujours plus de ressources, notamment grâce à des machines plus puissantes et à leur mutualisation. Dans cette thèse, nous proposons d'étudier dans un premier temps le placement des tâches d'applications itératives asynchrones dans des environnements hétérogènes et volatils. Notre solution nous permet également de s'affranchir de l(hétérogénéité des machines hôtes tout en offrent une implantation facilitée de politiques de tolérance aux pannes, les expérimentations que nous avons menées sont encourageantes et montrent qu'il existe un réel potentiel quand à l'utilisation d'une telle plateforme pour l'exécution d'applications scientifiques.
128

Plateforme autonomique dirigée par les modèles pour la construction d'interfaces multimodales dans les environnements pervasifs / Model-Driven Autonomic Framework for Building Multimodal Interfaces in Pervasive Environments

Avouac, Pierre-Alain 07 February 2013 (has links)
La construction d’interfaces homme-machine au dessus d’applications complexes soulève aujourd’hui des problèmes importants et requiert des efforts de recherche conséquents et soutenus. Il s’agit en effet d’aborder des technologies de plus en plus diverses et complexes de façon à construire des interfaces modulaires, évolutives et tirant profits des récents progrès dans les domaines de la programmation et des intergiciels. Il s’agit également de permettre à des non informaticiens, spécialistes de l’ergonomie, de définir et de mettre en place des interfaces appropriées. L’approche orientée service (Service-oriented Computing - SOC) constitue une avancée récente en Génie Logiciel. Cette approche promeut la mise en place de solutions modulaires et dynamiques permettant de faire évoluer, possiblement à l’exécution, les interfaces. L’approche orientée service est très prometteuse et de nombreux projets de recherche sont en cours dans les domaines de l’intégration d’entreprise, des équipements mobiles ou encore de l’informatique pervasive. L’approche orientée service demeure néanmoins complexe et demande un haut niveau d’expertise. Elle est difficilement accessible par des informaticiens non formés et totalement hors de portée des ingénieurs d’autres métiers, ergonomes par exemple. L’approche proposée dans cette thèse est de construire un atelier manipulant des services IHM abstraits. Ces services abstraits décrivent leurs fonctionnalités et leurs dépendances à un haut niveau d’abstraction. Ils peuvent ainsi être composés de façon plus aisée par des ingénieurs non experts en SOC. Le rôle de l’atelier est ensuite d’identifier des services concrets, implantant les services abstraits, de les composer en générant le code nécessaire (glue code) et de les déployer sur une plate-forme d’exécution. Un deuxième point concerne la spécialisation de l’atelier. Il est effet important de proposer un langage de composition de services proches des concepts métiers manipulés par les experts, notamment les ergonomes. Un tel langage se base sur les concepts métiers et intègre les contraintes de composition propres au domaine. L’approche actuelle passe par l’utilisation de méta-modèles, exprimant les connaissances métier, pour la spécialisation de l’atelier. / N pervasive environments, with the proliferation of communicating devices in the environments (e.g., remoter controller, gamepad, mobile phone, augmented object), the users will express their needs or desires to an enormous variety of services with a multitude of available interaction modalities, expecting concurrently the environment and its equipment to react accordingly. Addressing the challenge of dynamic management at runtime of multimodal interaction in pervasive environments, our contribution is dedicated to software engineering of dynamic multimodal interfaces by providing: a specification language for multimodal interaction, an autonomic manager and an integration platform. The autonomic manager uses models to generate and maintain a multimodal interaction adapted to the current conditions of the environment. The multimodal interaction data-flow from input devices to a service is then effectively realized by the integration platform. Our conceptual solution is implemented by our DynaMo platform that is fully operational and stable. DynaMo is based on iPOJO, a dynamic service-oriented component framework built on top of OSGi and on Cilia, a component-based mediation framework.
129

Evaluating the capacity of a virtual r&d community of practice : The case of ALSTOM power hydro / Comment organiser la pérennisation et le partage des connaissances dans un environnement international entre le centre de technologie et les bureaux d’études ?

Fraslin, Marie 03 September 2013 (has links)
Nous basant sur plusieurs études de cas effectuées au sein de communautés R&D virtuelles d'Alstom Power Hydro, nous démontrons d'une part, qu'un forum peut soutenir différents types d'intéractions allant de la transmission d'informations à la co-construction de connaissances et co-production de solution. Opérationnalisant et améliorant des grilles scientifiques visant à caractériser des communautés de pratiques virtuelles, nous démontrons aussi, qu'il existe un lien entre la configuration d'une communauté et le type de ses intéractions en ligne. Nous démontrons qu’il existe une configuration optimale, de communautés de pratiques virtuelles appliquées à la R&D, qui garantit des intéractions de type co-construction de connaissance et co-production de solution entre ses membres. A l'heure où Microsoft équipe chaque jour 20000 nouveaux utilisateurs de l'application Share point, cette thèse prend tout sens. En opérationnalisant une méthode d'évaluation des communautés de pratiques virtuelles, et en apportant des conseils pour déployer un forum appliqué à la R&D, nous accompagnons tout projet de création de communauté R&D virtuelle et/ou d'instrumentation de ses intéractions par un forum. / In this dissertation, we explore the potential of a forum to support collaboration and knowledge sharing among Virtual Communities of practice. We thus propose a coding scheme based on the Rainbow model and test it in order to analyze the content of two forums of R&D VcoP. We demonstrate that a forum supports asynchronous argumentative activities and thus enhances global collaboration and knowledge sharing among R&D VcoP members. We then propose an enriched model based on the work of Line Dube and tested it to characterize the R&D VcoP studied. We prove that the community configuration has a direct impact on the online dynamic of the community. We point out the main factors that play a key role in fostering online collaboration and knowledge sharing between R&D Virtual community members.
130

A science-gateway for workflow executions : Online and non-clairvoyant self-healing of workflow executions on grids / Auto-guérison en ligne et non clairvoyante des exécutions de chaînes de traitement sur grilles de calcul : Méthodes et évaluation dans une science-gateway pour l’imagerie médicale

Da Silva, Rafael Ferreira 29 November 2013 (has links)
Les science-gateways, telles que la Plate-forme d’Imagerie Virtuelle (VIP), permettent l’accès à un grand nombre de ressources de calcul et de stockage de manière transparente. Cependant, la quantité d’informations et de couches intergicielles utilisées créent beaucoup d’échecs et d’erreurs de système. Dans la pratique, ce sont souvent les administrateurs du système qui contrôlent le déroulement des expériences en réalisant des manipulations simples mais cruciales, comme par exemple replanifier une tâche, redémarrer un service, supprimer une exécution défaillante, ou copier des données dans des unités de stockages fiables. De cette manière, la qualité de service fournie est correcte mais demande une intervention humaine importante. Automatiser ces opérations constitue un défi pour deux raisons. Premièrement, la charge de la plate-forme est en ligne, c’est-à-dire que de nouvelles exécutions peuvent se présenter à tout moment. Aucune prédiction sur l’activité des utilisateurs n’est donc possible. De fait, les modèles, décisions et actions considérés doivent rester simples et produire des résultats pendant l’exécution de l’application. Deuxièmement, la plate-forme est non-clairvoyante à cause du manque d’information concernant les applications et ressources en production. Les ressources de calcul sont d’ordinaire fournies dynamiquement par des grappes hétérogènes, des clouds ou des grilles de volontaires, sans estimation fiable de leur disponibilité ou de leur caractéristiques. Les temps d’exécution des applications sont difficilement estimables également, en particulier dans le cas de ressources de calculs hétérogènes. Dans ce manuscrit, nous proposons un mécanisme d’auto-guérison pour la détection autonome et traitement des incidents opérationnels dans les exécutions des chaînes de traitement. Les objets considérés sont modélisés comme des automates finis à états flous (FuSM) où le degré de pertinence d’un incident est déterminé par un processus externe de guérison. Les modèles utilisés pour déterminer le degré de pertinence reposent sur l’hypothèse que les erreurs, par exemple un site ou une invocation se comportant différemment des autres, sont rares. Le mécanisme d’auto-guérison détermine le seuil de gravité des erreurs à partir de l’historique de la plate-forme. Un ensemble d’actions spécifiques est alors sélectionné par règle d’association en fonction du niveau d’erreur. / Science gateways, such as the Virtual Imaging Platform (VIP), enable transparent access to distributed computing and storage resources for scientific computations. However, their large scale and the number of middleware systems involved in these gateways lead to many errors and faults. In practice, science gateways are often backed by substantial support staff who monitors running experiments by performing simple yet crucial actions such as rescheduling tasks, restarting services, killing misbehaving runs or replicating data files to reliable storage facilities. Fair quality of service (QoS) can then be delivered, yet with important human intervention. Automating such operations is challenging for two reasons. First, the problem is online by nature because no reliable user activity prediction can be assumed, and new workloads may arrive at any time. Therefore, the considered metrics, decisions and actions have to remain simple and to yield results while the application is still executing. Second, it is non-clairvoyant due to the lack of information about applications and resources in production conditions. Computing resources are usually dynamically provisioned from heterogeneous clusters, clouds or desktop grids without any reliable estimate of their availability and characteristics. Models of application execution times are hardly available either, in particular on heterogeneous computing resources. In this thesis, we propose a general self-healing process for autonomous detection and handling of operational incidents in workflow executions. Instances are modeled as Fuzzy Finite State Machines (FuSM) where state degrees of membership are determined by an external healing process. Degrees of membership are computed from metrics assuming that incidents have outlier performance, e.g. a site or a particular invocation behaves differently than the others. Based on incident degrees, the healing process identifies incident levels using thresholds determined from the platform history. A specific set of actions is then selected from association rules among incident levels.

Page generated in 0.0399 seconds