• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 108
  • 36
  • 19
  • Tagged with
  • 164
  • 57
  • 51
  • 43
  • 41
  • 35
  • 28
  • 25
  • 25
  • 23
  • 23
  • 20
  • 19
  • 19
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Ordonnancement efficace de systèmes embarqués temps réel strict sur plates-formes hétérogènes

Poczekajlo, Xavier 30 October 2020 (has links) (PDF)
Les systèmes embarqués sont de plus en plus présents dans notre quotidien, à l’instar des téléphones ou des équipements des voitures modernes. Les systèmes embarqués modernes utilisent des plates-formes de plus en plus complexes. Après avoir longtemps utilisé un seul processeur, les plates-formes modernes peuvent désormais contenir plusieurs processeurs. Depuis quelques années, afin de continuer à améliorer la performance de ces systèmes à moindre coût, certaines de ces plates-formes embarquent désormais plusieurs processeurs différents, parfois même capables de modifier rapidement leurs caractéristiques pendant l’exécution du système. C’est ce qu’on appelle des plates-formes hétérogènes.Cette thèse traite de l’ordonnancement d’applications temps réel strict pour des plates-formes hétérogènes reconfigurables. Établir une polituqe d’ordonnancement consiste à garantir l’exécution d’ensembles de tâches récurrentes, avec le respect des contraintes temporelles de chaque tâche. Dans un contexte de temps réel strict, une tâche doit nécessairement être pleinement exécutée avant son échéance. Tout retard pourrait compromettre la sécurité du système ou des utilisateurs.Produire un ordonnancement temps réel strict efficace pour de telles plates-formes hétérogènes est particulièrement difficile. En effet, la vitesse d’exécution d’un processeur d’une telle plates-forme dépend à la fois du type du processeur et de la tâche exécutée. Cela rend les tâches difficilement interchangeables et augmente ainsi considérablement la complexité des polituqes d’ordonnancement. De plus, le coût d’une migration – le déplacement d’une tâche en cours d’exécution – d’un processeur à un autre est élevé, ce qui peut rendre les polituqes d’ordonnancement peu efficaces en pratique.Dans cette thèse, deux voies sont explorées pour tirer parti des possibilités offertes par ces plates-formes hétérogènes. Tout d’abord, en proposant un ordonnanceur dit global, qui permet une utilisation théorique de l’entièreté de la plates-forme. Pour atteindre cet objectif, nous isolons différents sous-problèmes, en suivant un schéma établi par la littérature existante. Pour chaque sous-problème, nous proposons une amélioration significative par rapport à l’état de l’art. L’ensemble constitue un nouvel ordonnanceur. Une évaluation empirique montre que ses performances sont bien supérieures à celles des ordonnanceurs existants. De plus, la polituqe d’ordonnancement proposée a une meilleure applicabilité, car elle réduit le nombre de migrations d’un processeur à un autre.Une deuxième voie explorée est le paradigme d’application dite multimode. Nous proposons ici le premier modèle où le matériel comme le logiciel peuvent être modifiés pendant l’exécution de l’application, afin de s’adapter au contexte dans lequel elle se trouve. Enfin, deux nouveaux protocoles utilisant ce modèle sont proposés et évalués. Il est montré théoriquement et empiriquement que ces protocoles présentent une faible complexité et de bonnes performances, et correspondent donc au besoin d’applications réelles. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
122

Test de systèmes ubiquitaires avec prise en compte explicite de la mobilité / Test of ubiquitous systems with explicit consideration of the mobility

André, Pierre 17 November 2015 (has links)
L'objectif de cette thèse est de contribuer à l'élaboration d'une méthode de test de systèmes mobiles. L'approche développée est fondée sur la description de tests à l'aide de scénarios et leurs vérifications sur une trace d'exécution. Un scénario modélise le comportement et les interactions que l'on souhaite observer entre un ensemble de nœuds. Les caractéristiques des systèmes mobiles nous ont conduit à représenter un scénario sous deux points de vue différents et complémentaires. Un premier représente des événements de communications entre les nœuds et un second représente la topologie des liens entre ces nœuds. Notre approche est décomposée en deux étapes : une étape de spécification des cas de tests à l'aide de scénarios et une étape de vérification de ces scénarios sur des traces d'exécutions. La première consiste à spécifier à l'aide du langage dédié TERMOS les cas de test de l'application mobile à vérifier. Ce langage TERMOS a été mis en œuvre au sein de l'atelier UML Papyrus. À partir des scénarios décrits de manière graphique, nous générons pour chacun d'eux un automate ainsi qu'une séquence de topologie que nous utilisons dans l'étape suivante. La deuxième étape consiste à vérifier chaque scénario sur des traces d'exécutions provenant de l'application à tester. Pour cela un premier outil recherche les occurrences de la séquence de topologie du scénario dans la trace d'exécution. Pour chacune d'entre elles, l'automate est exécuté et conclut à un verdict. L'analyse de l'ensemble des verdicts d'un scénario permet de détecter les fautes présentes dans le système. / The main objective of this thesis is to contribute to elaborating a mobile system test method. The proposed approach is based on test definition using scenarios and their verification on an execution trace. A scenario modelizes the behavior and the interactions we want to achieve on a set of nodes. Considering the characteristics of mobile systems we represented scenarios from two different but complementary points of view. The first represents communication events between nodes and the second represents the link topology between the nodes. Our approach is composed of two steps : a first step to specify the test cases by using scenarios and a second step to verify these scenarios on execution flows. The first step consists in using the dedicated TERMOS language in order to specify the test cases of the mobile application. The TERMOS language has been developed in the UML Papyrus workshop. Based on the graphically defined scenarios, we generate an automaton for each one of them, as well as a sequence of topologies which we will be using in the next step. The second step consists in verifying each scenario by using execution traces from the application to be tested. Therefore a first tool detects scenario topology sequences in the execution flow. For each one of them the automaton is executed and comes out with a verdict. The analysis of all the verdicts of a scenario allows the detection of faults in the system.
123

control theory for computing systems : application to big-data cloud services & location privacy protection / Contrôle des systèmes informatiques : application aux services clouds et à la protection de vie privée

Cerf, Sophie 16 May 2019 (has links)
Cette thèse présente une application de la théorie du contrôle pour les systèmes informatiques. Un algorithme de contrôle peut gérer des systèmes plus grands et plus complexes, même lorsqu'ils sont particulièrement sensibles aux variations de leur environnement. Cependant, l'application du contrôle aux systèmes informatiques soulève plusieurs défis, par exemple dû au fait qu'aucune physique ne les régisse. D'une part, le cadre mathématique fourni par la théorie du contrôle peut être utilisé pour améliorer l'automatisation, la robustesse et la fiabilité des systèmes informatiques. D'autre part, les défis spécifiques de ces cas d'étude permettent d'élargir la théorie du contrôle elle-même. L'approche adoptée dans ce travail consiste à utiliser deux systèmes informatiques d'application: la protection de vie privée liée à la mobilité et les performances des services clouds. Ces deux cas d'utilisation sont complémentaires par la nature de leurs technologies, par leur échelle et par leurs utilisateurs finaux.La popularité des appareils mobiles a favorisé la diffusion et la collecte des données de localisation, que ce soit pour que l'utilisateur bénéficie d'un service personnalisé (e.g. une planification d'itinéraire) ou pour que le prestataire de services tire des informations utiles des bases de données de mobilité (e.g. la popularité de lieux). En effet, de nombreuses informations peuvent être extraites de données de localisation, y compris des données personnelles très sensibles. Pour remédier à cette atteinte à la vie privée, des mécanismes de protection spécifiques aux données de mobilité (LPPM) ont été élaborés. Ce sont des algorithmes qui modifient les données de localisation de l'utilisateur, dans le but de cacher des informations sensibles. Cependant, ces outils ne sont pas facilement configurables par des non experts et sont des processus statiques qui ne s'adaptent pas à la mobilité de l'utilisateur. Dans cette thèse, nous développons deux outils, l'un pour les bases de données déjà collectées et l'autre pour l'utilisation en ligne, qui garantissent aux utilisateurs des niveaux de protection de la vie privée et de préservation de la qualité des services en configurant les LPPMs. Nous présentons la première formulation du problème en termes de théorie du contrôle (système et contrôleur, signaux d’entrée et de sortie), et un contrôleur PI pour servir de démonstration d’applicabilité. Dans les deux cas, la conception, la mise en œuvre et la validation ont été effectuées par le biais d'expériences utilisant des données d'utilisateurs réels recueillies sur le terrain.L'essor récent des bigdata a conduit au développement de programmes capables de les analyser, tel que MapReduce. Les progrès des pratiques informatiques ont également permis d'établir le modèle du cloud (où il est possible de louer des ressources de bas niveau pour permettre le développement d'applications de niveau supérieur sans se préoccuper d'investissement ou de maintenance) comme une solution incontournable pour tous types d'utilisateurs. Garantir les performances des tâches MapReduce exécutées sur les clouds est donc une préoccupation majeure pour les grandes entreprises informatiques et leurs clients. Dans ce travail, nous développons des techniques avancées de contrôle du temps d'exécution des tâches et de la disponibilité de la plate-forme en ajustant la taille du cluster de ressources et en réalisant un contrôle d'admission, fonctionnant quelle que soit la charge des clients. Afin de traiter les non linéarités de MapReduce, un contrôleur adaptatif a été conçu. Pour réduire l'utilisation du cluster (qui entraîne des coûts financiers et énergétiques considérables), nous présentons une nouvelle formulation du mécanisme de déclenchement du contrôle événementiel, combiné à un contrôleur prédictif optimal. L'évaluation est effectuée sur un benchmark s'exécutant en temps réel sur un cluster, et en utilisant des charges de travail industrielles. / This thesis presents an application of Control Theory for Computing Systems. It aims at investigating techniques to build and control efficient, dependable and privacy-preserving computing systems. Ad-hoc service configuration require a high level of expertise which could benefit from automation in many ways. A control algorithm can handle bigger and more complex systems, even when they are extremely sensitive to variations in their environment. However, applying control to computing systems raises several challenges, e.g. no physics governs the applications. On one hand, the mathematical framework provided by control theory can be used to improve automation and robustness of computing systems. Moreover, the control theory provides by definition mathematical guarantees that its objectives will be fulfilled. On the other hand, the specific challenges of such use cases enable to expand the control theory itself. The approach taken in this work is to use two application computing systems: location privacy and cloud control. Those two use-cases are complementary in the nature of their technologies and softwares, their scale and in their end-users.The widespread of mobile devices has fostered the broadcasting and collection of users’ location data. It could be for the user to benefit from a personalized service (e.g. weather forecast or route planning) or for the service provider or any other third party to derive useful information from the mobility databases (e.g. road usage frequency or popularity of places). Indeed, many information can be retrieved from location data, including highly sensitive personal data. To overcome this privacy breach, Location Privacy Protection Mechanisms (LPPMs) have been developed. They are algorithm that modify the user’s mobility data, hopefully to hide some sensitive information. However, those tools are not easily configurable by non experts and are static processes that do not adapt to the user’s mobility. We develop two tools, one for already collected databases and one for online usage, that, by tuning the LPPMs, guarantee to the users objective-driven levels of privacy protection and of service utility preservation. First, we present an automated tool able to choose and configure LPPMs to protect already collected databases while ensuring a trade-off between privacy protection and database processing quality. Second, we present the first formulation of the location privacy challenge in control theory terms (plant and control, disturbance and performance signals), and a feedback controller to serve as a proof of concept. In both cases, design, implementation and validation has been done through experiments using data of real users collected on the field.The surge in data generation of the last decades, the so-called bigdata, has lead to the development of frameworks able to analyze them, such as the well known MapReduce. Advances in computing practices has also settled the cloud paradigms (where low-level resources can be rented to allow the development of higher level application without dealing with consideration such as investment in hardware or maintenance) as premium solution for all kind of users. Ensuring the performances of MapReduce jobs running on clouds is thus a major concern for the big IT companies and their clients. In this work, we develop advanced monitoring techniques of the jobs execution time and the platform availability by tuning the resource cluster size and realizing admission control, in spite of the unpredictable client workload. In order to deal with the non linearities of the MapReduce system, a robust adaptive feedback controller has been designed. To reduce the cluster utilization (leading to massive financial and energetic costs), we present a new event-based triggering mechanism formulation combined with an optimal predictive controller. Evaluation is done on a MapReduce benchmark suite running on a large-scale cluster, and using real jobs workloads.
124

Public procurement interaction model for IT services

Beaudoin, Pascal 18 February 2021 (has links)
Cette recherche est une étude de cas qui examine la relation et les attributs entre les différentes entités impliquées dans le processus d’appel d’offre publique au gouvernement du Québec. Il se concentre spécifiquement sur les services professionnels informatiques qui constituent une catégorie de dépenses élevées dans les marchés publics. En utilisant le résultat de plusieurs entretiens avec des société informatique, notre recherche nous a permis de proposer un modèle d'interaction entre les différentes entités de l'écosystème d’appel d'offres publique qui peut être utilisé pour avoir une vue holistique de l'environnement et également comme un tremplin pour des études plus approfondie de la discipline. / This paper is a case study that examines the relationship and attributes between the different entities involved in Québec’s Government public procurement process. It is focused specifically on the IT professional services which is a high spending category in public procurement. Using result from multiple interview with IT firm, our finding allowed us to propose an entity interaction model for the call for tender ecosystem that can be used to have an holistic view of the environment and also as a stepping stone for further study of the field.
125

LA PRAXEOLOGIE COMME MODELE DIDACTIQUE POUR LA PROBLEMATIQUE EIAH. ETUDE DE CAS : LA MODELISATION DES CONNAISSANCES DES ELEVES

Chaachoua, Hamid 29 October 2010 (has links) (PDF)
La conception des environnements informatiques d'apprentissage humain qui traitent des questions comme celle de modélisation de l'apprenant ou celle de conception de parcours d'enseignement repose sur un choix d'une modélisation didactique pertinente pour les questions et qui soit calculable. Nous montrons dans cette note de synthèse que le modèle praxéologique, avec des adaptations nécessaires par sa formalisation, permet de répondre à ces exigences. Nous illustrons sa mise en œuvre dans le cas de la modélisation des connaissances des élèves.
126

Ingénierie de l'observation basée sur la prescription en EIAH

Iksal, Sébastien 18 September 2012 (has links) (PDF)
Les travaux présentés correspondent à ceux que nous avons menés au sein de l'équipe IEIAH (Ingénierie des Environnements Informatiques pour l'Apprentissage Humain) au sein du Laboratoire d'Informatique de l'Université du Maine. La question de recherche générale que nous avons choisie de traiter est la suivante : "Comment aider l'enseignant/concepteur à améliorer sa situation d'apprentissage grâce à l'observation de cette dernière?". Pour cela, nous nous sommes intéressés au processus d'observation et plus particulièrement, nous avons défini un cadre méthodologique de l'ingénierie de l'observation par la prescription. En effet, les travaux dans le domaine de l'observation traitent le plus souvent du processus d'analyse uniquement. Ce processus est certes important, car il définit la manière dont sont calculés les indicateurs, mais le plus souvent ces indicateurs sont "subis" par les usagers. Nous avons choisi de nous intéresser au processus d'ingénierie de l'observation qui va de l'agent humain exprimant son besoin d'observation jusqu'à l'agent humain (le plus souvent, il s'agit de la même personne) qui exploite le résultat de l'observation. Nous envisageons donc l'observation au sens large, au travers d'un cycle d'ingénierie/réingénierie qui s'étend de l'expression du besoin jusqu'à l'opérationnalisation et le retour d'expérience sur l'observation. Nous parlons alors d'ingénierie de l'observation basée sur la prescription car en intégrant l'enseignant-concepteur dans le processus, nous lui demandons de scénariser et donc de prescrire l'observation.
127

Technique et droit des brevets / Technique and patent law

Dhenne, Mathieu 20 November 2013 (has links)
Le droit des brevets a pour objet l’appropriation d’enseignements techniques nouveaux afin d’encourager le développement de la recherche dans le domaine de la technique. Ainsi, la technicité constitue une condition fondamentale de l’apparition du droit de brevet. Cependant, la définition de ce qu’est la technique en droit des brevets exige, au préalable, de déterminer quelle est sa fonction normative. Cette fonction varie selon la conception de la propriété retenue. L’approche matérialiste de la propriété en fait une limite à l’appropriation tandis que l’approche idéaliste en fait un critère d’appropriation de la chose. Selon la première approche, la propriété ne concerne que des choses corporelles et des droits. L’invention est alors confondue avec une chose corporelle dont elle autorise la réalisation. La technicité est le critère de la corporéité, c’est une limite à l’appropriation. Cette approche se traduit par l’établissement d’un domaine de la brevetabilité défini par une énumération des choses non appropriables et par une appréciation de la technicité au niveau d’une chose corporelle que la réalisation de l’invention permet. Selon la seconde approche, qui emporte notre conviction, la propriété peut porter sur des choses corporelles et sur des choses incorporelles. La technicité constitue un critère de l’appropriation. Cette approche se traduit par la suppression du domaine de la brevetabilité et par une appréciation de la technicité au niveau de la chose incorporelle de l’invention. / The object of patent law is the appropriation of novel technical teachings in order to support technological development. Thus, the technicality is a fundamental condition of the patent right appearance. However, the definition of what technique is in patent law demands, at first, to fix what its normative function is. This function varies depending on the property conception retained. The materialist approach of property views it as a limit to appropriation, while the idealist views it as a criterion of appropriation.According to the first approach, the property only concerns corporal things and rights. Then the invention is mixed up with a corporal thing that its realization allowed. The technicality is the criterion of corporality, it is a limit to the appropriation. This approach is realized by the establishment of the domain of patentability, which is defined by a list of objects that are not appropriable and by the assessment of the technicality of the invention at the latest stage of realization the invention allows.According to the second approach, which we are defending, the property can concern either corporal or incorporal things. Then the invention is an incorporal thing. The technicality is a criterion of the appropriation. This approach is realized by the suppression of the domain of patentability and by the assessment of the technicality of the invention at the non-tangible stage.
128

Marc : modèles informatiques des émotions et de leurs expressions faciales pour l’interaction Homme-machine affective temps réel / Marc : computational models of emotions and their facial expressions for real-time affective human-computer interaction

Courgeon, Matthieu 21 November 2011 (has links)
Les émotions et leurs expressions par des agents virtuels sont deux enjeux importants pour les interfaces homme-machine affectives à venir. En effet, les évolutions récentes des travaux en psychologie des émotions, ainsi que la progression des techniques de l’informatique graphique, permettent aujourd’hui d’animer des personnages virtuels réalistes et capables d’exprimer leurs émotions via de nombreuses modalités. Si plusieurs systèmes d’agents virtuels existent, ils restent encore limités par la diversité des modèles d’émotions utilisés, par leur niveau de réalisme, et par leurs capacités d’interaction temps réel. Dans nos recherches, nous nous intéressons aux agents virtuels capables d’exprimer des émotions via leurs expressions faciales en situation d’interaction avec l’utilisateur. Nos travaux posent de nombreuses questions scientifiques et ouvrent sur les problématiques suivantes : Comment modéliser les émotions en informatique en se basant sur les différentes approches des émotions en psychologie ? Quel niveau de réalisme visuel de l’agent est nécessaire pour permettre une bonne expressivité émotionnelle ? Comment permettre l’interaction temps réel avec un agent virtuel ? Comment évaluer l’impact des émotions exprimées par l’agent virtuel sur l’utilisateur ? A partir de ces problématiques, nous avons axé nos travaux sur la modélisation informatique des émotions et sur leurs expressions faciales par un personnage virtuel réaliste. En effet, les expressions faciales sont une modalité privilégiée de la communication émotionnelle. Notre objectif principal est de contribuer l’amélioration de l’interaction entre l’utilisateur et un agent virtuel expressif. Nos études ont donc pour objectif de mettre en lumière les avantages et les inconvénients des différentes approches des émotions ainsi que des méthodes graphiques étudiées. Nous avons travaillé selon deux axes de recherches complémentaires. D’une part, nous avons exploré différentes approches des émotions (catégorielle, dimensionnelle, cognitive, et sociale). Pour chacune de ces approches, nous proposons un modèle informatique et une méthode d’animation faciale temps réel associée. Notre second axe de recherche porte sur l’apport du réalisme visuel et du niveau de détail graphique à l’expressivité de l’agent. Cet axe est complémentaire au premier, car un plus grand niveau de détail visuel pourrait permettre de mieux refléter la complexité du modèle émotionnel informatique utilisé. Les travaux que nous avons effectués selon ces deux axes ont été évalués par des études perceptives menées sur des utilisateurs.La combinaison de ces deux axes de recherche est rare dans les systèmes d’agents virtuels expressifs existants. Ainsi, nos travaux ouvrent des perspectives pour l’amélioration de la conception d’agents virtuels expressifs et de la qualité de l’interaction homme machine basée sur les agents virtuels expressifs interactifs. L’ensemble des logiciels que nous avons conçus forme notre plateforme d’agents virtuels MARC (Multimodal Affective and Reactive Characters). MARC a été utilisée dans des applications de natures diverses : jeu, intelligence ambiante, réalité virtuelle, applications thérapeutiques, performances artistiques, etc. / Emotions and their expressions by virtual characters are two important issues for future affective human-machine interfaces. Recent advances in psychology of emotions as well as recent progress in computer graphics allow us to animate virtual characters that are capable of expressing emotions in a realistic way through various modalities. Existing virtual agent systems are often limited in terms of underlying emotional models, visual realism, and real-time interaction capabilities. In our research, we focus on virtual agents capable of expressing emotions through facial expressions while interacting with the user. Our work raises several issues: How can we design computational models of emotions inspired by the different approaches to emotion in Psychology? What is the level of visual realism required for the agent to express emotions? How can we enable real-time interaction with a virtual agent? How can we evaluate the impact on the user of the emotions expressed by the virtual agent? Our work focuses on computational modeling of emotions inspired by psychological theories of emotion and emotional facial expressions by a realistic virtual character. Facial expressions are known to be a privileged emotional communication modality. Our main goal is to contribute to the improvement of the interaction between a user and an expressive virtual agent. For this purpose, our research highlights the pros and cons of different approaches to emotions and different computer graphics techniques. We worked in two complementary directions. First, we explored different approaches to emotions (categorical, dimensional, cognitive, and social). For each of these approaches, a computational model has been designed together with a method for real-time facial animation. Our second line of research focuses on the contribution of visual realism and the level of graphic detail of the expressiveness of the agent. This axis is complementary to the first one, because a greater level of visual detail could contribute to a better expression of the complexity of the underlying computational model of emotion. Our work along these two lines was evaluated by several user-based perceptual studies. The combination of these two lines of research is seldom in existing expressive virtual agents systems. Our work opens future directions for improving human-computer interaction based on expressive and interactive virtual agents. The software modules that we have designed are integrated into our platform MARC (Multimodal Affective and Reactive Characters). MARC has been used in various kinds of applications: games, ubiquitous intelligence, virtual reality, therapeutic applications, performance art, etc.
129

Optimisation de la gestion des données pour les applications MapReduce sur des infrastructures distribuées à grande échelle

Moise, Diana 16 December 2011 (has links) (PDF)
Les applications data-intensive sont largement utilisées au sein de domaines diverses dans le but d'extraire et de traiter des informations, de concevoir des systèmes complexes, d'effectuer des simulations de modèles réels, etc. Ces applications posent des défis complexes tant en termes de stockage que de calcul. Dans le contexte des applications data-intensive, nous nous concentrons sur le paradigme MapReduce et ses mises en oeuvre. Introduite par Google, l'abstraction MapReduce a révolutionné la communauté data-intensive et s'est rapidement étendue à diverses domaines de recherche et de production. Une implémentation domaine publique de l'abstraction mise en avant par Google a été fournie par Yahoo à travers du project Hadoop. Le framework Hadoop est considéré l'implémentation de référence de MapReduce et est actuellement largement utilisé à des fins diverses et sur plusieurs infrastructures. Nous proposons un système de fichiers distribué, optimisé pour des accès hautement concurrents, qui puisse servir comme couche de stockage pour des applications MapReduce. Nous avons conçu le BlobSeer File System (BSFS), basé sur BlobSeer, un service de stockage distribué, hautement efficace, facilitant le partage de données à grande échelle. Nous étudions également plusieurs aspects liés à la gestion des données intermédiaires dans des environnements MapReduce. Nous explorons les contraintes des données intermédiaires MapReduce à deux niveaux: dans le même job MapReduce et pendant l'exécution des pipelines d'applications MapReduce. Enfin, nous proposons des extensions de Hadoop, un environnement MapReduce populaire et open-source, comme par example le support de l'opération append. Ce travail inclut également l'évaluation et les résultats obtenus sur des infrastructures à grande échelle: grilles informatiques et clouds.
130

Contribution à l'ingénierie dirigée par les modèles en EIAH : le cas des situations-problèmes coopératives

Nodenot, Thierry 30 November 2005 (has links) (PDF)
Fortement marqués par les avancées en Génie Logiciel, les travaux présentés dans ce mémoire ont pour objectif de proposer un langage permettant de produire des modèles acceptables d'un EIAH c'est-à-dire dire des modèles dont il est possible d'évaluer la pertinence. Ceci signifie que les modèles sont explicites, non ambigus et qu'ils rendent possible des échanges entre les acteurs de la conception pour faire évoluer des modèles d'un état inaccepté à un état accepté. L'idée est donc de capitaliser sur la base des modèles de conception plutôt que sur le code des EIAH produits. L'explicitation des modèles de conception (théories d'apprentissage sur lesquelles s'appuie l'EIAH à construire, scénarios d'apprentissage et principes d'interaction) doit permettre de mieux partager les expertises au sein des équipes de développement et donc de diffuser les savoirs et bonnes pratiques. Par ailleurs, il s'agit d'examiner les conditions de transformations des modèles de conception en modèles computationnels afin de pouvoir réutiliser / transformer ces modèles vers des modèles exploitables par des plates-formes de formation à distance et faciliter ainsi le travail de mise en œuvre.<br /><br />Dans ce document, je positionne tout d'abord les travaux proposés au sein de la communauté EIAH (chapitre 1) ce qui me permet d'expliciter les théories d'apprentissage auxquelles ces travaux se réfèrent ainsi que les principaux verrous scientifiques posés par l'ingénierie des EIAH. Le chapitre 2 présente ma démarche de recherche au cours de ces travaux ainsi que les questions de recherche spécifiques qui sont au cœur des activités menées. Ce chapitre me permet donc de positionner mes travaux par rapport à ceux que mènent d'autres équipes nationales et internationales sur des problématiques identiques. Je présente ensuite (chapitre 3) les principaux résultats qui portent sur l'ingénierie de modèles de conception pour les situations d'apprentissage de type situations-problèmes coopératives, mais aussi sur l'usage de ces modèles et la démarche de conception qu'ils supposent. Les travaux qui se sont succédés ont permis de définir et d'expérimenter différents langages visuels, ce qui nous a conduit à proposer un profil UML dédié à la description des situations problèmes coopératives, le langage CPM. Le chapitre 4 me permet enfin de dresser un bilan de mon activité d'enseignant chercheur à l'Université de Pau et des Pays de l'Adour.

Page generated in 0.1001 seconds