• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 44
  • 12
  • 4
  • Tagged with
  • 63
  • 26
  • 26
  • 23
  • 23
  • 20
  • 17
  • 15
  • 13
  • 11
  • 11
  • 10
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Multi-platform coordination and resource management in command and control

Beaumont, Patrick 11 April 2018 (has links)
Depuis plusieurs années, nous constatons l'augmentation de l'utilisation des techniques d'agents et multiagent pour assister l'humain dans ses tâches. Ce travail de maîtrise se situe dans la même voie. Précisément, nous proposons d'utiliser les techniques multiagent de planification et de coordination pour la gestion de ressources dans les systèmes de commande et contrôle (C2) temps réel. Le problème particulier que nous avons étudié est la conception d'un système d'aide à la décision pour les opérations anti-aérienne sur les frégates canadiennes. Dans le cas où plusieurs frégates doivent se défendre contre des menaces, la coordination est un problème d'importance capitale. L'utilisation de mécanismes de coordination efficaces permet d'éviter les actions conflictuelles et la redondance dans les engagements. Dans ce mémoire, nous présentons quatre mécanismes de coordination basés sur le partage de tâche. Trois sont basés sur les communications : la coordination centrale, le Contract Net, la coordination similaire à celle proposée par Brown; tandis que la défense de zone est basée sur les lois sociales. Nous exposons enfin les résultats auxquels nous sommes arrivés en simulant ces différents mécanismes. / The use of agent and multiagent techniques to assist humans in their daily routines has been increasing for many years, notably in Command and Control (C2) systems. This thesis is is situated in this domain. Precisely, we propose to use multiagent planning and coordination techniques for resource management in real-time \acs{C2} systems. The particular problem we studied is the design of a decision-support for anti-air warfare on Canadian frigates. In the case of several frigates defending against incoming threats, multiagent coordination is a complex problem of capital importance. Better coordination mechanisms are important to avoid redundancy in engagements and inefficient defence caused by conflicting actions. In this thesis, we present four different coordination mechanisms based on task sharing. Three of these mechanisms are based on communications: central coordination, Contract Net coordination and Brown coordination, while the zone defence coordination is based on social laws. Finally, we expose the results obtained while simulating these various mechanisms.
52

Synchronization and Fault-tolerance in Distributed Algorithms / Synchronisation et tolérance aux défaillances en algoritmique répartie

Blanchard, Peva 24 September 2014 (has links)
Dans la première partie de ce mémoire, nous étudions le modèle des protocoles de population, introduit dans\cite{DBLP:conf/podc/BeauquierBCK10}. Ce modèle permet de représenter les grands réseaux de capteurs (ou agents) mobiles anonymes dotés de faibles ressources. Les contraintes de ce modèle sont si sévères que la plupart des problèmes classiques d'algorithmique répartie, tels que la collecte de données, le consensus ou l'élection d'un leader, sont difficiles à analyser, sinon impossibles à résoudre.Nous commençons notre étude par le problème de collecte de données. Celui-ci consiste principalement à transférer des valeurs réparties dans la population d'agents mobiles vers une station de base en un minimum de temps (temps de convergence). En utilisant un hypothèse d'équité, dite hypothèse de temps couvertures et introduite dans \cite{DBLP:conf/podc/BeauquierBCK10}, nous calculons des bornes optimales sur le temps de convergences de différents protocoles concrets. Ensuite, nous étudions le problème du consensus et d'élection de leader. Il a été montré que ces problèmes sont impossibles à résoudre dans le modèle original des protocoles de population. Pour contourner cette impossibilité, il est possible d'adjoindre au modèle certaines hypothèses sous la forme d'oracles. Nous proposons ensuite divers oracles permettant de résoudre le problème du consensus et d'élection de leader dans divers environnements, et nous étudions leurs puissances relatives. Ce faisant, nous développons un cadre formel permettant de représenter toutes les variétés d'oracles introduites, ainsi que leur possibles relations.Dans la seconde partie de ce mémoire, nous étudions le problème de la réplication de machine à états finis dans le modèle (classique) de communications asynchrones à passage de message. L'algorithme Paxos, introduit dans \cite{lamportPartTimeParliament,lamport01paxos} est une solution (partielle) bien connue au problème de la réplication capable de tolérer des pannes crash. Notre contribution, dans cette partie,consiste à améliorer Paxos afin qu'il puisse également tolérer des défaillances transitoires. Ce faisant, nous définissons la notions de machine répliquée pratiquement autostable. / In the first part of this thesis, we focus on a recent model, calledpopulation protocols, which describes large networksof tiny wireless mobile anonymous agents with very limited resources.The harsh constraints of the original model makes most of theclassical problems of distributed algorithmics, such as datacollection, consensus and leader election, either difficult to analyzeor impossible to solve.We first study the data collection problem, which mainly consists intransferring some values to a base station. By using a fairnessassumption, known as cover times, we compute tight bounds on theconvergence time of concrete protocols. Next, we focus on theproblems of consensus and leader election. It is shown that theseproblems are impossible in the original model. To circumvent theseissues, we augment the original model with oracles, and study theirrelative power. We develop by the way a formal framework generalenough to encompass various sorts of oracles, as well as theirrelations.In the second part of the thesis, we study the problem ofstate-machine replication in the more classical model of asynchronousmessage-passing communication. The Paxos algorithm is a famous(partial) solution to the state-machine replication problem whichtolerates crash failures. Our contribution is the enhancement of Paxosin order to tolerate transient faults as well. Doing so, we define thenotion of practically self-stabilizing replicated state-machine.
53

Environnement adaptatif d'exécution distribuée d'applications dans un contexte mobile

Le Mouël, Frédéric 01 December 2003 (has links) (PDF)
L'informatique mobile est un domaine en plein essor qui profite des percées technologiques dans le domaine des ordinateurs portables et dans le domaine des réseaux de communication sans-fil. Ces environnements mobiles présentent des particularités : (i) dû à des limitations de taille et de poids, un terminal portable offre peu de ressources et celles-ci sont susceptibles de varier, (ii) les réseaux sans fil offrent une bande passante plus faible, sujette à des variations importantes et de fréquentes déconnexions dues aux interférences avec l'environnement, et (iii) l'environnement d'un terminal portable change suite à ses déplacements, avec l'accès, ou la disparition de l'accès, à un certain nombre de stations (mobiles ou non) et de périphériques (imprimantes, scanner, etc). L'objectif de cette thèse est de proposer une méthode qui généralise l'utilisation des ressources extérieures à un terminal portable au moyen de techniques de distribution prenant en compte ces critères de la mobilité. Nous proposons donc un système adaptatif de distribution des applications en environnements mobiles. Pour cela, nous avons construit une architecture générique se décomposant en un cadre de conception et une boîte à outils. Le cadre de conception comporte des fonctionnalités couramment utilisées pour la gestion des environnements mobile. La boîte à outils comporte des implantations permettant aux concepteurs d'applications de spécialiser les fonctionnalités avec un comportement défini. Dans ce cadre, nous avons plus précisément développé deux fonctionnalités. La fonctionnalité d'adaptation et de réaction dynamique définit, en particulier, un modèle d'entité auto-adaptative, dans laquelle les concepteurs peuvent dynamiquement spécialiser (i) les adaptations possibles de l'entité et (ii) la stratégie d'adaptation, correspondant aux changements de comportement à adopter en cas de variations dans les conditions d'exécution. La fonctionnalité de gestion des ressources et de distribution des applications caractérise les particularités de l'environnement mobile et les besoins des applications au sein d'un modèle d'utilisation de type offres / demandes. Cinq services mettent en oeuvre cette fonctionnalité : (i) le service de gestion de l'environnement, (ii) le service de gestion de l'environnement local, (iii) le service de détection et notification, (iv) le service de distribution et (v) le service de contrôle de la propagation des adaptations. Ceux-ci comportent des politiques adaptatives, basées sur le modèle de l'entité, qui peuvent être dynamiquement spécialisées par les concepteurs. Un prototype, AeDEn, a été développé et plusieurs expériences ont confirmé que la distribution en environnement mobile permet d'économiser les ressources des terminaux portables et d'améliorer les performances des applications.
54

Systèmes à retards : platitude en génie des procédés et contrôle de certaines équations des ondes

Petit, Nicolas 31 May 2000 (has links) (PDF)
Le travail s'inscrit dans le cadre de la platitude, théorie récente dans le domaine du contrôle des systèmes. Nous présentons des réalisations industrielles en génie des procédés et des contributions théoriques dans le domaine des équations aux dérivées partielles. A partir d'applications industrielles réalisées avec le groupe TotalFinaElf et aujourd'hui en service dans les usines concernées, nous montrons l'intérêt pratique de la platitude dans le domaine du contrôle des procédés : gestion de grands transitoires, prise en compte explicite des non linéarités, des retards, des contraintes. Nous traitons ensuite un ensemble d'exemples physiques de systèmes régis par des équations des ondes. En réécrivant ces équations aux dérivées partielles et leurs conditions limites comme des équations à retards, nous exhibons une paramétrisation de leurs trajectoires établissant ainsi la propriété de platitude de ces systèmes. Il est alors possible de prouver de maniéré constructive la commandabilite de ces systèmes en calculant des trajectoires entre différents états. Tous ces exemples, ou les retards jouent des rôles à chaque fois différents, nous permettent de mettre en valeur l'importance pratique et théorique de la propriété de platitude dans le domaine du génie des procédés et du contrôle des équations des ondes.
55

Dépôts de films minces SiNx assistés par plasma de haute densité. Etudes corrélées de la phase gazeuse, de l'interface SiNx/InP et de la passivation du transistor bipolaire à hétérojonction InP.

Delmotte, Franck 13 May 1998 (has links) (PDF)
L'objet de cette étude est le dépôt de films minces SiNx à basse température assisté par plasma de haute densité de type DECR (Distributed Electron Cyclotron Resonance) et leur application à la passivation des dispositifs optoélectroniques à base d'InP, tel que le transistor bipolaire à hétérojonction. Dans un premier temps, nous comparons les différentes sources de plasma de haute densité qui sont utilisées pour le dépôt de nitrure de silicium et nous présentons un bilan des diverses méthodes de désoxydation des matériaux semiconducteurs utilisés dans les dispositifs optoélectroniques à base d'InP. Nous avons ensuite choisi de détailler la mise en oeuvre de l'analyse par sondes électrostatiques simple et double, qui constitue l'apport essentiel de ce travail dans l'étude du plasma DECR. Cette méthode nous a permis de mesurer des paramètres cruciaux pour le dépôt, tels que l'énergie des ions lorsqu'ils arrivent sur le substrat ou encore la densité de courant ionique. Ainsi, nous avons pu corréler ces paramètres avec les propriétés des films minces déposés (contrainte, densité, ...). Nous avons également étudié les mécanismes de conduction dans le nitrure de silicium pour différentes épaisseurs de film. La conduction par effet tunnel (mécanisme de Fowler-Nordheim) devient négligeable pour les films d'épaisseur supérieure à 20 nm. Pour ces derniers, la conduction est assistée par les pièges à électrons présents dans le nitrure (mécanisme de Frenkel-Poole). A travers l'étude électrique des structures Al/SiNx/InP, nous avons constaté que le traitement in-situ du substrat d'InP par plasma DECR N2 et/ou NH3 ne permet pas d'optimiser l'interface SiNx/InP. Par contre, nous avons montré que l'utilisation d'un plasma de dépôt riche en hydrogène permettait de réduire l'oxyde présent à la surface de l'InP. L'ensemble de cette étude a permis de définir un procédé de passivation du transistor bipolaire à hétérojonction InP/InGaAs qui a été testé avec succès.
56

Simulation multi-agents de marchés financiers

Derveeuw, Julien 14 January 2008 (has links) (PDF)
Les simulations par agents, ou centrées individu, permettent, par opposition aux modèles centrés groupe, de prendre en compte la manière dont les entités composant un sys- tème interagissent entre elles et ainsi de faire le lien entre ses niveaux microscopiques et macroscopiques. Les marchés financiers, bien qu'étant des systèmes composés de nombreuses entités en interaction, sont souvent étudiés à l'aide de modèle centrés groupe, qui montrent leur limites lorsqu'il s'agit d'expliquer l'émergence de certains phénomènes observables dans les séries de prix. Nous proposons par conséquent un modèle de marché financier centré individu, permettant de reproduire de manière réaliste leur fonctionnement, à la fois à une échelle intra-journalière et à une échelle inter-journalière. Ce modèle nous a permis dans un premier temps de proposer une théorie pour expliquer l'origine des faits stylisés, qui sont des propriétés statistiques des cours de prix observables sur l'ensemble des marchés financiers et dont l'origine est mal expliquée. Notre proposition, étayée par les expérimentations que nous avons réalisées avec notre modèle, montre que les faits stylisés semblent en majeure partie causés par la manière dont le marché est structuré et par la manière dont les agents économiques interagissent à travers lui. Dans un second temps, nous avons utilisé notre modèle pour étudier les variations extrêmes de prix observables sur les marchés financiers, que l'on nomme "bulles" quand elles sont à la hausse et "krachs" quand elles sont à la baisse. Nous avons illustré avec notre modèle, en nous appuyant sur les théories proposées par certains économistes pour expliquer ces événéments, que ces épisodes critiques dans les prix peuvent survenir lorsqu'une partie suffisante de la population des investisseurs adopte une stratégie spéculatrice.
57

Contrôle modulaire décentralisé - Application aux convertisseurs multi-phasés isolés entrelacés et magnétiquement couplés / Modular decentralized control - application for multi-phase interleaved isolated and magnetically coupled converters

Xiao, Zijian 20 November 2013 (has links)
Le domaine de la conversion d’énergie requiert, la plupart du temps, la mise en œuvre d’études spécifiques et coûteuses pour répondre, avec les meilleures performances possibles (rendement, compacité, CEM), aux diverses applications. Afin de proposer une solution générique et évolutive, nous nous sommes intéressés à l’utilisation d’un réseau de micro-convertisseurs optimisés, de faible puissance, que l’on peut associer en série et/ou en parallèle, pour couvrir un large domaine d’applications. Dans ces conditions, un effort unique de réflexion est à porter sur le dimensionnement d’un micro-convertisseur optimisé qui joue le rôle de cellule élémentaire ou de brique de base pour l’établissement du réseau complet. Cependant, cela suppose de mettre en œuvre également une méthode de contrôle adaptée au grand nombre de micro-convertisseurs ainsi qu’une technique de communication entre tous les micro-convertisseurs, pour assurer un bon équilibrage de la puissance. L'objectif principal de cette thèse est de fournir une solution intégrée pour le contrôle à la fois des cellules de commutation internes du micro-convertisseur et du réseau lui-même. Pour y parvenir, une solution modulaire de contrôle entièrement décentralisé est proposée. Trois étapes essentielles sont alors étudiées : la génération des porteuses entrelacées, l’équilibrage des courants de phase et la régulation des grandeurs de sortie courant et/ou tension. Ces trois étapes sont abordées de manière à proposer une solution entièrement décentralisée. Plusieurs cartes de test ont été réalisées pour valider chaque fonction indépendamment. Un circuit intégré (démonstrateur), implémentant l’ensemble des fonctions nécessaires au contrôle d’un micro-convertisseur 5V-2A-1MHz, a également été conçu et testé. Les résultats expérimentaux montrent clairement la validité des solutions proposées, ce qui ouvre la voie vers un contrôle mieux adapté aux nouveaux types d’architectures multi-phasées et distribuées en réseau. / The field of energy conversion requires, in most cases, the implementation of specific and expensive studies in order to answer to various applications with the best performances of efficiency, compactness, and EMC for example. To propose a generic and scalable solution, we are interested in the use of a network of optimized micro-converters, low power, which can be combined in series and/or in parallel, to cover a wide range of applications. Under these conditions, one single effort is to focus on the design of an optimized micro-converter which plays the role of individual cell or brick base for the establishment of the complete network. However, this means also to implement a control method adapted to many micro-converters and a communication method between all micro-converters, to ensure a good balance of power. The main objective of this thesis is to provide an integrated solution for controlling both internal commutation cells of each micro-converter and the all network itself. To achieve this, a modular and fully decentralized control solution is proposed. Three essential steps are studied: the generation of interleaved carriers, the phase currents balancing and the output variables regulation (current and / or voltage). These three steps are discussed in order to propose a fully decentralized solution. Several test cards were realized to validate each function independently. An integrated circuit (demonstrator), implementing all the necessary control functions for a 5V-2A-1MHz micro-converter has also been designed and tested. The experimental results clearly demonstrate the validity of the proposed solutions, which opens the way to a control much more adapted to these new architectures of multi-phase conversion and distributed network.
58

Home Devices Mediation using ontology alignment and code generation techniques / La médiation d'interaction entre les équipements domestiques basés sur l'alignement d'ontologies et la génération du code

El Kaed, Charbel 13 January 2012 (has links)
Les protocoles plug-and-play couplés avec les architectures logicielles rendent nos maisons ubiquitaires. Les équipements domestiques qui supportent ces protocoles peuvent être détectés automatiquement, configurés et invoqués pour une tâche donnée. Actuellement, plusieurs protocoles coexistent dans la maison, mais les interactions entre les dispositifs ne peuvent pas être mises en action à moins que les appareils supportent le même protocole. En plus, les applications qui orchestrent ces dispositifs doivent connaître à l'avance les noms des services et dispositifs. Or, chaque protocole définit un profil standard par type d'appareil. Par conséquent, deux appareils ayant le même type et les mêmes fonctions mais qui supportent un protocole différent publient des interfaces qui sont souvent sémantiquement équivalentes mais syntaxiquement différentes. Ceci limite alors les applications à interagir avec un service similaire. Dans ce travail, nous présentons une méthode qui se base sur l'alignement d'ontologie et la génération automatique de mandataire pour parvenir à une adaptation dynamique de services. / Ubiquitous systems imagined by Mark Weiser are emerging thanks to the development of embedded systems and plug-n-play protocols like the Universal Plug aNd Play (UPnP), the Intelligent Grouping and Resource Sharing (IGRS), the Device Pro le for Web Services (DPWS) and Apple Bonjour. Such protocols follow the service oriented architecture (SOA) paradigm and allow an automatic device and service discovery in a home network. Once devices are connected to the local network, applications deployed for example on a smart phone, a PC or a home gateway, discover the plug-n-play devices and act as control points. The aim of such applications is to orchestrate the interactions between the devices such as lights, TVs and printers, and their corresponding hosted services to accomplish a specific human daily task like printing a document or dimming a light. Devices supporting a plug-n-play protocol announce their hosted services each in its own description format and data content. Even similar devices supporting the same services represent their capabilities in a different representation format and content. Such heterogeneity along with the protocols layers diversity, prevent applications to use any available equivalent device on the network to accomplish a specific task. For instance, a UPnP printing application cannot interacts with an available DPWS printer on the network to print a document. Designing applications to support multiple protocols is time consuming since developers must implement the interaction with each device pro le and its own data description. Additionally, the deployed application must use multiple protocols stacks to interact with the device. More over, application vendors and telecoms operators need to orchestrate devices through a common application layer, independently from the protocol layers and the device description. To accomplish interoperability between plug-n-play devices and applications, we propose a generic approach which consists in automatically generating proxies based on an ontology alignment. The alignment contains the correspondences between two equivalent devices descriptions. Such correspondences actually represent the proxy behaviour which is used to provide interoperability between an application and a plug and play device. For instance, the generated proxy will announce itself on the network as a UPnP standard printer and will control the DPWS printer. Consequently, the UPnP printing application will interact transparently with the generated proxy which adapts and transfers the invocations to the real DPWS printer. We implemented a prototype as a proof of concept that we evaluated on several real UPnP and DPWS equivalent devices.
59

Une approche à base d'agents pour la planification et l'ordonnancement en temps réel de personnel dans un contexte de chaîne d'assemblage flexible

Sabar, Mohamed 13 April 2018 (has links)
La recherche abordée dans le cadre de cette thèse s'intéresse à la gestion des ressources humaines opérationnelles, et plus spécifiquement aux problèmes de planification de ces ressources dans un contexte dynamique. Un intérêt particulier est porté au problème d'ordonnancement en temps réel du personnel travaillant sur une chaîne d'assemblage. Nous abordons cette problématique dans une perspective de gestion par compétences et ce, en nous basant sur le profil de compétences dans la modélisation de l'offre et de la demande en main-d'oeuvre. Quatre principaux axes de recherche sont exploités. Le premier axe vise l'aspect théorique de la modélisation du problème d'ordonnancement du personnel. A cet effet, nous proposons un modèle mathématique du problème d'affectation dynamique des employés sur une chaîne d'assemblage avec la prise en considération des préférences, des compétences et des déplacements inter-postes des employés. En nous basant sur ce modèle, et grâce à l'utilisation du solveur commercial de type Cplex, nous avons pu résoudre des instances de problèmes de petite taille. Les résultats obtenus démontrent que la production d'une solution optimale requiert un temps de calcul important, ce qui risque de générer une rigidité et une moindre réactivité de la fonction d'ordonnancement face à des perturbations d'un environnement dynamique. Le deuxième axe de recherche porte sur l'élaboration d'une approche distribuée à base d'agents pour la résolution du problème d'ordonnancement du personnel. L'approche proposée se base sur l'utilisation de plusieurs catégories d'agents intelligents qui coopèrent entre eux à travers la formation de coalitions. Chaque coalition est formée de deux agents-employés qui auront décidé de coopérer entre eux en s'échangeant une partie de leurs activités d'assemblage afin d'améliorer leur profit et en conséquence, la qualité de la solution globale d'ordonnancement. Les résultats d'ordonnancement du personnel obtenus à partir des premiers tests sont encourageants. Ils démontrent que notre approche à base d'agents permet d'obtenir des solutions de bonne qualité en des temps raisonnables. Le troisième axe de recherche porte sur le réordonnancent du personnel en temps réel face aux aléas liés à l'absence d'employés. À cet effet, nous proposons une extension de l'approche à base d'agents ainsi que deux variantes de l'approche de recuit simulé, qui permettent de résoudre le problème de réordonnancement. Nous avons pu tester les performances de ces deux approches sur plusieurs cas du problème d'ordonnancement et de réordonnancement du personnel. L'ensemble des résultats démontre que l'algorithme à base d'agents conduit à de très bonnes solutions en comparaison avec le recuit simulé. Enfin, nous avons exploité les algorithmes à base d'agents et de recuit simulé, qui sont développés dans cette recherche, pour étudier deux aspects de la gestion stratégique des ressources humaines : la flexibilité dans l'élaboration des horaires de travail et l'impact de la prise en considération des préférences dans le processus d'ordonnancement du personnel. Dans les deux cas, les résultats de simulation obtenus corroborent les hypothèses initiales de recherche, à savoir la pertinence et l'intérêt de la notion de flexibilité et de la prise en compte des préférences dans le processus d'ordonnancement du personnel.
60

Environnement de programmation, support à l'exécution et simulateur pour machines à grand nombre de cœurs.

Certner, Olivier 15 December 2010 (has links) (PDF)
L'accroissement régulier de la fréquence des micro-processeurs et des importants gains de puissance qui en avaient résulté ont pris fin en 2005. Les autres techniques matérielles d'amélioration de performance se sont largement essouflées. Les fabricants de micro-processeurs ont donc choisi d'exploiter le nombre croissant de transistors disponibles en plaçant plusieurs cœurs de processeurs sur une même puce. Dans cette thèse, nous préparons l'arrivée de processeurs multi-cœur à grand nombre de cœurs par des recherches dans trois directions. Premièrement, nous améliorons l'environnement de parallélisation CAPSULE (parallélisation conditionnelle) en lui adjoignant des primitives de synchronization de tâches robustes. Nous montrons les gains obtenus par rapport aux approches usuelles en terme de rapidité et de stabilité du temps d'exécution. Deuxièmement, nous adaptons CAPSULE à des machines à mémoire distribuée en présentant un modèle de données qui permet au système de déplacer automatiquement les données en fonction des accès effectués par les programmes. De nouveaux algorithmes répartis et locaux permettent de décider de la création effective des tâches et de leur répartition. Troisièmement, nous développons un nouveau simulateur d'évènements discrets, SiMany, qui peut prendre en charge des centaines à des milliers de cœurs. Il est plus de 100 fois plus rapide que les meilleurs simulateurs flexibles actuels. Après validation, nous montrons que SiMany permet l'exploration d'un plus large champ d'architectures ainsi que l'étude des grandes lignes du comportement des logiciels sur celles-ci.

Page generated in 0.0579 seconds