• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 98
  • 47
  • 28
  • 1
  • Tagged with
  • 175
  • 175
  • 175
  • 70
  • 69
  • 62
  • 60
  • 47
  • 47
  • 46
  • 41
  • 37
  • 34
  • 32
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

De la simulation multi-agents à la simulation multi-niveaux. Pour une réification des interactions.

Picault, Sébastien 06 December 2013 (has links) (PDF)
Dans ce mémoire de synthèse d'habilitation à diriger des recherches, je présente les travaux en simulation multi-agents que j'ai menés au sein de l'équipe SMAC (LIFL, Université Lille 1) depuis le début de ma carrière d'enseignant-chercheur en 2002. Ceux-ci portent sur la conception et la mise en application de méthodes et d'outils de simulation destinés à faciliter la modélisation de systèmes complexes à large échelle. Dans ce but, j'ai développé avec mes collègues une approche " orientée interactions " caractérisée par une unification des concepts utilisés dans le domaine des SMA. Elle a donné lieu à une importante élaboration méthodologique et algorithmique (la méthode IODA) dans laquelle toute entité du modèle est représentée par un agent, et tout comportement par une règle appelée interaction. Cette méthode s'appuie sur une séparation entre déclaratif et procédural qui facilite l'acquisition de l'expertise auprès des thématiciens. Par ailleurs de nombreux outils logiciels sont nés de ces recherches (dont la plateforme JEDI et une extension IODA pour la plateforme NetLogo), ainsi que diverses applications dans des domaines variés (biologie cellulaire, serious games, marketing, cartographie). Pour conclure, je présente mon projet de recherche pour les prochaines années qui se propose d'articuler des problématiques issues de travaux récents, d'une part sur la simulation multi-niveaux (qui vise à définir un cadre opérationnel permettant le changement d'échelle d'observation ou de point de vue sur les sous-systèmes d'un système complexe), et d'autre part sur la recherche automatique d'informations dans des données réelles pour augmenter le réalisme comportemental des populations d'agents. Par ailleurs une collaboration avec l'IGN sur l'utilisation de ces techniques pour la généralisation cartographique permet également d'envisager la transposition de ces méthodes de simulation à la résolution de problèmes.
132

Une approche système pour l'estimation de la consommation de puissance des plateformes MPSoC

Rethinagiri, Santhosh Kumar 14 March 2013 (has links) (PDF)
Avec l'essor des nouvelles technologies d'intégration sur silicium submicroniques, la consommation de puissance dans les systèmes sur puce multiprocesseur (MPSoC) est devenue un facteur primordial au niveau du flot de conception. La prise en considération de ce facteur clé dés les premières phases de conception, joue un rôle primordial puisqu'elle permet d'augmenter la fiabilité des composants et de réduire le temps d'arrivée sur le marché du produit final. Dans cette thèse, nous proposons une méthodologie efficace pour l'estimation de la consommation de puissance des plateformes MPSoC. Cette méthodologie repose sur une combinaison d'une analyse fonctionnelle de la puissance (FLPA) pour l'obtention des modèles de consommation et d'une technique de simulation au niveau transactionnel (TLM) pour calculer la puissance de l'ensemble du système. Fondamentalement, FLPA est proposée pour modéliser le comportement des processeurs en terme de consommation afin d'obtenir des modèles paramétrés de haut niveau. Dans ce travail, FLPA est étendue pour mettre en place des modèles de puissance génériques pour les différentes parties du système (mémoire, logique reconfigurable, etc.). En outre, un environnement de simulation a été développé au niveau transactionnel afin d'évaluer avec précision les activités utilisées dans les modèles de consommation. La combinaison de ces deux parties conduit à une estimation de la puissance hybride qui donne un meilleur compromis entre la précision et la vitesse. La méthodologie proposée a plusieurs avantages: elle estime la consommation du système embarqué dans tous ses éléments et conduit à des estimations précises sans matériel coûteux et complexe. La méthodologie proposée est évolutive pour explorer des architectures complexes embarquées. Notre outil d'estimation de puissance au niveau du système PETS (Power Estimation Tool at System-level) est développé sur la base de la méthodologie proposée. L'efficacité de notre outil PETS en termes de précision et rapidité est validée par des architectures embarquées monoprocesseur et multiprocesseur conçues autour des plateformes OMAP (3530 et 5912) et FPGA Pro Xilinx Virtex II.
133

Le point de vue epistémique de théorie de la concurrence

Knight, Sophia 20 September 2013 (has links) (PDF)
Le raisonnement epistémique joue un rôle en théorie de la concurrence de plusieurs manières distinctes mais complémentaires; cette thèse en décrit trois. La première, et presque certainement la moins explorée jusqu'à présent, est l'idée d'utiliser les modalités épistémiques comme éléments d'un langage de programmation. La programmation logique émergea sous le slogan <> et dans le paradigme de la programmation concurrente par contraintes, le lien est manifeste de manière très claire. Dans la première partie de cette thèse, nous explorons le rôle des modalités épistémiques, ainsi que celui des modalités spatiales qui leur sont étroitement liées, en tant que partie intégrante du langage de programmation et non simplement en tant que partie du meta-langage du raisonnement à propos des protocoles. La partie suivante explore une variante de la logique épistémique dynamique adaptée aux systèmes de transitions étiquetés. Contrairement à la partie précédente, on serait tenté de croire que tout ce qu'on pouvait dire à ce sujet a déjà été dit. Cependant, le nouvel ingrédient que nous proposons est un lien étroit entre la logique épistémique et la logique de Hennessy-Milner, cette dernière étant \emph{la} logique des systèmes de transitions étiquetés. Plus précisement, nous proposons une axiomatisation et une preuve d'un théorème de complétude faible, ce qui est conforme au principe général qu'on utilise pour des logiques telles que la logique dynamique mais nécessite des adaptations non triviales. La dernière partie de la thèse se concentre sur l'étude d'agents en interaction dans les processus concurents. Nous présentons une sémantique des jeux pour l'interaction d'agents qui rend manifeste le rôle de la connaissance et du flux d'information dans les interactions entre agents, et qui permet de contrôler l'information disponible aux agents en interaction. Nous utilisons les processus comme support de jeu et définissons des stratégies pour les agents de telle sorte que deux agents qui interagissent conformément à leurs stratégies respectives déterminent l'exécution du processus, rempla{\c}cant ainsi l'ordonnanceur traditionnel. Nous démontrons que des restrictions différentes sur les stratégies réprésentent des quantités d'information différentes disponibles à l'ordonnanceur. Ces restrictions sur les stratégies ont un aspect épistémique explicite, et nous présentons une logique modale pour les stratégies et une caractérisation logique de plusieurs restrictions possibles sur les stratégies. Ces trois approches d'analyse et de représentation de l'information épistémique en théorie de la concurrence apportent une nouvelle manière de comprendre la connaissance des agents dans des processus conncurrents, ce qui est vital dans le monde d'aujourd'hui, dans lequel les systèmes distribués composés de multiples agents sont omniprésents.
134

Controlling execution time variability using COTS for Safety-critical systems

Bin, Jingyi 10 July 2014 (has links) (PDF)
While relying during the last decade on single-core Commercial Off-The-Shelf (COTS) architectures despite their inherent runtime variability, the safety critical industry is now considering a shift to multi-core COTS in order to match the increasing performance requirement. However, the shift to multi-core COTS worsens the runtime variability issue due to the contention on shared hardware resources. Standard techniques to handle this variability such as resource over-provisioning cannot be applied to multi-cores as additional safety margins will offset most if not all the multi-core performance gains. A possible solution would be to capture the behavior of potential contention mechanisms on shared hardware resources relatively to each application co-running on the system. However, the features on contention mechanisms are usually very poorly documented. In this thesis, we introduce measurement techniques based on a set of dedicated stressing benchmarks and architecture hardware monitors to characterize (1) the architecture, by identifying the shared hardware resources and revealing their associated contention mechanisms. (2) the applications, by learning how they behave relatively to shared resources. Based on such information, we propose a technique to estimate the WCET of an application in a pre-determined co-running context by simulating the worst case contention on shared resources produced by the application's co-runners.
135

Algorithms and Ordering Heuristics for Distributed Constraint Satisfaction Problems

Wahbi, Mohamed 03 July 2012 (has links) (PDF)
Les problèmes de satisfaction de contraintes distribués (DisCSP) permettent de formaliser divers problèmes qui se situent dans l'intelligence artificielle distribuée. Ces problèmes consistent à trouver une combinaison cohérente des actions de plusieurs agents. Durant cette thèse nous avons apporté plusieurs contributions dans le cadre des DisCSPs. Premièrement, nous avons proposé le Nogood-Based Asynchronous Forward-Checking (AFC-ng). Dans AFC-ng, les agents utilisent les nogoods pour justifier chaque suppression d'une valeur du domaine de chaque variable. Outre l'utilisation des nogoods, plusieurs backtracks simultanés venant de différents agents vers différentes destinations sont autorisés. En deuxième lieu, nous exploitons les caractéristiques intrinsèques du réseau de contraintes pour exécuter plusieurs processus de recherche AFC-ng d'une manière asynchrone à travers chaque branche du pseudo-arborescence obtenu à partir du graphe de contraintes dans l'algorithme Asynchronous Forward-Checking Tree (AFC-tree). Puis, nous proposons deux nouveaux algorithmes de recherche synchrones basés sur le même mécanisme que notre AFC-ng. Cependant, au lieu de maintenir le forward checking sur les agents non encore instanciés, nous proposons de maintenir la consistance d'arc. Ensuite, nous proposons Agile Asynchronous Backtracking (Agile-ABT), un algorithme de changement d'ordre asynchrone qui s'affranchit des restrictions habituelles des algorithmes de backtracking asynchrone. Puis, nous avons proposé une nouvelle méthode correcte pour comparer les ordres dans ABT_DO-Retro. Cette méthode détermine l'ordre le plus pertinent en comparant les indices des agents dès que les compteurs d'une position donnée dans le timestamp sont égaux. Finalement, nous présentons une nouvelle version entièrement restructurée de la plateforme DisChoco pour résoudre les problèmes de satisfaction et d'optimisation de contraintes distribués.
136

Architectures collaboratives pour l'aide à la décision dans les entreprises en réseau

Ouzrout, Yacine 21 March 2012 (has links) (PDF)
Les travaux de recherche présentés dans mon mémoire d'HDR s'articulent autour de la problématique de la collaboration et de la prise de décision dans les entreprises en réseau, dans des contextes de chaînes logistiques et d'analyse du cycle de vie des produits. Ces travaux ont débuté sur la thématique des modèles informatiques pour la prise de décision dans les systèmes de production. Après avoir étudié les différentes méthodes de modélisation d'entreprise ainsi que les approches liées au pilotage dans les entreprises industrielles, nous avons proposé un modèle de simulation des processus industriels permettant de coupler un simulateur a événement discret, dédié à l'analyse des flux physiques, à un modèle de simulation décisionnel et organisationnel à base d'Agents cognitifs. Nous avons par la suite abordé la problématique de la prise de décision et montré que l'efficacité de la décision dépend de sa capacité à exploiter des mécanismes d'apprentissage comparables à ceux utilisés par l'homme ; pour cela nous avons proposé une évolution du modèle de simulation en intégrant dans les agents logiciels des mécanismes de raisonnement et d'apprentissage (raisonnement à base de cas). Après cette phase d'étude des organisations et des processus intra-entreprise, ces architectures ont ensuite été enrichies de manière à intégrer des problématiques liées à la dimension collaborative dans le cadre des entreprises en réseau et des chaînes logistiques. Pour cela, nous avons proposé des modèles de simulation multi-agents afin de modéliser et de simuler les comportements des acteurs décisionnels dans le cadre des processus collaboratifs, et en particulier, le lien entre collaboration et partage d'information et l'amélioration des performances locale (à chaque entreprise) et globale (à l'ensemble de la chaîne logistique). En parallèle des travaux menés sur la modélisation et la simulation des processus décisionnels dans les entreprises en réseau, il est vite apparu la nécessité d'approfondir les problématiques liées aux systèmes d'information et à la gestion des connaissances. En effet, les processus décisionnels dans des contextes collaboratifs nécessitent un alignement des systèmes d'information aux différents processus organisationnels. Les principaux systèmes d'information existants, par exemple les ERP, ou les systèmes PLM pour la gestion du cycle de vie des produits, ont pour objectif principal d'organiser, de stocker, et de restituer les informations liées aux processus et aux produits dans les différentes phases de leurs cycles de vie (de la conception au recyclage, en passant par les phases de fabrication, de stockage, de maintenance, de distribution,...). Nous avons donc traité de certaines problématiques posées par cet alignement, et en particulier l'intégration des systèmes d'information, l'interopérabilité des systèmes, et la gestion des connaissances. L'évolution de mes préoccupations peut ainsi s'analyser selon quatre phases successives, qui correspondent à un élargissement progressif des problématiques traitées : de la modélisation et la prise de décision dans les systèmes de production, vers la modélisation et la simulation des processus collaboratifs dans les chaînes logistiques et les entreprises en réseau, puis l'intégration par les systèmes d'informations des processus PLM et Supply Chain, et enfin le développement d'architectures et de solutions distribuées pour le partage et l'échange d'information et de connaissances tout au long du cycle de vie des produits. Ces travaux de recherches se sont développés selon trois principaux axes scientifiques : a. Conception de modèles de simulation et d'aide à la décision pour l'étude de la dynamique des systèmes complexes et l'évaluation des performances : modèles formels de décision multicritères, décision collective et distribuée,... b. Intégration des systèmes d'information et mise en place d'architectures et de référentiels techniques pour la gestion et le suivi des données : approches par les modèles, MDA, interopérabilité... c. Développement de systèmes de gestion des connaissances (méthodes hybrides d'ingénierie des connaissances, modèles pour la capitalisation et la réutilisation des connaissances, formalisme de modélisation de la coopération/négociation entre acteurs dans les systèmes distribués... Ces trois dimensions convergent en fait vers un paradigme plus large pour l'aide à la décision dans le cadre des entreprises en réseau : le paradigme de l'entreprise cognitive et collaborative. Ce paradigme place au cœur de la performance des entreprises la nécessité de mettre en œuvre des modes d'organisation réactifs et des modes de collaboration et de synchronisation des systèmes d'information leur permettant de s'intégrer à des chaînes logistiques en fonction des besoins, ou de participer à des projets de développement de produit, et de mettre en place des partenariats et des échanges de manière efficace et facilement reconfigurable. Ceci rejoint les préoccupations actuelles sur les principes d'agilité des entreprises, d'urbanisation des systèmes d'information, et de cloud computing par exemple. Dans ce contexte, et en synthèse de ce mémoire, nous proposerons des pistes de réflexion et des perspectives de recherche issues de ces axes scientifiques, dont les orientations principales sont : vers la définition de modèles cognitifs d'aide à la décision pour les entreprises en réseau, basés sur la simulation et l'optimisation, et intégrant des notions de durabilité des systèmes et des produits et de capitalisation des connaissances à long terme.
137

Contributions en vue de rendre plus naturelle l'interaction entre une personne handicapée et son assistance robotisée.

Delarue, Sébastien 30 November 2007 (has links) (PDF)
Les recherches sur l'assistance technique aux personnes handicapées se sont beaucoup développées ces dernières années. Le projet ARPH (Assistance Robotique aux Personnes Handicapées) du laboratoire IBISC, débuté en 1994, consiste en un bras manipulateur embarqué sur une base mobile pour l'assistance à la saisie et la manipulation d'objets à distance. Cette thèse aborde tout d'abord la commande du robot en s'appuyant sur un système multi-agents. Le robot étudié étant redondant (6 degrés de liberté pour le bras et 2 degrés de liberté pour la base mobile), le premier objectif est de proposer une commande valable même en cas de dysfonctionnement d'une ou plusieurs articulations. Le second objectif de cette commande est d'atteindre le but choisi par la personne en conservant, dans la mesure du possible, une posture du bras loin de ses singularités. Le système reste ainsi le plus manipulable possible à chaque instant. Les résultats ont été comparés avec une autre méthode multi-agent et une commande classique basée sur la notion de manipulabilité. La méthode proposée améliore notablement ceux obtenus par les deux autres. La conception d'un tel système, complexe et innovant, demande la mise en place d'une méthodologie. La norme ISO 13407 définit le processus de Conception Centrée sur l'Utilisateur (CCU) pour les systèmes interactifs. Elle est initialement destinée au développement d'interfaces logicielles. Le processus de conception mis en œuvre est itératif, ce qui le rend inutilisable pour des systèmes dits complexes car comprenant non seulement des composantes logicielles mais aussi des composantes matérielles (mécaniques, électroniques...). Les techniques de la réalité virtuelle ont été mises à contribution afin de rendre cette démarche de CCU opérante pour un système complexe (CCU-SC). Une modélisation virtuelle initiale du système permet une première série d'évaluations avec les utilisateurs finaux. Lorsqu'une partie du système est validée par les opérateurs, elle peut être développée réellement. On entre alors dans un cycle d'évaluation d'un système dit mixte car comprenant des parties réelles et des parties virtuelles. On utilise ici les techniques de la réalité mixée, de la virtualité augmentée à la réalité augmentée. Après plusieurs cycles de ce type, on aboutit à un système réel. Outre le processus de conception, la méthode fournit un simulateur du système réel. Ce dernier peut être exploité après la conception pour l'apprentissage par les futurs utilisateurs. Un simulateur du projet ARPH a été développé pendant cette thèse. Il a été évalué avec l'aide d'étudiants de psychologie expérimentale. Deux types d'évaluation ont permis à des utilisateurs handicapés et non handicapés de manipuler le système réel et le simulateur. La première série de tests a eu pour but d'évaluer le transfert d'habiletés entre simulateur et système réel. La deuxième série de tests avait pour objectif l'évaluation du robot d'assistance en situation écologique c'est-à-dire la plus proche possible d'une situation naturelle.
138

Efficient end-to-end monitoring for fault management in distributed systems

Feng, Dawei 27 March 2014 (has links) (PDF)
In this dissertation, we present our work on fault management in distributed systems, with motivating application roots in monitoring fault and abrupt change of large computing systems like the grid and the cloud. Instead of building a complete a priori knowledge of the software and hardware infrastructures as in conventional detection or diagnosis methods, we propose to use appropriate techniques to perform end-to-end monitoring for such large scale systems, leaving the inaccessible details of involved components in a black box.For the fault monitoring of a distributed system, we first model this probe-based application as a static collaborative prediction (CP) task, and experimentally demonstrate the effectiveness of CP methods by using the max margin matrix factorization method. We further introduce active learning to the CP framework and exhibit its critical advantage in dealing with highly imbalanced data, which is specially useful for identifying the minority fault class.Further we extend the static fault monitoring to the sequential case by proposing the sequential matrix factorization (SMF) method. SMF takes a sequence of partially observed matrices as input, and produces predictions with information both from the current and history time windows. Active learning is also employed to SMF, such that the highly imbalanced data can be coped with properly. In addition to the sequential methods, a smoothing action taken on the estimation sequence has shown to be a practically useful trick for enhancing sequential prediction performance.Since the stationary assumption employed in the static and sequential fault monitoring becomes unrealistic in the presence of abrupt changes, we propose a semi-supervised online change detection (SSOCD) framework to detect intended changes in time series data. In this way, the static model of the system can be recomputed once an abrupt change is detected. In SSOCD, an unsupervised offline method is proposed to analyze a sample data series. The change points thus detected are used to train a supervised online model, which gives online decision about whether there is a change presented in the arriving data sequence. State-of-the-art change detection methods are employed to demonstrate the usefulness of the framework.All presented work is verified on real-world datasets. Specifically, the fault monitoring experiments are conducted on a dataset collected from the Biomed grid infrastructure within the European Grid Initiative, and the abrupt change detection framework is verified on a dataset concerning the performance change of an online site with large amount of traffic.
139

Cryptographie à base de courbes elliptiques et sécurité de composants embarqués

Verneuil, Vincent 13 June 2012 (has links) (PDF)
<p>Les systèmes cryptographiques à base de courbes elliptiques sont aujourd'hui de plus en plus employés dans les protocoles utilisant la cryptographie à clef publique. Ceci est particulièrement vrai dans le monde de l'embarqué qui est soumis à de fortes contraintes de coût, de ressources et d'efficacité, car la cryptographie à base de courbes elliptiques permet de réduire significativement la taille des clefs utilisées par rapport à d'autres systèmes cryptographiques tels que RSA.</p> <p>Les travaux qui suivent décrivent dans un premier temps 'implantation efficace et sécurisée de la cryptographie à base de courbes elliptiques sur des composants embarqués, en particulier sur des cartes à puce. La sécurisation de ces implantations nécessite de prendre en compte les attaques physiques dont un composant embarqué peut être la cible. Ces attaques incluent notamment les analyses par canaux auxiliaires qui consistent à étudier le comportement d'un composant qui manipule une clef secrête pour en déduire de l'information sur celle-ci, et les analyses par faute dans lesquelles un attaquant peut perturber le fonctionnement d'un composant dans le même but.</p> <p>Dans la seconde partie de ce mémoire de thèse, nous étudions ces attaques et leurs conséquences concernant l'implantation des systèmes cryptographiques à clef publique les plus répandus. De nouvelles méthodes d'analyse et de nouvelles contre-mesures sont proposées pour ces systèmes cryptographiques, ainsi que des attaques spécifiques à l'algorithme de chiffirement par bloc AES.</p>
140

SECURITY AND SELF-HEALABILITY ENFORCEMENT OF DYNAMIC COMPONENTS IN A SERVICE-ORIENTED SYSTEM

Dan, Yufang 14 May 2014 (has links) (PDF)
Les architectures dynamiques orientées services ( D-SOA) se concentrent sur les interactions client-serveur à couplage faible, où les deux peuvent apparaître et disparaître à l'exécution. Notre objectif est de concevoir des systèmes de surveillance pour ces architectures. Comme les systèmes de surveillance classiques sont statiquement injectés dans les services surveillés, ils ne peuvent pas gérer correctement le cycle de vie des services d'exécution. En outre, quand un service est remplacé par un autre service, d'autres services peuvent toujours utiliser l'ancienne référence. Cette référence vers un service absent, lorsqu'elle est gardée en mémoire, peut induire des comportements non désirés. Cette thèse contribue à la conception d'un système de surveillance de l'utilisation des services, qui soit résistant à la dynamique de la plateforme et qui soit en mesure de faire face à l'utilisation des références obsolètes. Ce but est atteint en trois étapes. Tout d'abord, en considérant le caractère dynamique des systèmes SOA dans un environnement ouvert, nous concevons une approche de monitoring résistant au la dynamique de la plateforme. Nous identifions deux propriétés clés du système de surveillance à couplage faible: résilience à la dynamicité, c'est-à-dire qu'un moniteur d'interface et son état sont maintenus en mémoire et transférés à un nouveau service lors de la disparition d'un service utilisé, et exhaustivité, c'est-à-dire qu'un service surveillé ne peut pas contourner les observations du moniteur. Ensuite, pour éviter l'usage de références vers des services qui ne sont plus actifs, nous proposons un service de sécurité côté client (SSU Layer), qui permet de traiter ce problème de manière transparente. Si un service utilisé disparaît, la couche SSU peut soit substituer le service de manière transparente, soit lever une exception pour avertir explicitement le client. Cette couche SSU est basée sur une approche transactionnelle qui vise à préserver la cohérence des services actifs. Enfin, nous proposons d'intégrer les deux approches dans un nouveau système de surveillance (NewMS). Les NewMS hérite des principes des deux systèmes précédents: la résilience à la dynamicité, l'exhaustivité et la tolérance aux fautes. Il peut dynamiquement surveiller l'utilisation de services et traiter les références obsolètes de manière transparente. Ces trois propositions sont implémentées dans la plateforme OSGi. Nous avons développé une application simple qui simule un système de réservation de place, qui est monitoré par notre systèmes. Nous avons également proposé différentes spécifications pour ce système. Nos résultats démontrent que le coût d'observation de notre moniteur est proche du coût d'un monitor classique, ne prenant pas en compte les problématiques liées à la dynamique.

Page generated in 0.0935 seconds