• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 98
  • 47
  • 28
  • 1
  • Tagged with
  • 175
  • 175
  • 175
  • 70
  • 69
  • 62
  • 60
  • 47
  • 47
  • 46
  • 41
  • 37
  • 34
  • 32
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Simulations orientées-interaction des systèmes complexes

Kubera, Yoann 06 December 2010 (has links) (PDF)
Les simulations multi-agents reproduisent un phénomène en modélisant intuitivement son fonctionnement au niveau microscopique. Ce fonctionnement est décrit par le comportement d'entités autonomes qui agissent dans un environnement commun. Toutefois, les approches actuelles restreignent les interactions à des effets de bord ou ne fournissent aucune méthodologie réifiant la notion d'interaction. La conception de simulations contenant un grand nombre d'agents interagissant de manière variée s'en trouve complexifiée. Nous soutenons que pour faciliter la conception des simulations, il est préférable que toute entité soit concrétisée par un agent et tout comportement par une interaction. Le moteur de simulation doit de plus être clairement séparé des agents et interactions, de sorte que tout le système multi-agents soit régi par le même algorithme de simulation. Une telle approche procure de nombreux avantages tels que l'automatisation de l'implémentation, la réutilisabilité des interactions ou la conception graduelle du modèle du phénomène. En nous fondant sur ces principes, nous avons développé une approche centrée sur les interactions (IODA) composée d'une pyramide d'outils : un modèle formel, un ensemble d'algorithmes de simulation et une méthodologie. Nous confirmons la faisabilité de cette approche par une plateforme de simulation paramétrable (JEDI) fidèle au modèle formel et un environnement de développement intégré (JEDI-Builder) qui automatise le passage du modèle IODA au code JEDI. Nous montrons ainsi que la concrétisation logicielle des interactions a conduit à une unification du concept d'agent et à une simplification du processus de conception de simulations.
122

Optimizing Sample Design for Approximate Query Processing

Rösch, Philipp, Lehner, Wolfgang 30 November 2020 (has links)
The rapid increase of data volumes makes sampling a crucial component of modern data management systems. Although there is a large body of work on database sampling, the problem of automatically determine the optimal sample for a given query remained (almost) unaddressed. To tackle this problem the authors propose a sample advisor based on a novel cost model. Primarily designed for advising samples of a few queries specified by an expert, the authors additionally propose two extensions of the sample advisor. The first extension enhances the applicability by utilizing recorded workload information and taking memory bounds into account. The second extension increases the effectiveness by merging samples in case of overlapping pieces of sample advice. For both extensions, the authors present exact and heuristic solutions. Within their evaluation, the authors analyze the properties of the cost model and demonstrate the effectiveness and the efficiency of the heuristic solutions with a variety of experiments.
123

Méthodologie et outils pour la simulation multiagent dans des univers virtuels

Galland, Stéphane 11 December 2013 (has links) (PDF)
La modélisation de la dynamique des piétons, des cyclistes et des conducteurs de véhicules est d'un grand intérêt théorique et pratique. Au cours des deux dernières décennies, la Recherche dans un large éventail de domaines tels que l'infographie, la physique, la robotique, les sciences sociales, la sécurité et les systèmes de formation a créé des simulations impliquant des individus de type hétérogènes. Deux grands types de simulation d'individus dans un univers virtuel peuvent généralement être distingués selon qu'elles cherchent à atteindre : un haut niveau de réalisme de comportement (simulation pour la sécurité ou les sciences sociales) ou une visualisation de haute qualité (productions de films, de jeux vidéos, d'outils de réalité virtuelle). Dans la première catégorie, les résultats de simulation sont généralement cohérents avec les observations réalisées sur la population réelle et peuvent servir de base à des études théoriques pour l'évaluation et la prévision du comportement des individus. Dans la seconde catégorie, les modèles de comportement ne sont pas la priorité et ne correspondent pas quantitativement au monde réel. Cependant, les individus sont des personnages en 3D entièrement animés et les utilisateurs de l'application peuvent avoir un degré élevé d'interaction avec les éléments de la simulation. Les recherches et les applications récentes tendent à unifier ces deux domaines, en particulier dans le domaine des systèmes de formation où les deux aspects sont nécessaires pour une formation efficace. Dans ce cadre, les systèmes multiagents sont utilisés pour modéliser les populations d'individus. Ils forment un paradigme prometteur pour la conception de logiciels complexes. En effet, ce paradigme propose de nouvelles stratégies pour analyser, concevoir et implémenter de tels systèmes. Les systèmes multiagents sont considérés comme des sociétés composées d'entités autonomes et indépendantes, appelées agents, qui interagissent en vue de résoudre un problème ou de réaliser collectivement une tâche. Les systèmes multiagents peuvent être considérés comme un outil viable pour la modélisation et la simulation de systèmes complexes, et notamment les systèmes de simulation d'individus dans un univers virtuel. Nous proposons un métamodèle organisationnel et holonique permettant de modéliser ces systèmes multiagents. L'approche organisationnelle permet de décomposer le système en unités comportementales appelées rôles. L'approche holonique permet de composer le système en un ensemble d'agents, eux-mêmes, pouvant être décomposés en un ensemble d'agents, et ainsi de suite. Ce métamodèle est utilisé comme la base de notre processus méthodologique, appelé ASPECS, qui guide les scientifiques et les experts d'un domaine dans la modélisation et la construction d'un modèle d'un SMA représentant un système complexe. Sur la base du métamodèle organisationnel et holonique, nous proposons des modèles d'environnement et de groupes d'individus constituant un système de grande échelle spatiale et avec une large population d'individus. Ces modèles sont utilisés pour la simulation d'individus et de foules dans des univers virtuels. L'une des particularités intéressantes de nos modèles est leur conception multiniveau. Nous proposons des modèles de décomposition hiérarchique dynamique pour l'environnement et pour la population. Durant le processus de simulation, il devient alors possible de sélectionner les niveaux permettant d'atteindre le meilleur compromis entre la qualité des résultats produits par la simulation et les performances de calculs pour obtenir ces résultats. Les modèles présentés dans ce mémoire ont été appliqués à la simulation de foule et de trafic dans le cadre de contrats de recherche dont certains sont abordés dans ce document : simulation du réseau urbain de bus de Belfort, simulation de foules dans un centre ville de Belfort, simulation du covoiturage dans les Flandres.
124

Design and Analysis for Multi-Clock and Data-Intensive Applications on Multiprocessor Systems-on-Chip

Gamatié, Abdoulaye 15 November 2012 (has links) (PDF)
Avec l'intégration croissante des fonctions, les systèmes embarqués modernes deviennent très intelligents et sophistiqués. Les exemples les plus emblématiques de cette tendance sont les téléphones portables de dernière génération, qui offrent à leurs utilisateurs un large panel de services pour la communication, la musique, la vidéo, la photographie, l'accès à Internet, etc. Ces services sont réalisés au travers d'un certain nombre d'applications traitant d'énormes quantités d'informations, qualifiées d'applications de traitements intensifs de données. Ces applications sont également caractérisées par des comportements multi-horloges car elles comportent souvent des composants fonctionnant à des rythmes différents d'activations lors de l'exécution. Les systèmes embarqués ont souvent des contraintes temps réel. Par exemple, une application de traitement vidéo se voit généralement imposer des contraintes de taux ou de délai d'affichage d'images. Pour cette raison, les plates-formes d'exécution doivent souvent fournir la puissance de calcul requise. Le parallélisme joue un rôle central dans la réponse à cette attente. L'intégration de plusieurs cœurs ou processeurs sur une seule puce, menant aux systèmes multiprocesseurs sur puce (en anglais, "multiprocessor systems-on-chip - MPSoCs") est une solution-clé pour fournir aux applications des performances suffisantes, à un coût réduit en termes d'énergie pour l'exécution. Afin de trouver un bon compromis entre performance et consommation d'énergie, l'hétérogénéité des ressources est exploitée dans les MPSoC en incluant des unités de traitements aux caractéristiques variées. Typiquement, des processeurs classiques sont combinés avec des accélérateurs (unités de traitements graphiques ou accélérateurs matériels). Outre l'hétérogénéité, l'adaptativité est une autre caractéristique importante des systèmes embarqués modernes. Elle permet de gérer de manière souple les paramètres de performances en fonction des variations de l'environnement et d'une plate-forme d'exécution d'un système. Dans un tel contexte, la complexité du développement des systèmes embarqués modernes paraît évidente. Elle soulève un certain nombre de défis traités dans nos contributions, comme suit : 1) tout d'abord, puisque les MPSoC sont des systèmes distribués, comment peut-on aborder avec succès la correction de leur conception, de telle sorte que les propriétés fonctionnelles des applications multi-horloges déployées puissent être garanties ? Cela est étudié en considérant une méthodologie de distribution "correcte-par-construction" pour ces applications sur plates-formes multiprocesseurs. 2) Ensuite, pour les applications de traitement intensif de données à exécuter sur de telles plates-formes, comment peut-on aborder leur conception et leur analyse de manière adéquate, tout en tenant pleinement compte de leur caractère réactif et de leur parallélisme potentiel ? 3) Enfin, en considérant l'exécution de ces applications sur des MPSoC, comment peut-on analyser leurs propriétés non fonctionnelles (par exemple, temps d'exécution ou énergie), afin de pouvoir prédire leurs performances ? La réponse à cette question devrait alors servir à l'exploration d'espaces complexes de conception. Nos travaux visent à répondre aux trois défis ci-dessus de manière pragmatique, en adoptant une vision basée sur des modèles. Pour cela, ils considèrent deux paradigmes complémentaires de modélisation flot de données : la "modélisation polychrone" liée à l'approche synchrone réactive, et la "modélisation de structures répétitives" liée à la programmation orientée tableaux pour le parallélisme de données. Le premier paradigme permet de raisonner sur des systèmes multi-horloges dans lesquels les composants interagissent, sans supposer l'existence d'une horloge de référence. Le second paradigme est quant à lui suffisamment expressif pour permettre la spécification du parallélisme massif d'un système.
125

Intégration de la Sûreté de Fonctionnement dans les Processus d'Ingénierie Système

Guillerm, Romaric 15 June 2011 (has links) (PDF)
L'intégration de diverses technologies, notamment celles de l'informatique et l'électronique, fait que les systèmes conçus de nos jours sont de plus en plus complexes. Ils ont des comportements plus élaborés et plus difficiles à prévoir, ont un nombre de constituants en interaction plus important et/ou réalisent des fonctions de plus haut niveau. Parallèlement à cette complexification des systèmes, la compétitivité du marché mondial impose aux développeurs de systèmes des contraintes de coût et de délais de plus en plus strictes. La même course s'opère concernant la qualité des systèmes, notamment lorsque ceuxci mettent en jeu un risque en vies humaines ou un risque financier important. Ainsi, les développeurs sont contraints d'adopter une approche de conception rigoureuse pour répondre aux exigences du système souhaité et satisfaire les diverses contraintes (coût, délais, qualité, sûreté de fonctionnement,...). Plusieurs démarches méthodologiques visant à guider la conception de système sont définies par l'intermédiaire de normes d'Ingénierie Système. Notre travail s'appuie sur la norme EIA-632, qui est largement employée, en particulier dans les domaines aéronautique et militaire. Il consiste à améliorer les processus d'ingénierie système décrits par l'EIA-632, afin d'intégrer une prise en compte globale et explicite de la sûreté de fonctionnement. En effet, jusqu'à présent la sûreté de fonctionnement était obtenue par la réutilisation de modèles génériques après avoir étudié et développé chaque fonction indépendamment. Il n'y avait donc pas de prise en compte spécifique des risques liés à l'intégration de plusieurs technologies. Pour cette raison, nous proposons de nous intéresser aux exigences de Sûreté de Fonctionnement au niveau global et le plus tôt possible dans la phase de développement, pour ensuite les décliner aux niveaux inférieurs, ceci en s'appuyant sur les processus de la norme EIA-632 que nous étoffons. Nous proposons également une méthode originale de déclinaison d'exigences de sûreté de fonctionnement à base d'arbres de défaillances et d'AMDEC, ainsi qu'un modèle d'information basé sur SysML pour appuyer notre approche. Un exemple issu du monde aéronautique permet d'illustrer nos propositions.
126

Modélisation multi-agents d'une économie monétaire de production : un système dynamique et complexe d'interactions réelles et monétaires entre des agents multiples, hétérogènes, autonomes et concurrents

Seppecher, Pascal 05 December 2011 (has links) (PDF)
Nous présentons un modèle numérique d'économie de marché décentralisée, fonctionnant hors de l'équilibre, composée de deux grands groupes d'agents (entreprises et ménages) auxquels sont respectivement associées deux fonctions économiques principales (production et consommation). Ces fonctions s'exercent dans le respect des règles des économies capitalistes (propriété privée des moyens de production, échanges monétaires, salariat). Les agents sont des individus en interaction directe et indirecte (et non des agents représentatifs ou des agrégats), chacun poursuivant son propre but, agissant en fonction de son état individuel et de l'environnement proche, sans se préoccuper du tout de l'équilibre général du système et sans contrôle supérieur (ni de la part d'un planificateur, ni d'un commissaire-priseur). Le modèle respecte les trois principes essentiels des économies monétaires: - le processus de production prend du temps et les entreprises ont besoin de crédit pour lancer ce processus; - la monnaie est endogène, elle est créée par le crédit bancaire à la production; - les entreprises sont guidées par le motif de profit et ce profit est monétaire. Implémenté en Java, le modèle se présente comme un laboratoire virtuel permettant de conduire de véritables expériences "in silico". Les interactions réelles et monétaires entre les agents (multiples, hétérogènes, autonomes et concurrents) forment un système dynamique et complexe dont les propriétés macroéconomiques ne sont pas postulées. Nous reconstruisons ainsi les conditions de l'émergence de comportements macroéconomiques inobservables dans les modèles basés sur les notions d'agent représentatif et d'équilibre général.
127

Contribution aux fondements des méthodes formelles : jeux, logique et automates

Janin, David 02 December 2005 (has links) (PDF)
Cette thèse d'HDR en anglais, présente l'essentiel de mes travaux de 1996 à 2005. Voir le résumé anglais pour plus de détails.
128

Simulation de haut niveau de systèmes d'exploitations distribués pour l'exploration matérielle et logicielle d'architectures multi-noeuds hétérogènes

Huck, Emmanuel 25 November 2011 (has links) (PDF)
Concevoir un système embarqué implique de trouver un compromis algorithme/architecture en fonction des contraintes temps-réel. Thèse : pour concevoir un MPSoC et plus particulièrement avec les circuits reconfigurables modifiant le support d'exécution en cours de fonctionnement, la nécessaire validation des comportements fluctuants d'un système réactif impose une évaluation préalable que l'on peut réaliser par simulation (de haut niveau) tout en permettant l'exploration de l'espace de conception architectural, matériel mais aussi logiciel, au plus tôt dans le flot de conception. Le point de vue du gestionnaire de la plateforme est adopté pour explorer à haut niveau les réactions du système aux choix de partitionnement impactés par l'algorithmique des services du système d'exploitation et leurs implémentations possibles. Pour cela un modèle modulaire de services d'OS simule fonctionnellement et conjointement en SystemC le matériel, les tâches logicielles et le système d'exploitation, répartis sur plusieurs noeuds d'exécution hétérogènes communicants. Ce modèle a permis d'évaluer l'architecture temps-réel idéale d'une application dynamique de vision robotique conjointement à l'exploration des services de gestion d'une zone reconfigurable modélisée. Ce modèle d'OS a aussi été intégré dans un simulateur de MPSoC hétérogène d'une puissance estimé à un Tera opérations par seconde.
129

Exploration architecturale pour la conception d'un système sur puce de vision robotique, adéquation algorithme-architecture d'un système embarqué temps-réel

Lefebvre, Thomas 02 July 2012 (has links) (PDF)
La problématique de cette thèse se tient à l'interface des domaines scientifiques de l'adéquation algorithme architecture, des systèmes de vision bio-inspirée en robotique mobile et du traitement d'images. Le but est de rendre un robot autonome dans son processus de perception visuelle, en intégrant au sein du robot cette tâche cognitive habituellement déportée sur un serveur de calcul distant. Pour atteindre cet objectif, l’approche de conception employée suit un processus d'adéquation algorithme architecture, où les différentes étapes de traitement d'images sont analysées minutieusement. Les traitements d'image sont modifiés et déployés sur une architecture embarquée de façon à respecter des contraintes d'exécution temps-réel imposées par le contexte robotique. La robotique mobile est un sujet de recherche académique qui s'appuie notamment sur des approches bio-mimétiques. La vision artificielle étudiée dans notre contexte emploie une approche bio-inspirée multirésolution, basée sur l'extraction et la mise en forme de zones caractéristiques de l'image. Du fait de la complexité de ces traitements et des nombreuses contraintes liées à l'autonomie du robot, le déploiement de ce système de vision nécessite une démarche rigoureuse et complète d'exploration architecturale logicielle et matérielle. Ce processus d'exploration de l'espace de conception est présenté dans cette thèse. Les résultats de cette exploration ont mené à la conception d'une architecture principalement composée d'accélérateurs matériels de traitements (IP) paramétrables et modulaires, qui sera déployée sur un circuit reconfigurable de type FPGA. Ces IP et le fonctionnement interne de chacun d'entre eux sont décrits dans le document. L'impact des paramètres architecturaux sur l'utilisation des ressources matérielles est étudié pour les traitements principaux. Le déploiement de la partie logicielle restante est présenté pour plusieurs plate-formes FPGA potentielles. Les performances obtenues pour cette solution architecturale sont enfin présentées. Ces résultats nous permettent aujourd'hui de conclure que la solution proposée permet d'embarquer le système de vision dans des robots mobiles en respectant les contraintes temps-réel qui sont imposées.
130

Vérification de propriétés faiblement dures des systèmes quasi-synchrones

Smeding, Gideon 19 December 2013 (has links) (PDF)
L'approche synchrone aux systèmes réactifs, où le temps global est une séquence d'instants discrets, a été proposée afin de faciliter la conception des systèmes embarqués critiques. Des systèmes synchrones sont souvent réalisés sur des architectures asynchrones pour des raisons de performance ou de contraintes physiques de l'application. Une répartition d'un système synchrone sur une architecture asynchrone nécessite des protocoles de communication et de synchronisation pour préserver la sémantique synchrone. En pratique, les protocoles peut avoir un coût important qui peut entrer en conflit avec les contraintes de l'application comme, par exemple, la taille de mémoire disponible, le temps de réaction, ou le débit global. L'approche quasi-synchrone utilise des composants synchrones avec des horloges indépendantes. Les composants communiquent par échantillonnage de mémoire partagée ou par des tampons FIFO. On peut exécuter un tel système de façon synchrone, où toutes les horloges avancent simultanément, ou de façon asynchrone avec moins de contraintes sur les horloges, sans ajouter des protocoles. Plus les contraintes sont relâchées, plus de comportements se rajoutent en fonction de l'entrelacement des tics des horloges. Dans le cas de systèmes flots de données, un comportement est différent d'un autre si les valeurs ou le cadencement ont changé. Pour certaines classes de systèmes l'occurrence des déviations est acceptable, tant que la fréquence de ces événements reste bornée. Nous considérons des limites dures sur la fréquence des deviations avec ce que nous appelons les exigences faiblement dures, par exemple, le nombre maximal d'éléments divergents d'un flot par un nombre d'éléments consécutifs. Nous introduisons des limites de dérive sur les apparitions relatives des paires d'événements récurrents comme les tics d'une horloge, l'occurrence d'une difference, ou l'arrivée d'un message. Les limites de dérive expriment des contraintes entre les horloges, par exemple, une borne supérieure de deux tics d'une horloge entre trois tics consécutifs d'une autre horloge. Les limites permettent également de caractériser les exigences faiblement dures. Cette thèse présente des analyses pour la vérification et l'inférence des exigences faiblement dures pour des programmes de flots de données synchrones étendu avec de la communication asynchrone par l'échantillonnage de mémoire partagée où les horloges sont décrites par des limites de dérive. Nous proposons aussi une analyse de performance des systèmes répartis avec de la communication par tampons FIFO, en utilisant les limites de dérive comme abstraction.

Page generated in 0.4987 seconds