• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 79
  • 66
  • 8
  • 1
  • Tagged with
  • 155
  • 59
  • 37
  • 34
  • 31
  • 27
  • 22
  • 20
  • 19
  • 17
  • 17
  • 16
  • 16
  • 15
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Compiling for a multithreaded dataflow architecture : algorithms, tools, and experience / Compilation pour une architecture multi-thread à flot de données : algorithmes, outils et retour d'expérience

Li, Feng 20 May 2014 (has links)
Quelque-soit le multiprocesseur et son architecture, la facilité de leur programmation demeure une difficulté majeure. Une croyance bien installée est que l’exploitation correcte et efficace du parallélisme dans une application est une question pour les concepteurs d’outils de développement logiciel. Selon cette vision, nous avons besoin de techniques de compilation plus sophistiqués pour partitionner une application en threads simultanés. Mais de nombreux experts revendiquent que l'architecture joue un rôle tout aussi important: il faut opérer un changement fondamental dans l'architecture de processeurs avant que l’on puisse espérer des progrès importants au niveau de leur programmabilité. Notre approche favorise la convergence de ces points de vue. La convergence entre le calcul parallèle “en flot de données” avec l'architecture de von Neumann est porteuse de nombreuses promesses. En particulier en termes de tolérance à la latence, en termes d’exploitation d'un haut degré de parallélisme, le tout pour un très faible coût de changement de contexte entre threads. Les architectures à flot de données multithread exigent un haut degré de parallélisme pour tolérer la latence. D'autre part, le partitionnement d’un programme en un grand nombre de threads à grain fin est une source d'erreurs commune pour les développeurs. Pour reconcilier ces faits, nous nous efforçons de faire progresser l'état de l'art dans le partitionnement automatique de threads, conjointement avec le support du langage de programmation pour l’exploitation de parallélisme à plus gros grain, tout en préservant un concurrence déterministe. Cette thèse présente un algorithme général de partitionnement de threads, pour transformer du code séquentiel en un programme exprimant du parallélisme en flot de données. Notre algorithme fonctionne sur le Program Dependence Graph (PDG) et la forme en assignation unique statique (Static Single Assignment, SSA), pour extraire du parallélisme de tâche, pipeline, et de données, en présence de flot de contrôle arbitraire. Nous avons conçu une nouvelle représentation intermédiaire pour faciliter la génération de code, et son exécution parallèle en flot de données. Nous avons également mis en œuvre ces algorithmes dans un prototype fondé sur GCC, et contribué au développement d’une plateforme de simulation permettant d’explorer la parallélisation en flot de données à grande échelle. Ces extensions et l'architecture simulée permettent l'exploration de modèles innovants de mémoire pour le parallélisme en flot de données. Ces outils et modèles ont également été évalués sur des applications réalistes. / Across the wide range of multiprocessor architectures, all seem to share one common problem: they are hard to program. It is a general belief that parallelism is a software problem, and that perhaps we need more sophisticated compilation techniques to partition the application into concurrent threads. Many experts also make the point that the underlining architecture plays an equally important architecture before one may expect significant progress in the programmability of multiprocessors. Our approach favors a convergence of these viewpoints. The convergence of dataflow and von Neumann architecture promises latency tolerance, the exploitation of a high degree of parallelism, and light thread switching cost. Multithreaded dataflow architectures require a high degree of parallelism to tolerate latency. On the other hand, it is error-prone for programmers to partition the program into large number of fine grain threads. To reconcile these facts, we aim to advance the state of the art in automatic thread partitioning, in combination with programming language support for coarse-grain, functionally deterministic concurrency. This thesis presents a general thread partitioning algorithm for transforming sequential code into a parallel data-flow program targeting a multithreaded dataflow architecture. Our algorithm operates on the program dependence graph and on the static single assignment form, extracting task, pipeline, and data parallelism from arbitrary control flow, and coarsening its granularity using a generalized form of typed fusion. We design a new intermediate representation to ease code generation for an explicit token match dataflow execution model. We also implement a GCC-based prototype. We also evaluate coarse-grain dataflow extensions of OpenMP in the context of a large-scale 1024-core, simulated multithreaded dataflow architecture. These extension and simulated architecture allow the exploration of innovative memory models for dataflow computing. We evaluate these tools and models on realistic applications.
42

A Scheduling and Partitioning Model for Stencil-based Applications on Many-Core Devices / Modèle d'Ordonnancement et de Partitionnement pour Applications à Maillages et Calculs Réguliers dans le Cadre d'Accélérateurs de Type «ManyCore»

Papin, Jean-Charles 08 September 2016 (has links)
La puissance de calcul des plus grands calculateurs ne fait qu'augmenter: de quelques centaines de cœurs de calculs dans les années 1990, on en est maintenant à plusieurs millions! Leur infrastructure évolue aussi: elle n'est plus linéaire, mais complètement hiérarchique. Les applications de calcul intensif, largement utilisées par la communauté scientifique, doivent donc se munir d'outils permettant d'utiliser pleinement l'ensemble de ces ressources de manière efficace. La simulation numérique repose bien souvent sur d'importants calculs dont le coût, en termes de temps et d'accès mémoire, peut fortement varier au cours du temps: on parle de charge de calcul variable. Dans cette Thèse, on se propose d'étudier les outils actuels de répartition des données et des calculs, afin de voir les raisons qui font que de tels outils ne sont pas pleinement adaptés aux fortes variations de charge ainsi qu'à la hiérarchie toujours plus importante des nouveaux calculateurs. Nous proposerons alors un nouveau modèle d'ordonnancement et de partitionnement, basé sur des interactions physiques, particulièrement adapté aux applications basées sur des maillages réguliers et présentant de fortes variations de charge au cours du temps. Nous validerons alors ce modèle en le comparant à des outils de partitionnement de graphes reconnus et largement utilisés, et verrons les raisons qui le rendent plus performant pour des applications aussi bien parallèles que distribuées. Enfin, nous proposerons une interface nous permettant d'utiliser cette méthode d'ordonnancement dans des calculateurs toujours plus hiérarchiques. / Computing capability of largest computing centers is still increasing: from a few hundred of cores in the90's, they can now exceed several million of cores! Their infrastructure also evolves: it is no longerlinear, but fully hierarchical.High Performance applications, well used by the scientific community, require on tools that allow themto efficiently and fully use computing resources.Numerical simulations mostly rely on large computations chains for which the cost (computing load), either acomputing time or a memory access time, can strongly vary over time: it is referred to as dynamic computing loadevolution.In this thesis, we propose to study actual data partitioning and computing scheduling tools, and to explore theirlimitations with regards to strong and repetitive load variation as well as the still increasing cluster hierarchy.We will then propose a new scheduling and partitioning model, based on physical interactions, particularlysuitable to regular mesh based applications that produce strong computing load variations over time.We will then compare our model against well-known and widely used graph partitioning tools and we will see thereasons that make this model more reliable for such parallel and distributed applications.Lastly, we will propose a multi-level scheduling interface that is specially designed to allow to use ourmodel in even more hierarchical clusters.
43

A data-based approach for dynamic classification of functional scenarios oriented to industrial process plants / Classification dynamique pour le diagnostic de procédés en contexte évolutif

Barbosa Roa, Nathalie Andrea 02 December 2016 (has links)
L'objectif principal de cette thèse est de développer un algorithme dynamique de partitionnement de données (classification non supervisée ou " clustering " en anglais) qui ne se limite pas à des concepts statiques et qui peut gérer des distributions qui évoluent au fil du temps. Cet algorithme peut être utilisé dans les systèmes de surveillance du processus, mais son application ne se limite pas à ceux-ci. Les contributions de cette thèse peuvent être présentées en trois groupes: 1. Contributions au partitionnement dynamique de données en utilisant : un algorithme de partitionnement dynamique basé à la fois sur la distance et la densité des échantillons est présenté. Cet algorithme ne fait aucune hypothèse sur la linéarité ni la convexité des groupes qu'il analyse. Ces clusters, qui peuvent avoir des densités différentes, peuvent également se chevaucher. L'algorithme développé fonctionne en ligne et fusionne les étapes d'apprentissage et de reconnaissance, ce qui permet de détecter et de caractériser de nouveaux comportements en continu tout en reconnaissant l'état courant du système. 2. Contributions à l'extraction de caractéristiques : une nouvelle approche permettant d'extraire des caractéristiques dynamiques est présentée. Cette approche, basée sur une approximation polynomiale par morceaux, permet de représenter des comportements dynamiques sans perdre les informations relatives à la magnitude et en réduisant simultanément la sensibilité de l'algorithme au bruit dans les signaux analysés. 3. Contributions à la modélisation de systèmes à événements discrets évolutifs a partir des résultats du clustering : les résultats de l'algorithme de partitionnement sont utilisés comme base pour l'élaboration d'un modèle à événements discrets du processus. Ce modèle adaptatif offre une représentation du comportement du processus de haut niveau sous la forme d'un automate dont les états représentent les états du processus appris par le partitionnement jusqu'à l'instant courant et les transitions expriment l'atteignabilité des états. / The main objective of this thesis is to propose a dynamic clustering algorithm that can handle not only dynamic data but also evolving distributions. This algorithm is particularly fitted for the monitoring of processes generating massive data streams, but its application is not limited to this domain. The main contributions of this thesis are: 1. Contribution to dynamic clustering by the proposal of an approach that uses distance- and density-based analyses to cluster non-linear, non-convex, overlapped data distributions with varied densities. This algorithm, that works in an online fashion, fusions the learning and lassification stages allowing to continuously detect and characterize new concepts and at the same time classifying the input samples, i.e. which means recognizing the current state of the system in a supervision application. 2. Contribution to feature extraction by the proposal of a novel approach to extract dynamic features. This approach ,based on piece-polynomial approximation, allows to represent dynamic behaviors without losing magnitude related information and to reduce at the same time the algorithm sensitivity to noise corrupting the signals. 3. Contribution to automatic discrete event modeling for evolving systems by exploiting informations brought by the clustering. The generated model is presented as a timed automaton that provides a high-level representation of the behavior of the process. The latter is adaptive in the sense that its construction is elaborated following the discovery of new concepts by the clustering algorithm.
44

Partitioning XML data, towards distributed and parallel management / Méthode de Partitionnement pour le traitement distribué et parallèle de données XML.

Malla, Noor 21 September 2012 (has links)
Durant cette dernière décennie, la diffusion du format XML pour représenter les données générées par et échangées sur le Web a été accompagnée par la mise en œuvre de nombreux moteurs d’évaluation de requêtes et de mises à jour XQuery. Parmi ces moteurs, les systèmes « mémoire centrale » (Main-memory Systems) jouent un rôle très important dans de nombreuses applications. La gestion et l’intégration de ces systèmes dans des environnements de programmation sont très faciles. Cependant, ces systèmes ont des problèmes de passage à l’échelle puisqu’ils requièrent le chargement complet des documents en mémoire centrale avant traitement.Cette thèse présente une technique de partitionnement des documents XML qui permet aux moteurs « mémoire principale » d’évaluer des expressions XQuery (requêtes et mises à jour) pour des documents de très grandes tailles. Cette méthode de partitionnement s’applique à une classe de requêtes et mises à jour pertinentes et fréquentes, dites requêtes et mises à jour itératives.Cette thèse propose une technique d'analyse statique pour reconnaître les expressions « itératives ». Cette analyse statique est basée sur l’extraction de chemins à partir de l'expression XQuery, sans utilisation d'information supplémentaire sur le schéma. Des algorithmes sont spécifiés, utilisant les chemins extraits par l’étape précédente, pour partitionner les documents en entrée en plusieurs parties, de sorte que la requête ou la mise à jour peut être évaluée sur chaque partie séparément afin de calculer le résultat final par simple concaténation des résultats obtenus pour chaque partie. Ces algorithmes sont mis en œuvre en « streaming » et leur efficacité est validée expérimentalement.En plus, cette méthode de partitionnement est caractérisée également par le fait qu'elle peut être facilement implémentée en utilisant le paradigme MapReduce, permettant ainsi d'évaluer une requête ou une mise à jour en parallèle sur les données partitionnées. / With the widespread diffusion of XML as a format for representing data generated and exchanged over the Web, main query and update engines have been designed and implemented in the last decade. A kind of engines that are playing a crucial role in many applications are « main-memory » systems, which distinguish for the fact that they are easy to manage and to integrate in a programming environment. On the other hand, main-memory systems have scalability issues, as they load the entire document in main-memory before processing. This Thesis presents an XML partitioning technique that allows main-memory engines to process a class of XQuery expressions (queries and updates), that we dub « iterative », on arbitrarily large input documents. We provide a static analysis technique to recognize these expressions. The static analysis is based on paths extracted from the expression and does not need additional schema information. We provide algorithms using path information for partitioning the input documents, so that the query or update can be separately evaluated on each part in order to compute the final result. These algorithms admit a streaming implementation, whose effectiveness is experimentally validated. Besides enabling scalability, our approach is also characterized by the fact that it is easily implementable into a MapReduce framework, thus enabling parallel query/update evaluation on the partitioned data.
45

Modélisation dynamique du trafic et transport de marchandises en ville : vers une approche combinée / Dynamic traffic modeling and urban freight : a combined approach

Lopez, Clélia 01 December 2017 (has links)
Cette thèse propose une modélisation des interactions entre le Transport de Marchandises en Ville (TMV) et la dynamique du trafic. Ces deux composantes, pourtant imbriquées, ne sont que très rarement étudiées simultanément. Plus précisément, cette thèse investigue les impacts du TMV sur les états de trafic ; et inversement, les impacts des états de trafic sur le TMV. Les recherches s’articulent autour de deux axes : le TMV à l’échelle (i) de la livraison et (ii) de la tournée de livraison, et la dynamique du trafic à l’échelle (iii) d’un jour et (iv) d’un catalogue de jours. (i) Le TMV réalisé par des véhicules routiers peut engendrer des formes de congestion, et par conséquent des nuisances sonores et atmosphériques. Néanmoins, il s’agit d’un « mal nécessaire » car le transport de ces marchandises est essentiel pour l’économie des villes. Une pratique courante est la livraison en double file. Ces « stationnements sauvages » réduisent l’écoulement des véhicules dans le réseau de transport. Une étude de sensibilité quantitative en simulation microscopique met en lumière une dégradation significative des états de trafic sur un boulevard urbain à partir d’un faible nombre de stationnements en double file. Ces phénomènes locaux et temporaires semblent essentiels à intégrer dans les simulations du trafic afin d’étudier au mieux les performances globales du système de transport. (ii) Les tournées de livraison planifiées peuvent être améliorées par l’intégration des conditions de circulation. Les algorithmes existants d’optimisation de tournées se basent sur une certaine qualité et quantité de données. Nous investiguons l’influence de plusieurs niveaux de granularité d’information du trafic sur l’ordonnancement optimale des tournées. De plus, nous comparons les temps de parcours estimés par les algorithmes, et les temps de parcours effectifs estimés à l’aide d’une simulation microscopique. Les états de trafic attendus peuvent être sujets à quelques variations. Nous proposons une méthodologie de génération de tournées intégrant de l’incertitude dans la dynamique du trafic. (iii) À l’échelle de la ville, les états de trafic sont naturellement variables, que ce soit dans l’espace ou au cours du temps. Le partitionnement permet de découper un réseau de transport en zones homogènes. Une zone est définie par un ensemble de liens connectés ayant des conditions de circulation similaires. Nous proposons une approche spatio-temporelle définissant des zones en 3 Dimensions (3D). L’idée est de résumer la majeure partie de la dynamique du trafic d’une ville en utilisant peu d’information : la vitesse moyenne par zone spatio-temporelle. Deux familles de méthodes de clustering fondamentalement différentes sont comparées et évaluées. Le cas d’étude est le réseau d’Amsterdam avec des données réelles. (iv) D’un jour à l’autre, la dynamique du trafic peut être similaire. Nous proposons une méthodologie regroupant les jours par leurs motifs de congestion. L’existence d’une régularité dans les motifs journaliers est introduite par la notion de jour-type. Un jour-type est le jour de référence d’un groupe de jours. Nous validons notre modèle en comparant les temps de parcours effectifs et les temps de parcours estimés par les jours-types. Diverses applications peuvent être raffinées à partir de quelques jours-types, comme l’assistance routière et la génération de tournées. / This thesis aims to modeling the interactions between the urban freight and the traffic dynamic. Although both are intertwined, they have rarely been studied considering a combined approach. Specifically, the main purpose is to analyze the impacts of the urban freight on traffic states, and vice versa. This research is focused on two axes: the urban freight considering (i) the delivery and (ii) the delivery route scales, and two traffic dynamic scales describing (iii) a day and (iv) a set of days. (i) The delivery of goods carried by vehicles can produce traffic congestion, noise and air pollution. Nevertheless, the transport of goods is essential for the economy of cities. The double parking is a common way for delivery trucks. This illegal parking reduces the vehicle capacity of the transportation network. A sensitivity analysis in traffic microscopic simulation model for urban freight highlight a significant decreasing of the traffic conditions on an urban corridor considering a low number of double parking. These local and temporal phenomena are essential to be integrated into the traffic simulation in order to better study the overall performance of the transportation system. (ii) The delivery route planner can be improved by integrating traffic conditions. The route optimization algorithms are based on quality and quantity of given data available. We investigate the influence of several levels of granularity on traffic information data for the optimal route scheduling. Moreover, the travel time estimated by algorithms and the effective travel time estimated by a microscopic simulation are compared. In addition, the expected traffic conditions can be subject to variations. We propose a methodology of delivery route planner integrating the uncertainty of the traffic dynamics. (iii) At the city level, the traffic conditions are varied through space and time. A partitioning of urban transportation networks makes possible to identify homogeneous zones. A zone is defined by a set of connected links with similar traffic conditions. We proposed a spatial and temporal approach to define the 3D zones. The idea is to summarize the majority of the traffic dynamics of a given city using only a few information: the mean speed per spatial and temporal zone. Two fundamentally different methods of clustering are compared and evaluated. The study case is the Amsterdam network with its real-world traffic data. (iv) From day to day, the traffic dynamic can be similar. We proposed a methodology grouping days by their similar congestion patterns. The existence of a regularity through daily patterns are introduced by consensual speed map. A consensual speed map is the reference day representing a group of days. Our model is validated by using the effective travel time and estimated ones by the consensual speed maps. Numerous applications can be refined from a couple of consensual speed maps, as the route guidance and delivery route planning.
46

KerA : Un Système Unifié d'Ingestion et de Stockage pour le Traitement Efficace du Big Data : Un Système Unifié d'Ingestion et de Stockage pour le Traitement Efficace du Big Data / KerA : A Unified Ingestion and Storage System for Scalable Big Data Processing

Marcu, Ovidiu-Cristian 18 December 2018 (has links)
Le Big Data est maintenant la nouvelle ressource naturelle. Les architectures actuelles des environnements d'analyse des données massives sont constituées de trois couches: les flux de données sont acquis par la couche d’ingestion (e.g., Kafka) pour ensuite circuler à travers la couche de traitement (e.g., Flink) qui s’appuie sur la couche de stockage (e.g., HDFS) pour stocker des données agrégées ou pour archiver les flux pour un traitement ultérieur. Malheureusement, malgré les bénéfices potentiels apportés par les couches spécialisées (e.g., une mise en oeuvre simplifiée), déplacer des quantités importantes de données à travers ces couches spécialisées s’avère peu efficace: les données devraient être acquises, traitées et stockées en minimisant le nombre de copies. Cette thèse propose la conception et la mise en oeuvre d’une architecture unifiée pour l’ingestion et le stockage de flux de données, capable d'améliorer le traitement des applications Big Data. Cette approche minimise le déplacement des données à travers l’architecture d'analyse, menant ainsi à une amélioration de l’utilisation des ressources. Nous identifions un ensemble de critères de qualité pour un moteur dédié d’ingestion des flux et stockage. Nous expliquons l’impact des différents choix architecturaux Big Data sur la performance de bout en bout. Nous proposons un ensemble de principes de conception d’une architecture unifiée et efficace pour l’ingestion et le stockage des données. Nous mettons en oeuvre et évaluons le prototype KerA dans le but de gérer efficacement divers modèles d’accès: accès à latence faible aux flux et/ou accès à débit élevé aux flux et/ou objets. / Big Data is now the new natural resource. Current state-of-the-art Big Data analytics architectures are built on top of a three layer stack:data streams are first acquired by the ingestion layer (e.g., Kafka) and then they flow through the processing layer (e.g., Flink) which relies on the storage layer (e.g., HDFS) for storing aggregated data or for archiving streams for later processing. Unfortunately, in spite of potential benefits brought by specialized layers (e.g., simplified implementation), moving large quantities of data through specialized layers is not efficient: instead, data should be acquired, processed and stored while minimizing the number of copies. This dissertation argues that a plausible path to follow to alleviate from previous limitations is the careful design and implementation of a unified architecture for stream ingestion and storage, which can lead to the optimization of the processing of Big Data applications. This approach minimizes data movement within the analytics architecture, finally leading to better utilized resources. We identify a set of requirements for a dedicated stream ingestion/storage engine. We explain the impact of the different Big Data architectural choices on end-to-end performance. We propose a set of design principles for a scalable, unified architecture for data ingestion and storage. We implement and evaluate the KerA prototype with the goal of efficiently handling diverse access patterns: low-latency access to streams and/or high throughput access to streams and/or objects.
47

Equilibrage de charges dynamique avec un nombre variable de processeurs basé sur des méthodes de partitionnement de graphe / Dynamic Load-Balancing with Variable Number of Processors based on Graph Partitioning

Vuchener, Clement 07 February 2014 (has links)
L'équilibrage de charge est une étape importante conditionnant les performances des applications parallèles. Dans le cas où la charge varie au cours de la simulation, il est important de redistribuer régulièrement la charge entre les différents processeurs. Dans ce contexte, il peut s'avérer pertinent d'adapter le nombre de processeurs au cours d'une simulation afin d'obtenir une meilleure efficacité, ou de continuer l'exécution quand toute la mémoire des ressources courantes est utilisée. Contrairement au cas où le nombre de processeurs ne varie pas, le rééquilibrage dynamique avec un nombre variable de processeurs est un problème peu étudié que nous abordons ici.Cette thèse propose différentes méthodes basées sur le repartitionnement de graphe pour rééquilibrer la charge tout en changeant le nombre de processeurs. Nous appelons ce problème « repartitionnement M x N ». Ces méthodes se décomposent en deux grandes étapes. Dans un premier temps, nous étudions la phase de migration et nous construisons une « bonne » matrice de migration minimisant plusieurs critères objectifs comme le volume total de migration et le nombre total de messages échangés. Puis, dans un second temps, nous utilisons des heuristiques de partitionnement de graphe pour calculer une nouvelle distribution optimisant la migration en s'appuyant sur les résultats de l'étape précédente. En outre, nous proposons un algorithme de partitionnement k-aire direct permettant d'améliorer le partitionnement biaisé. Finalement, nous validons cette thèse par une étude expérimentale en comparant nos méthodes aux partitionneursactuels. / Load balancing is an important step conditioning the performance of parallel programs. If the workload varies drastically during the simulation, the load must be redistributed regularly among the processors. Dynamic load balancing is a well studied subject but most studies are limited to an initially fixed number of processors. Adjusting the number of processors at runtime allows to preserve the parallel code efficiency or to keep running the simulation when the memory of the current resources is exceeded.In this thesis, we propose some methods based on graph repartitioning in order to rebalance the load while changing the number of processors. We call this problem \M x N repartitioning". These methods are split in two main steps. Firstly, we study the migration phase and we build a \good" migration matrix minimizing several metrics like the migration volume or the number of exchanged messages. Secondly, we use graph partitioning heuristics to compute a new distribution optimizing the migration according to the previous step results. Besides, we propose a direct k-way partitioning algorithm that allows us to improve our biased partitioning. Finally, an experimental study validates our algorithms against state-of-the-art partitioning tools.
48

Partitionnement et Geocasting dans les Réseaux Mobiles Ad hoc et Collecte des Données dans les Réseaux de Capteurs

Sow, Idrissa 04 June 2009 (has links) (PDF)
L'essor des technologies sans fil, offre aujourd'hui de nouvelles perspectives dans le domaine des télécommunications. L'évolution récente de moyens de communications sans fill permet la manipulation de l'information à travers des unités de calculs portables qui ont des caractéristiques particulières (une faible capacité de stockage, une source d'énergie autonome...) et accèdent au réseau à travers une interface de communication sans fill. Un réseau mobile ad hoc consiste en une grande population relativement dense d'unités mobiles qui se déplacent dans un environnement quelconque et dont le seul moyen de communication est l'utilisation des interfaces sans fil. Du coté des réseaux ad hoc on trouve également les réseaux des capteurs avec des propriétés particulières. Les capteurs sont des dispositifs ayant les particularités suivantes : (1) capacité de capturer des données relatives à l'environnement où ils sont physiquement placés et les convertir en signaux électriques. Les données récupérées peuvent être de nature différente et la manière d'obtenir ces données est susceptible de varier. (2) capacité d'effectuer un traitement sur ces données récupérées (3) capacité d'échanger ces données avec d'autres dispositifs ou unités mobiles. Contrairement aux réseaux basés sur la communication cellulaire : aucune administration centralisée n'est disponible ; ce sont les hôtes mobiles elles-mêmes qui, forment d'une manière ad hoc une interface du réseau. Aucune supposition ou limitation n'est faite sur la taille du réseau ; le réseau peut contenir des centaines ou des milliers d'unités mobiles. Étant donné les propriétés de ces réseaux le routage devient alors un dé et nécessite une restructuration de ses différentes composantes qui sont le routage (ou adressage), le positionnement, l'acheminement des messages entre noeuds communicants. Durant cette thèse nous nous sommes intéressés implicitement au routage en proposant une structure hiérarchique ou structure en clusters de façon à simuler une sorte de dorsale constituée de noeuds ou terminaux plus adaptés que d'autres. La mise en place de cette structure se base sur les paramètres du réseau en question. La dorsale ainsi constituée permet un routage hiérarchique qui allège considérablement les tables de routage des noeuds. Nous avons proposé une approche de localisation sans GPS, L-Libre qui vise à procurer une information de position à l'ensemble des noeuds du réseau. Cette information de position est vitale pour les protocoles de routage géographiques mais aussi pour les réseaux de capteurs où l'on a souvent bien besoin de connaître la source (les capteurs origines) des informations reçues, ce qui est d'ailleurs le cas de notre algorithme de poursuite de cible tracking) proposé dans cette thèse. Nous nous sommes également intéressé à un mode de transmission d'information appelé geocasting (ou diffusion géographique) qui consiste à transmettre des informations avec garantie de livraison non pas à l'ensemble des unités du réseau mais à un groupe particulier de noeuds situés dans une région d'intérêt communément appelé région multicast. Un autre point important est la connectivité des noeuds. La mobilité des noeuds est souvent source de déconnexion du réseau en des ensembles disjoints connexes. Notre algorithme de maintenance de connectivité vise à déterminer les noeuds qui peuvent être à l'origine de ce problème afin d'adapter leurs comportements. Et finalement, nous avons considéré une architecture virtuelle de réseau de capteurs anonymes dans laquelle certains clusters peuvent être vides. Les capteurs étant des dispositifs de capacités très limitées il devient alors indispensable de trouver une approche permettant d'organiser ou de faire collaborer à moindre coût ces capteurs dans un but bien précis. Le noeud sink (ou noeud puits) est le seul équipement qui dispose d'assez d'énergie et de puissance de transmission pour atteindre l'ensemble des capteurs répartis dans la région d'intérêt. Une stratégie de gestion de ou des antennes du noeud sink nous a permis de proposer une méthode de localisation sans inonder le réseau par échange de messages d'informations de position. Il nous a également permis d'esquisser une structure en grappes offrant un support de routage simple et efficace. Les données ainsi recueillies par les capteurs peuvent être acheminées selon un modèle de communication centralisé ou distribué défini à l'avance par le sink.
49

Sur la collecte des ordures ménagères‎ : le problème de sectorisation

Silva Gomes, Antonio Claret 28 September 1983 (has links) (PDF)
Réalisation d'un logiciel pour micro-ordinateur, destiné à permettre l'amélioration d'un service de collecte par modification de secteurs
50

Partitionnement des services de communication en vue de la génération automatique des interfaces logicielles/matérielles

Paviot, Y. 01 July 2004 (has links) (PDF)
Les technologies actuelles permettent l'intégration de systèmes de plus en plus complexes sur une seule puce. L'augmentation de la complexité induit un accroissement du temps de conception alors que paradoxalement, le concurrence économique impose des temps de mise sur le marché de plus en plus courts. Pour tenter de limiter ce décalage et d'accroître la productivité, l'industrie fait de plus en plus appel à la réutilisation de composants logiciels et matériels pour concevoir leurs systèmes.<br />L'un des problèmes de ce type de conception est celui de la réalisation de la communication entre composants. Cette thèse traite de la communication entre processeurs réalisée par des interfaces mixtes logicielles/matérielles. Leur difficulté de conception et l'impact du choix de partitionnement entre parties logicielles et matérielles nécessitent le développement de méthodes de génération automatique d'interfaces logicielles/matérielles pour l'exploration du partitionnement des services de communication.<br />La contribution de cette thèse consiste en une formalisation des problèmes liés à l'implémentation mixte logicielle/matérielle des services de communication et une proposition de flot pour la génération automatique d'interfaces. Des expériences de réalisations de primitives MPI ont permis d'appréhender le problème et de proposer un flot de génération automatique.

Page generated in 0.5011 seconds