• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 3
  • Tagged with
  • 7
  • 7
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Auto-organisation des réseaux sans-fil multi-sauts dans les villes intelligentes / Self-organisation of multi-hop wireless networks in smart cities

Ducrocq, Tony 15 November 2013 (has links)
Les villes actuelles sont de plus en plus connectées. Les compteurs sont relevés sans-fil et à distance. Les luminaires des villes communiquent pour économiser l’énergie tandis que les engins de ramassage communiquent avec les poubelles pour planifier les tournées. Ces réseaux sont sans infrastructure et les nœuds capteurs puisent leur énergie dans une batterie limitée.Dans cette thèse j'analyse les problématiques des réseaux sans-fil muti-sauts dans les villes intelligentes. J’étudie dans un premier temps l’importance et l’impact de la topologie sur les performances réseau. Plus précisément, au travers de simulations et d’études expérimentales, je démontre que le placement des nœuds impacte les performances des algorithmes de routage géographique. Je propose ensuite une famille d’algorithmes de clustering pour réseaux de capteurs sans-fil reposant sur l’hypothèse qu’un chef de cluster consomme plus d’énergie que les autres nœuds. L’idée principale de ces algorithmes est que le rôle de cluster-head doit être attribué en fonction du niveau d’énergie des nœuds et de leur voisinage. Ces algorithmes ont été testés grâce à des simulations sur des topologies de villes réalistes avec des paramètres de simulation tirés du monde réel. Enfin, je propose un algorithme de routage pour les villes intelligentes ayant pour base deux techniques de routage. Il repose sur l'hypothèse que seulement une partie des nœuds dispose de l'information de sa position. Je montre qu’il est possible d’obtenir des performances proches des algorithmes de routage géographique, même sous cette hypothèse. / In recent years, cities have become more and more connected. Readings of the electricity usage are being performed wirelessly. In order to reduce the energy consumption, lampposts became intelligent, while the garbage trucks communicate with dust bins in order to plan the garbage collection tours. These networks often lack the infrastructure and sensor nodes rely on a battery with a limited capacity. In this thesis, I analyze the issues of multi-hop wireless networks in smart cities. First, I study the significance and impact of network topologies on network performance. More precisely, through simulations and an experimental study, I show that the placement of nodes impacts the performance of geographic routing algorithms. Then, I propose a set of clustering algorithms for wireless sensor networks that optimize the lifetime of the network. The key hypothesis is that a cluster-head is consuming more energy than a regular node. This set of algorithms, named BLAC, creates multi-hop clusters in which each cluster-head is the root of a tree. The main idea is that the role of each cluster-head should be assigned regarding the remaining energy of nodes and their neighborhood. These algorithms have been tested through simulations based on realistic city topologies with simulation parameters resembling the real world.In the end, I propose a routing algorithm for large scale smart cities that combines two geographic routing techniques. It relies on the hypothesis that only a fraction of nodes in the network are aware of their positions. I show that it is possible to achieve the performance close to classical routing algorithms, even under this hypothesis.
2

Analyse des différences dans le Big Data : Exploration, Explication, Évolution / Difference Analysis in Big Data : Exploration, Explanation, Evolution

Kleisarchaki, Sofia 28 November 2016 (has links)
La Variabilité dans le Big Data se réfère aux données dont la signification change de manière continue. Par exemple, les données des plateformes sociales et les données des applications de surveillance, présentent une grande variabilité. Cette variabilité est dûe aux différences dans la distribution de données sous-jacente comme l’opinion de populations d’utilisateurs ou les mesures des réseaux d’ordinateurs, etc. L’Analyse de Différences a comme objectif l’étude de la variabilité des Données Massives. Afin de réaliser cet objectif, les data scientists ont besoin (a) de mesures de comparaison de données pour différentes dimensions telles que l’âge pour les utilisateurs et le sujet pour le traffic réseau, et (b) d’algorithmes efficaces pour la détection de différences à grande échelle. Dans cette thèse, nous identifions et étudions trois nouvelles tâches analytiques : L’Exploration des Différences, l’Explication des Différences et l’Evolution des Différences.L’Exploration des Différences s’attaque à l’extraction de l’opinion de différents segments d’utilisateurs (ex., sur un site de films). Nous proposons des mesures adaptées à la com- paraison de distributions de notes attribuées par les utilisateurs, et des algorithmes efficaces qui permettent, à partir d’une opinion donnée, de trouver les segments qui sont d’accord ou pas avec cette opinion. L’Explication des Différences s’intéresse à fournir une explication succinte de la différence entre deux ensembles de données (ex., les habitudes d’achat de deux ensembles de clients). Nous proposons des fonctions de scoring permettant d’ordonner les explications, et des algorithmes qui guarantissent de fournir des explications à la fois concises et informatives. Enfin, l’Evolution des Différences suit l’évolution d’un ensemble de données dans le temps et résume cette évolution à différentes granularités de temps. Nous proposons une approche basée sur le requêtage qui utilise des mesures de similarité pour comparer des clusters consécutifs dans le temps. Nos index et algorithmes pour l’Evolution des Différences sont capables de traiter des données qui arrivent à différentes vitesses et des types de changements différents (ex., soudains, incrémentaux). L’utilité et le passage à l’échelle de tous nos algorithmes reposent sur l’exploitation de la hiérarchie dans les données (ex., temporelle, démographique).Afin de valider l’utilité de nos tâches analytiques et le passage à l’échelle de nos algo- rithmes, nous réalisons un grand nombre d’expériences aussi bien sur des données synthé- tiques que réelles.Nous montrons que l’Exploration des Différences guide les data scientists ainsi que les novices à découvrir l’opinion de plusieurs segments d’internautes à grande échelle. L’Explication des Différences révèle la nécessité de résumer les différences entre deux ensembles de donnes, de manière parcimonieuse et montre que la parcimonie peut être atteinte en exploitant les relations hiérarchiques dans les données. Enfin, notre étude sur l’Evolution des Différences fournit des preuves solides qu’une approche basée sur les requêtes est très adaptée à capturer des taux d’arrivée des données variés à plusieurs granularités de temps. De même, nous montrons que les approches de clustering sont adaptées à différents types de changement. / Variability in Big Data refers to data whose meaning changes continuously. For instance, data derived from social platforms and from monitoring applications, exhibits great variability. This variability is essentially the result of changes in the underlying data distributions of attributes of interest, such as user opinions/ratings, computer network measurements, etc. {em Difference Analysis} aims to study variability in Big Data. To achieve that goal, data scientists need: (a) measures to compare data in various dimensions such as age for users or topic for network traffic, and (b) efficient algorithms to detect changes in massive data. In this thesis, we identify and study three novel analytical tasks to capture data variability: {em Difference Exploration, Difference Explanation} and {em Difference Evolution}.Difference Exploration is concerned with extracting the opinion of different user segments (e.g., on a movie rating website). We propose appropriate measures for comparing user opinions in the form of rating distributions, and efficient algorithms that, given an opinion of interest in the form of a rating histogram, discover agreeing and disargreeing populations. Difference Explanation tackles the question of providing a succinct explanation of differences between two datasets of interest (e.g., buying habits of two sets of customers). We propose scoring functions designed to rank explanations, and algorithms that guarantee explanation conciseness and informativeness. Finally, Difference Evolution tracks change in an input dataset over time and summarizes change at multiple time granularities. We propose a query-based approach that uses similarity measures to compare consecutive clusters over time. Our indexes and algorithms for Difference Evolution are designed to capture different data arrival rates (e.g., low, high) and different types of change (e.g., sudden, incremental). The utility and scalability of all our algorithms relies on hierarchies inherent in data (e.g., time, demographic).We run extensive experiments on real and synthetic datasets to validate the usefulness of the three analytical tasks and the scalability of our algorithms. We show that Difference Exploration guides end-users and data scientists in uncovering the opinion of different user segments in a scalable way. Difference Explanation reveals the need to parsimoniously summarize differences between two datasets and shows that parsimony can be achieved by exploiting hierarchy in data. Finally, our study on Difference Evolution provides strong evidence that a query-based approach is well-suited to tracking change in datasets with varying arrival rates and at multiple time granularities. Similarly, we show that different clustering approaches can be used to capture different types of change.
3

Analyse, Structure et Organisation des Réseaux Complexes

Zaidi, Faraz 25 November 2010 (has links) (PDF)
La Science des Réseaux est apparue comme un domaine d'étude fondamental pour modéliser un grand nombre de systèmes synthetiques ou du monde réel. La découverte du graphe petit monde et du graphe sans échelle dans ces réseaux a révolutionné la façon d'étudier, d'analyser, de modéliser et de traiter ces réseaux. Dans cette thèse, nous nous intéressons à l'étude des réseaux ayant ces propriétés et souvent qualifiés de réseaux complexes. À notre avis, les recherches menées dans ce domaine peuvent être regroupées en quatre catégories: l'analyse, la structure, le processus/organisation et la visualisation. Nous abordons des problèmes relatifs à chacune de ces catégories tout au long de cette thèse. Les premiers chapitres introduisent l'état de l'art nécessaire aux lecteurs. Les chapitres 3,4,5,6 et 7 abordent chacun un problème spécifique auquel nous proposons une solution. Dans le chapitre 3, nous présentons une méthode de visualisation analytique pour analyser les réseaux complexes. En s'appuyant sur cette méthode, nous introduisons une nouvelle métrique pour déterminer la présence de sommets largement connectés. Nous détaillons dans le chapitre 4 un ensemble de modèles pour générer des réseaux artificiels ayant les propriétés petit monde et sans échelle. Nous proposons un nouveau modèle générant des réseaux de ce type et qui contiennent, de plus, des structures communautaires. En extension des résultats d'analyse obtenus au chapitre 3, nous introduisons un algorithme de clustering agglomératif dans le chapitre 5. Dans le chapitre 6, nous abordons la question de la visualisation de ces réseaux complexes grâce à un système qui combine simplification et clustering avec des algorithmes de mise en page dédiée. Nous abordons enfin dans le chapitre 7 la question de l'évaluation de la qualité des clusters pour les réseaux complexes qui n'ont pas de sommets largement connectés. Nous concluons chaque chapitre par des perspectives de recherches dédiées. Enfin, nous résumons nos résultats et concluons cette thèse en proposant quelques futurs axes de recherches basés sur nos découvertes.
4

Analysis, structure and organization of complex networks / Analyse, structure et organisation des réseaux complexes

Zaidi, Faraz 25 November 2010 (has links)
La Science des réseaux est apparue comme un domaine d'étude fondamental pour modéliser un grand nombre de systèmes synthétiques ou du monde réel.La découverte du graphe petit monde et du graphe sans échelle dans ces réseaux a révolutionné la façon d'étudier, d'analyser, de modéliser et de traiter ces réseaux. Dans cette thèse, nous nous intéressons à l'étude des réseaux ayant ces propriétés et souvent qualifiés de réseaux complexes.A notre avis, les recherches menées dans ce domaine peuvent être regroupées en quatre catégories: l'analyse, la structure, le processus/organisation et la visualisation.Nous abordons des problèmes relatifs à chacune de ces catégories tout au long de cette thèse. (...) / Network science has emerged as a fundamental field of study to model many physicaland real world systems around us. The discovery of small world and scale free propertiesof these real world networks has revolutionized the way we study, analyze, model andprocess these networks. In this thesis, we are interested in the study of networks havingthese properties often termed as complex networks. In our opinion, research conducted inthis field can be grouped into four categories, Analysis, Structure, Processes-Organizationand Visualization. We address problems pertaining to each of these categories throughoutthis thesis. (...)
5

Contributions à l'instrumentation du métier d'architecte système : de l'architecture modulaire du produit à l'organisation du système de conception.

Bonjour, Eric 17 November 2008 (has links) (PDF)
Ce mémoire constitue une synthèse de nos activités de recherche, d'animation scientifique, d'enseignement et de responsabilité pédagogique entre 1998 et 2008. <br />Depuis une dizaine d'années, les concepteurs de systèmes mécatroniques doivent satisfaire des exigences de plus en plus sévères et nombreuses. Pour cela, ils doivent créer des solutions qui tendent à se complexifier, pour porter de multiples fonctions de service ou intégrer les dernières technologies innovantes. La conception d'un système mécatronique passe par la conception architecturale qui réalise l'identification de l'architecture du système. Cette activité requiert l'implication d'un métier émergent et stratégique : l' "architecte système". En même temps que l'ingénierie technique, l'architecte système doit assurer l'ingénierie organisationnelle de la conception, c'est-à-dire, définir une organisation adéquate du système de conception. Ce double rôle est critique lors de la phase de conception préliminaire, car les décisions prises auront un impact fort sur les performances de l'ensemble du projet.<br />La finalité de nos travaux est de développer des modèles, méthodes et outils d'aide à la décision permettant de supporter les activités à la fois technique et organisationnelle d'un architecte système. L'originalité majeure de notre projet réside dans le couplage que nous recherchons entre les architectures du système-produit, du système-projet et du système de compétences de conception.<br />Nous avons structuré nos contributions selon trois thématiques et répondu aux questions suivantes :<br />T1 - Identification d'une architecture modulaire du produit : comment identifier une architecture modulaire ? Comment modéliser l'architecture d'une famille de produits et générer la diversité ?<br />T2 - Organisation du système de conception : comment constituer des équipes compétentes ? Comment piloter les systèmes de compétences ? <br />T3 - Co-conception des architectures produit-projet : Comment propager des évolutions des modules du produit vers l'organisation du système de conception ? Comment coupler l'architecture du produit et l'organisation du système de conception ?<br />Des perspectives sont proposées propres aux deux thématiques majeures de notre projet (T1 et T2), ainsi que quatre extensions possibles : <br />1) Vers une conception collaborative consciente,<br />2) Vers une performance durable du système de conception,<br />3) Vers un système agile de systèmes de conception,<br />4) Vers une conception intégrée de systèmes micro-mécatroniques.
6

An Efficient Framework for Processing and Analyzing Unstructured Text to Discover Delivery Delay and Optimization of Route Planning in Realtime / Un framework efficace pour le traitement et l'analyse des textes non structurés afin de découvrir les retards de livraison et d'optimiser la planification de routes en temps réel

Alshaer, Mohammad 13 September 2019 (has links)
L'Internet des objets, ou IdO (en anglais Internet of Things, ou IoT) conduit à un changement de paradigme du secteur de la logistique. L'avènement de l'IoT a modifié l'écosystème de la gestion des services logistiques. Les fournisseurs de services logistiques utilisent aujourd'hui des technologies de capteurs telles que le GPS ou la télémétrie pour collecter des données en temps réel pendant la livraison. La collecte en temps réel des données permet aux fournisseurs de services de suivre et de gérer efficacement leur processus d'expédition. Le principal avantage de la collecte de données en temps réel est qu’il permet aux fournisseurs de services logistiques d’agir de manière proactive pour éviter des conséquences telles que des retards de livraison dus à des événements imprévus ou inconnus. De plus, les fournisseurs ont aujourd'hui tendance à utiliser des données provenant de sources externes telles que Twitter, Facebook et Waze, parce que ces sources fournissent des informations critiques sur des événements tels que le trafic, les accidents et les catastrophes naturelles. Les données provenant de ces sources externes enrichissent l'ensemble de données et apportent une valeur ajoutée à l'analyse. De plus, leur collecte en temps réel permet d’utiliser les données pour une analyse en temps réel et de prévenir des résultats inattendus (tels que le délai de livraison, par exemple) au moment de l’exécution. Cependant, les données collectées sont brutes et doivent être traitées pour une analyse efficace. La collecte et le traitement des données en temps réel constituent un énorme défi. La raison principale est que les données proviennent de sources hétérogènes avec une vitesse énorme. La grande vitesse et la variété des données entraînent des défis pour effectuer des opérations de traitement complexes telles que le nettoyage, le filtrage, le traitement de données incorrectes, etc. La diversité des données - structurées, semi-structurées et non structurées - favorise les défis dans le traitement des données à la fois en mode batch et en temps réel. Parce que, différentes techniques peuvent nécessiter des opérations sur différents types de données. Une structure technique permettant de traiter des données hétérogènes est très difficile et n'est pas disponible actuellement. En outre, l'exécution d'opérations de traitement de données en temps réel est très difficile ; des techniques efficaces sont nécessaires pour effectuer les opérations avec des données à haut débit, ce qui ne peut être fait en utilisant des systèmes d'information logistiques conventionnels. Par conséquent, pour exploiter le Big Data dans les processus de services logistiques, une solution efficace pour la collecte et le traitement des données en temps réel et en mode batch est essentielle. Dans cette thèse, nous avons développé et expérimenté deux méthodes pour le traitement des données: SANA et IBRIDIA. SANA est basée sur un classificateur multinomial Naïve Bayes, tandis qu'IBRIDIA s'appuie sur l'algorithme de classification hiérarchique (CLH) de Johnson, qui est une technologie hybride permettant la collecte et le traitement de données par lots et en temps réel. SANA est une solution de service qui traite les données non structurées. Cette méthode sert de système polyvalent pour extraire les événements pertinents, y compris le contexte (tel que le lieu, l'emplacement, l'heure, etc.). En outre, il peut être utilisé pour effectuer une analyse de texte sur les événements ciblés. IBRIDIA a été conçu pour traiter des données inconnues provenant de sources externes et les regrouper en temps réel afin d'acquérir une connaissance / compréhension des données permettant d'extraire des événements pouvant entraîner un retard de livraison. Selon nos expériences, ces deux approches montrent une capacité unique à traiter des données logistiques / Internet of Things (IoT) is leading to a paradigm shift within the logistics industry. The advent of IoT has been changing the logistics service management ecosystem. Logistics services providers today use sensor technologies such as GPS or telemetry to collect data in realtime while the delivery is in progress. The realtime collection of data enables the service providers to track and manage their shipment process efficiently. The key advantage of realtime data collection is that it enables logistics service providers to act proactively to prevent outcomes such as delivery delay caused by unexpected/unknown events. Furthermore, the providers today tend to use data stemming from external sources such as Twitter, Facebook, and Waze. Because, these sources provide critical information about events such as traffic, accidents, and natural disasters. Data from such external sources enrich the dataset and add value in analysis. Besides, collecting them in real-time provides an opportunity to use the data for on-the-fly analysis and prevent unexpected outcomes (e.g., such as delivery delay) at run-time. However, data are collected raw which needs to be processed for effective analysis. Collecting and processing data in real-time is an enormous challenge. The main reason is that data are stemming from heterogeneous sources with a huge speed. The high-speed and data variety fosters challenges to perform complex processing operations such as cleansing, filtering, handling incorrect data, etc. The variety of data – structured, semi-structured, and unstructured – promotes challenges in processing data both in batch-style and real-time. Different types of data may require performing operations in different techniques. A technical framework that enables the processing of heterogeneous data is heavily challenging and not currently available. In addition, performing data processing operations in real-time is heavily challenging; efficient techniques are required to carry out the operations with high-speed data, which cannot be done using conventional logistics information systems. Therefore, in order to exploit Big Data in logistics service processes, an efficient solution for collecting and processing data in both realtime and batch style is critically important. In this thesis, we developed and experimented with two data processing solutions: SANA and IBRIDIA. SANA is built on Multinomial Naïve Bayes classifier whereas IBRIDIA relies on Johnson's hierarchical clustering (HCL) algorithm which is hybrid technology that enables data collection and processing in batch style and realtime. SANA is a service-based solution which deals with unstructured data. It serves as a multi-purpose system to extract the relevant events including the context of the event (such as place, location, time, etc.). In addition, it can be used to perform text analysis over the targeted events. IBRIDIA was designed to process unknown data stemming from external sources and cluster them on-the-fly in order to gain knowledge/understanding of data which assists in extracting events that may lead to delivery delay. According to our experiments, both of these approaches show a unique ability to process logistics data. However, SANA is found more promising since the underlying technology (Naïve Bayes classifier) out-performed IBRIDIA from performance measuring perspectives. It is clearly said that SANA was meant to generate a graph knowledge from the events collected immediately in realtime without any need to wait, thus reaching maximum benefit from these events. Whereas, IBRIDIA has an important influence within the logistics domain for identifying the most influential category of events that are affecting the delivery. Unfortunately, in IBRIRDIA, we should wait for a minimum number of events to arrive and always we have a cold start. Due to the fact that we are interested in re-optimizing the route on the fly, we adopted SANA as our data processing framework
7

Raisonnement approximatif pour la détection et l'analyse de changements / Approximate reasoning for the detection and analysing of changes

Haouas, Fatma 25 September 2019 (has links)
Cette thèse est le fruit de l’interaction de deux disciplines qui sont la détection de changements dans des images multitemporelles et le raisonnement évidentiel à l’aide de la théorie de Dempster-Shafer (DST). Aborder le problème de détection et d’analyse de changements par la DST nécessite la détermination d’un cadre de discernement exhaustif et exclusif. Ce problème s’avère complexe en l’absence des informations a priori sur les images. Nous proposons dans ce travail de recherche un nouvel algorithme de clustering basé sur l’algorithme Fuzzy-C-Means (FCM) afin de définir les classes sémantiques existantes. L’idée de cet algorithme est la représentation de chaque classe par un nombre varié de centroïdes afin de garantir une meilleure caractérisation de classes. Afin d’assurer l’exhaustivité du cadre de discernement, un nouvel indice de validité de clustering permettant de déterminer le nombre optimal de classes sémantiques est proposé. La troisième contribution consiste à exploiter la position du pixel par rapport aux centroïdes des classes et les degrés d’appartenance afin de définir la distribution de masse qui représente les informations. La particularité de la distribution proposée est la génération d’un nombre réduit des éléments focaux et le respect des axiomes mathématiques en effectuant la transformation flou-masse. Nous avons souligné la capacité du conflit évidentiel à indiquer les transformations multi-temporelles. Nous avons porté notre raisonnement sur la décomposition du conflit global et l’estimation des conflits partiels entre les couples des éléments focaux pour mesurer le conflit causé par le changement. Cette stratégie permet d’identifier le couple de classes qui participent dans le changement. Pour quantifier ce conflit, nous avons proposé une nouvelle mesure de changement notée CM. Finalement, nous avons proposé un algorithme permettant de déduire la carte binaire de changements à partir de la carte de conflits partiels. / This thesis is the interaction result of two disciplines that are the change detection in multitemporal images and the evidential reasoning using the Dempster-Shafer theory (DST). Addressing the problem of change detection and analyzing by the DST, requires the determination of an exhaustive and exclusive frame of discernment. This issue is complex when images lake prior information. In this research work, we propose a new clustering algorithm based on the Fuzzy-C-Means (FCM) algorithm in order to define existing semantic classes. The idea of this algorithm is the representation of each class by a varied number of centroids in order to guarantee a better characterization of classes. To ensure the frame of discernment exhaustiveness, we proposed a new cluster validity index able to identify the optimal number of semantic classes. The third contribution is to exploit the position of the pixel in relation to class centroids and its membership distribution in order to define the mass distribution that represents information. The particularity of the proposed distribution, is the generation of a reduced set of focal elements and the respect of mathematical axioms when performing the fuzzy-mass transformation. We have emphasized the capacity of evidential conflict to indicate multi-temporal transformations. We reasoned on the decomposition of the global conflict and the estimation of the partial conflicts between the couples of focal elements to measure the conflict caused by the change. This strategy allows to identify the couple of classes that participate in the change. To quantify this conflict, we proposed a new measure of change noted CM. Finally, we proposed an algorithm to deduce the binary map of changes from the partial conflicts map.

Page generated in 0.1053 seconds