Spelling suggestions: "subject:"doptimisation dde performance"" "subject:"doptimisation dee performance""
1 |
TCP performance study and enhancements within wireless multi-hop ad hoc network environments / Analyse et amélioration conjointe de la consommation d'énergie et des débits de TCP dans les réseaux ad hoc sans filSeddik, Alaa 30 March 2009 (has links)
Les réseaux ad hoc diffèrent des réseaux filaires par la multitude de perturbation auxquels ils sont sujets. Alors qu’une rupture de lien est un événement plutôt rare sur des réseaux filaires, et généralement imputable à l’état physique du matériel intermédiaire, cet événement est courant avec les communications radio. Ceci est lié à la qualité du signal reçu de l’autre extrémité ou à la configuration de l’environnement. Les perturbations causées par l’environnement ne mènent pas seulement à une rupture d’un lien, elles peuvent avoir un impact sur la réception des données. La volatilité des liens est typique dans les réseaux sans fil alors pour les réseaux filaires ce problème est inexistant. TCP, qui est prévu pour assurer la transmission fiable des données, n’a été conçu qu’en tenant compte des contraintes des réseaux filaires. Ainsi, certains événements dans la transmission de données sans fil peuvent être mal interprétés et engendrer une mauvaise réaction de TCP. Pour améliorer la performance de TCP dans les réseaux ad hoc, l’objectif de cette thèse est double. Dans un premier temps, une étude complète des performances de TCP dans les réseaux ad hoc est dressée. Celle-ci concerne à la fois les débits atteignables et aussi la consommation d’énergie induite par l’utilisation de ce protocole de transport dans un réseau ad hoc. Cette étude permet d’identifier les points d’amélioration de TCP pour qu’il soit utilisable dans les réseaux ad hoc. Dans un second temps, nous proposons une nouvelle variante de TCP, appelée TCP-WELCOME, dont l’objectif est de traiter de façon adéquate les différents types de perte de paquets sur un réseau ad hoc et optimiser la performance de TCP. / Wireless ad hoc networks are different from wired networks by the multitude of data packet loss situations they are subjected to. This is due to the characteristics of wireless channel that might obstruct the proper reception of data packet at the destination end. In some case, these vulnerabilities of wireless channel can result in a complete link failure. Although link failure is of low probability in wired networks, it is rather common in wireless networks. The volatility of communication channel is a typical problem with wireless links, which is not the case with wired cables. TCP is a transport protocol that aims at ensuring high reliability and guarantying reception of data packets. However, TCP was designed for wired networks to address congestion, which is the main cause for data packet loss in wired networks. Therefore, other types of data packet loss encountered in wireless networks are prone to misinterpretation by TCP, which will lead to TCP performance degradation within the network. To overcome the performance limitation of TCP when used within ad hoc networks, the aim of this thesis is twofold. First, a complete performance study of TCP over ad hoc networks is achieved. This evaluation concerns two performance metrics: the achievable throughput and the energy consumption of TCP within ad hoc networks. This study allows identifying the potential room of improvement to enhance TCP efficiency in ad hoc networks. Second, we propose a new TCP variant, TCP-WELCOME that optimizes the performance of TCP in ad hoc networks through its ability to distinguish among, and efficiently deal with, different data packet loss situations, within ad hoc networks.
|
2 |
Modélisation et exécution des applications d'analyse de données multi-dimentionnelles sur architectures distribuées.Pan, Jie 13 December 2010 (has links) (PDF)
Des quantités de données colossalles sont générées quotidiennement. Traiter de grands volumes de données devient alors un véritable challenge pour les logiciels d'analyse des données multidimensionnelles. De plus, le temps de réponse exigé par les utilisateurs de ces logiciels devient de plus en plus court, voire intéractif. Pour répondre à cette demande, une approche basée sur le calcul parallèle est une solution. Les approches traditionnelles reposent sur des architectures performantes, mais coûteuses, comme les super-calculateurs. D'autres architectures à faible coût sont également disponibles, mais les méthodes développées sur ces architectures sont souvent bien moins efficaces. Dans cette thèse, nous utilisons un modèle de programmation parallèle issu du Cloud Computing, dénommé MapReduce, pour paralléliser le traitement des requêtes d'analyse de données multidimensionnelles afin de bénéficier de mécanismes de bonne scalabilité et de tolérance aux pannes. Dans ce travail, nous repensons les techniques existantes pour optimiser le traitement de requête d'analyse de données multidimensionnelles, y compris les étapes de pré-calcul, d'indexation, et de partitionnement de données. Nous avons aussi résumé le parallélisme de traitement de requêtes. Ensuite, nous avons étudié le modèle MapReduce en détail. Nous commençons par présenter le principe de MapReduce et celles du modèle étendu, MapCombineReduce. En particulier, nous analysons le coût de communication pour la procédure de MapReduce. Après avoir présenté le stockage de données qui fonctionne avec MapReduce, nous présentons les caractéristiques des applications de gestion de données appropriées pour le Cloud Computing et l'utilisation de MapReduce pour les applications d'analyse de données dans les travaux existants. Ensuite, nous nous concentrons sur la parallélisation des Multiple Group-by query, une requête typique utilisée dans l'exploration de données multidimensionnelles. Nous présentons la mise en oeuvre de l'implémentation initiale basée sur MapReduce et une optimisation basée sur MapCombineReduce. Selon les résultats expérimentaux, notre version optimisée montre un meilleur speed-up et une meilleure scalabilité que la version initiale. Nous donnons également une estimation formelle du temps d'exécution pour les deux implémentations. Afin d'optimiser davantage le traitement du Multiple Group-by query, une phase de restructuration de données est proposée pour optimiser les jobs individuels. Nous re-definissons l'organisation du stockage des données, et nous appliquons les techniques suivantes, le partitionnement des données, l'indexation inversée et la compression des données, au cours de la phase de restructuration des données. Nous redéfinissons les calculs effectués dans MapReduce et dans l'ordonnancement des tâches en utilisant cette nouvelle structure de données. En nous basant sur la mesure du temps d'exécution, nous pouvons donner une estimation formelle et ainsi déterminer les facteurs qui impactent les performances, telles que la sélectivité de requête, le nombre de mappers lancés sur un noeud, la distribution des données " hitting ", la taille des résultats intermédiaires, les algorithmes de sérialisation adoptée, l'état du réseau, le fait d'utiliser ou non le combiner, ainsi que les méthodes adoptées pour le partitionnement de données. Nous donnons un modèle d'estimation des temps d'exécution et en particulier l'estimation des valeurs des paramètres différents pour les exécutions utilisant le partitionnement horizontal. Afin de soutenir la valeur-unique-wise-ordonnancement, qui est plus flexible, nous concevons une nouvelle structure de données compressées, qui fonctionne avec un partitionnement vertical. Cette approche permet l'agrégation sur une certaine valeur dans un processus continu.
|
3 |
Modélisation et exécution des applications d'analyse de données multi-dimentionnelles sur architectures distribuées. / Modelling and executing multidimensional data analysis applications over distributed architectures.Pan, Jie 13 December 2010 (has links)
Des quantités de données colossalles sont générées quotidiennement. Traiter de grands volumes de données devient alors un véritable challenge pour les logiciels d'analyse des données multidimensionnelles. De plus, le temps de réponse exigé par les utilisateurs de ces logiciels devient de plus en plus court, voire intéractif. Pour répondre à cette demande, une approche basée sur le calcul parallèle est une solution. Les approches traditionnelles reposent sur des architectures performantes, mais coûteuses, comme les super-calculateurs. D'autres architectures à faible coût sont également disponibles, mais les méthodes développées sur ces architectures sont souvent bien moins efficaces. Dans cette thèse, nous utilisons un modèle de programmation parallèle issu du Cloud Computing, dénommé MapReduce, pour paralléliser le traitement des requêtes d'analyse de données multidimensionnelles afin de bénéficier de mécanismes de bonne scalabilité et de tolérance aux pannes. Dans ce travail, nous repensons les techniques existantes pour optimiser le traitement de requête d'analyse de données multidimensionnelles, y compris les étapes de pré-calcul, d'indexation, et de partitionnement de données. Nous avons aussi résumé le parallélisme de traitement de requêtes. Ensuite, nous avons étudié le modèle MapReduce en détail. Nous commençons par présenter le principe de MapReduce et celles du modèle étendu, MapCombineReduce. En particulier, nous analysons le coût de communication pour la procédure de MapReduce. Après avoir présenté le stockage de données qui fonctionne avec MapReduce, nous présentons les caractéristiques des applications de gestion de données appropriées pour le Cloud Computing et l'utilisation de MapReduce pour les applications d'analyse de données dans les travaux existants. Ensuite, nous nous concentrons sur la parallélisation des Multiple Group-by query, une requête typique utilisée dans l'exploration de données multidimensionnelles. Nous présentons la mise en oeuvre de l'implémentation initiale basée sur MapReduce et une optimisation basée sur MapCombineReduce. Selon les résultats expérimentaux, notre version optimisée montre un meilleur speed-up et une meilleure scalabilité que la version initiale. Nous donnons également une estimation formelle du temps d'exécution pour les deux implémentations. Afin d'optimiser davantage le traitement du Multiple Group-by query, une phase de restructuration de données est proposée pour optimiser les jobs individuels. Nous re-definissons l'organisation du stockage des données, et nous appliquons les techniques suivantes, le partitionnement des données, l'indexation inversée et la compression des données, au cours de la phase de restructuration des données. Nous redéfinissons les calculs effectués dans MapReduce et dans l'ordonnancement des tâches en utilisant cette nouvelle structure de données. En nous basant sur la mesure du temps d'exécution, nous pouvons donner une estimation formelle et ainsi déterminer les facteurs qui impactent les performances, telles que la sélectivité de requête, le nombre de mappers lancés sur un noeud, la distribution des données « hitting », la taille des résultats intermédiaires, les algorithmes de sérialisation adoptée, l'état du réseau, le fait d'utiliser ou non le combiner, ainsi que les méthodes adoptées pour le partitionnement de données. Nous donnons un modèle d'estimation des temps d'exécution et en particulier l'estimation des valeurs des paramètres différents pour les exécutions utilisant le partitionnement horizontal. Afin de soutenir la valeur-unique-wise-ordonnancement, qui est plus flexible, nous concevons une nouvelle structure de données compressées, qui fonctionne avec un partitionnement vertical. Cette approche permet l'agrégation sur une certaine valeur dans un processus continu. / Along with the development of hardware and software, more and more data is generated at a rate much faster than ever. Processing large volume of data is becoming a challenge for data analysis software. Additionally, short response time requirement is demanded by interactive operational data analysis tools. For addressing these issues, people look for solutions based on parallel computing. Traditional approaches rely on expensive high-performing hardware, like supercomputers. Another approach using commodity hardware has been less investigated. In this thesis, we are aiming to utilize commodity hardware to resolve these issues. We propose to utilize a parallel programming model issued from Cloud Computing, MapReduce, to parallelize multidimensional analytical query processing for benefit its good scalability and fault-tolerance mechanisms. In this work, we first revisit the existing techniques for optimizing multidimensional data analysis query, including pre-computing, indexing, data partitioning, and query processing parallelism. Then, we study the MapReduce model in detail. The basic idea of MapReduce and the extended MapCombineReduce model are presented. Especially, we analyse the communication cost of a MapReduce procedure. After presenting the data storage works with MapReduce, we discuss the features of data management applications suitable for Cloud Computing, and the utilization of MapReduce for data analysis applications in existing work. Next, we focus on the MapReduce-based parallelization for Multiple Group-by query, a typical query used in multidimensional data exploration. We present the MapReduce-based initial implementation and a MapCombineReduce-based optimization. According to the experimental results, our optimized version shows a better speed-up and a better scalability than the other version. We also give formal execution time estimation for both the initial implementation and the optimized one. In order to further optimize the processing of Multiple Group-by query processing, a data restructure phase is proposed to optimize individual job execution. We redesign the organization of data storage. We apply, data partitioning, inverted index and data compressing techniques, during data restructure phase. We redefine the MapReduce job's calculations, and job scheduling relying on the new data structure. Based on a measurement of execution time we give a formal estimation. We find performance impacting factors, including query selectivity, concurrently running mapper number on one node, hitting data distribution, intermediate output size, adopted serialization algorithms, network status, whether using combiner or not as well as the data partitioning methods. We give an estimation model for the query processing's execution time, and specifically estimated the values of various parameters for data horizontal partitioning-based query processing. In order to support more flexible distinct-value-wise job-scheduling, we design a new compressed data structure, which works with vertical partition. It allows the aggregations over one certain distinct value to be performed within one continuous process.
|
4 |
Evaluation of optimised flight trajectories for conventional and novel aircraft and engine integrated systemsGu, Weiqun January 2013 (has links)
Today, the air transport industry has become an essential element of global society by its great contributions to the wide exchanges of cultures/people and to the rapid growth in the world economy. However, on the other hand, the adverse impacts on the environment caused by air transport, such as air pollution, noise and climate change, are drawing, increasingly, growing public concern. In order to address the steady growth in air-travel demand in the next decades through an environmentally-friendly way and realise the ACARE 2020 environmental goals, The Clean Sky programme has been launched by European Union over the period 2008 – 2013. The project research, described in this thesis and sponsored by the Clean Sky programme, aims at evaluating the feasibility of reducing the environmental impact of commercial aviation through the introduction of changes in the aircraft operational rules and procedures, as well as the application of the new-generation propfan (open rotor) engine, based on flight trajectory multidisciplinary optimisation and analysis of commercial aircraft. In order to accomplish the above research objectives, a complete methodology to achieve and realise optimum flight trajectories has been initially proposed. Then, 12 component-level models which function as simulating different disciplines, such as aircraft performance, engine performance, engine gaseous emission, and flight noise, have been developed or selected/adopted. Further, nine system-level integration and optimisation models were built. These system-level models simulate flights from Amsterdam Schiphol airport in the Netherlands to Munich airport in Germany flown by different types of aircraft through different flight phases with different optimisation objectives. Finally, detailed investigations into the flight trajectory optimisations were performed, extensive optimisation results were achieved and corresponding description, analysis and comparisons were provided. The main contributions of this work to knowledge broadly comprise the following: 1) the further development regarding the methodology of flight trajectory multidisciplinary optimisation; 2) previous work on aircraft trajectory optimisation has often considered fixed objectives over the complete flight trajectory. This research focused on representative flight phases of a flight mission with different optimisation objectives, namely, noise impact and fuel burn during the departure phase; fuel burn and flight time during en route phase; and noise impact and NOx emission during the arrival phase; 3) this research has extended the current flight trajectory optimisations to turboprop and propfan equipped aircraft. As a result, a relative complete 2D flight trajectory multidisciplinary optimisation spectrum, spanned by primary commercial aircraft types, primary flight phases and primary optimisation objectives of interest, has been built. Although encouraging progress have been achieved, this project research, as with any other research activity, is also only ‘on the way’ rather than coming to the ‘end’ point. There are still many aspects which can be improved further and there is still much new research and exploration which can be investigated further. All these have also been suggested in this thesis.
|
5 |
Assessment of mixing quality in full-scale, biogas-mixed anaerobic digestion using CFDDapelo, Davide, Bridgeman, John 15 June 2018 (has links)
Yes / An Euler-Lagrange CFD model is applied to a full-scale, biogas-mixed anaerobic digester to improve mixing efficiency and improve overall performance. Two quantitative mixing criteria previously adopted in anaerobic digestion (viz., uniformity index and dead volume) are critically assessed for the first time. A novel qualitative method is introduced to clarify the output of the quantitative methods. The first-ever quantitative assessment of mixing quality in full-scale, biogas-mixed anaerobic digestion is then proposed, and a strategy to improve mixing, involving the combined use of concentric nozzle manifolds at the base of the digester, is evaluated. / University of Birmingham (UK) Postgraduate Teaching Assistantship award; University of Bradford (UK) Postdoctoral research assistant contract, who provided financial support
|
6 |
Réseaux domestiques et mobiles : Mesures,analyses, et modèlesReggani, Ahlem 07 January 2014 (has links) (PDF)
Cette thèse est structurée autour de contributions dans les domaines des réseaux domestiques et mobiles. Dans le contexte des réseaux domestiques, nous nous occupons à la fois de la caractérisation du trafic et de la dégradation des performances des applications. Dans le cas des réseaux mobiles, nous sommes intéressés par comprendre la relation entre la technologie sans fil et les opportunités de contact entre les nœuds mobiles. Nous résumons les principales contributions de cette thèse dans ce qui suit. Partie I (Optimisation des performances des applications dans les réseaux domestiques). L?augmentation du taux d'accès à Internet à la maison conduit à plus de populations avec des réseaux domestiques. Un réseau domestique connecte plusieurs appareils à l'internet permettant aux différents membres d'un ménage de partager l'accès à Internet et aux ressources du réseau local. Par conséquent, les applications fonctionnant en parallèle peuvent interférer les unes avec les autres. Par exemple, les enfants peuvent jouer à des jeux en ligne ralentissant la navigation sur le web de leurs parents. Le premier objectif de cette thèse est de contrôler l'utilisation des ressources du réseau domestique afin d'optimiser la performance des applications concurrentes. La passerelle domestique est responsable de la connexion du réseau domestique au reste de l'Internet. Parce que la passerelle a une vue d'ensemble de tout le trafic en provenance et vers le réseau domestique, elle est le point de départ idéal pour l'optimisation des applications. Dans cette thèse, nous proposons un système qui fonctionne sur la passerelle domestique pour détecter des dégradations de performances et optimiser l'allocation des ressources pour obtenir les meilleures performances des applications. En même temps, les passerelles résidentielles classiques ne comportent aucun mécanisme pour garantir une performance optimale aux applications. Une autre contribution de cette thèse est donc de proposer une approche d'optimisation des performances des applications pour les réseaux domestiques. En particulier, nous étudions la faisabilité du suivi des performances des applications sur les passerelles résidentielles. Nous montrons que, bien que la passerelle domestique a des ressources limitées, elle a encore la capacité de faire plus que simplement la transmission des paquets. Elle peut recueillir et exporter toutes les informations nécessaires pour effectuer notre méthode d'optimisation des performances. Partie II (Reproduction de traces de mobilité). La meilleure façon d'analyser ou de valider un protocole ou même le choix de conception dans les réseaux tolérants aux perturbations est à travers un déploiement réel. Néanmoins, en raison des difficultés de mise en œuvre et même de coûts financiers, I seulement quelques expérimentations ont été rapportées dans la littérature. En conséquence, plusieurs travaux s'appuient toujours sur des modèles de mobilité synthétiques. Alors que les modèles de mobilité synthétiques sont utiles pour isoler les paramètres spécifiques d'une solution ou aider à enquêter sur l'évolutivité d'un système, ils ne peuvent pas toujours refléter les conditions réelles. D'autre part, les traces de contact sont connues pour mieux représenter la mobilité de la vie réelle, mais aussi d'être difficile à obtenir. Et si une trace réelle était suffisante pour obtenir plusieurs autres, comme si nous avions effectué plusieurs expérimentations ? à cette fin, nous nous appuyons sur la mobilité plausible, un algorithme capable d'inférer un mouvement spatial à partir de traces de contact et nous proposons un système de reproduction de traces de mobilité qui, à partir d'une unique trace de contact réelle, offre de multiples traces de contact inspirées de la trace originale.
|
7 |
Extraction and traceability of annotations for WCET estimation / Extraction et traçabilité d’annotations pour l’estimation de WCETLi, Hanbing 09 October 2015 (has links)
Les systèmes temps-réel devenaient omniprésents, et jouent un rôle important dans notre vie quotidienne. Pour les systèmes temps-réel dur, calculer des résultats corrects n’est pas la seule exigence, il doivent de surcroît être produits dans un intervalle de temps borné. Connaître le pire cas de temps d’exécution (WCET - Worst Case Execution Time) est nécessaire, et garantit que le système répond à ses contraintes de temps. Pour obtenir des estimations de WCET précises, des annotations sont nécessaires. Ces annotations sont généralement ajoutées au niveau du code source, tandis que l’analyse de WCET est effectuée au niveau du code binaire. L’optimisation du compilateur est entre ces deux niveaux et a un effet sur la structure du code et annotations. Nous proposons dans cette thèse une infrastructure logicielle de transformation, qui pour chaque optimisation transforme les annotations du code source au code binaire. Cette infrastructure est capable de transformer les annotations sans perte d’information de flot. Nous avons choisi LLVM comme compilateur pour mettre en œuvre notre infrastructure. Et nous avons utilisé les jeux de test Mälardalen, TSVC et gcc-loop pour démontrer l’impact de notre infrastructure sur les optimisations du compilateur et la transformation d’annotations. Les résultats expérimentaux montrent que de nombreuses optimisations peuvent être activées avec notre système. Le nouveau WCET estimé est meilleur (plus faible) que l’original. Nous montrons également que les optimisations du compilateur sont bénéfiques pour les systèmes temps-réel. / Real-time systems have become ubiquitous, and play an important role in our everyday life. For hard real-time systems, computing correct results is not the only requirement. In addition, the worst-case execution times (WCET) are needed, and guarantee that they meet the required timing constraints. For tight WCET estimation, annotations are required. Annotations are usually added at source code level but WCET analysis is performed at binary code level. Compiler optimization is between these two levels and has an effect on the structure of the code and annotations.We propose a transformation framework for each optimization to trace the annotation information from source code level to binary code level. The framework can transform the annotations without loss of flow information. We choose LLVM as the compiler to implement our framework. And we use the Mälardalen, TSVC and gcc-loops benchmarks to demonstrate the impact of our framework on compiler optimizations and annotation transformation. The experimental results show that with our framework, many optimizations can be turned on, and we can still estimate WCET safely. The estimated WCET is better than the original one. We also show that compiler optimizations are beneficial for real-time systems.
|
8 |
Réseaux domestiques et mobiles : Mesures,analyses, et modèles / Domestic and mobile networks Measurements,analyses, and patternsReggani, Ahlem 07 January 2014 (has links)
Cette thèse est structurée autour de contributions dans les domaines des réseaux domestiques et mobiles. Dans le contexte des réseaux domestiques, nous nous occupons à la fois de la caractérisation du trafic et de la dégradation des performances des applications. Dans le cas des réseaux mobiles, nous sommes intéressés par comprendre la relation entre la technologie sans fil et les opportunités de contact entre les nœuds mobiles. Nous résumons les principales contributions de cette thèse dans ce qui suit. Partie I (Optimisation des performances des applications dans les réseaux domestiques). L?augmentation du taux d'accès à Internet à la maison conduit à plus de populations avec des réseaux domestiques. Un réseau domestique connecte plusieurs appareils à l'internet permettant aux différents membres d'un ménage de partager l'accès à Internet et aux ressources du réseau local. Par conséquent, les applications fonctionnant en parallèle peuvent interférer les unes avec les autres. Par exemple, les enfants peuvent jouer à des jeux en ligne ralentissant la navigation sur le web de leurs parents. Le premier objectif de cette thèse est de contrôler l'utilisation des ressources du réseau domestique afin d'optimiser la performance des applications concurrentes. La passerelle domestique est responsable de la connexion du réseau domestique au reste de l'Internet. Parce que la passerelle a une vue d'ensemble de tout le trafic en provenance et vers le réseau domestique, elle est le point de départ idéal pour l'optimisation des applications. Dans cette thèse, nous proposons un système qui fonctionne sur la passerelle domestique pour détecter des dégradations de performances et optimiser l'allocation des ressources pour obtenir les meilleures performances des applications. En même temps, les passerelles résidentielles classiques ne comportent aucun mécanisme pour garantir une performance optimale aux applications. Une autre contribution de cette thèse est donc de proposer une approche d'optimisation des performances des applications pour les réseaux domestiques. En particulier, nous étudions la faisabilité du suivi des performances des applications sur les passerelles résidentielles. Nous montrons que, bien que la passerelle domestique a des ressources limitées, elle a encore la capacité de faire plus que simplement la transmission des paquets. Elle peut recueillir et exporter toutes les informations nécessaires pour effectuer notre méthode d'optimisation des performances. Partie II (Reproduction de traces de mobilité). La meilleure façon d'analyser ou de valider un protocole ou même le choix de conception dans les réseaux tolérants aux perturbations est à travers un déploiement réel. Néanmoins, en raison des difficultés de mise en œuvre et même de coûts financiers, I seulement quelques expérimentations ont été rapportées dans la littérature. En conséquence, plusieurs travaux s'appuient toujours sur des modèles de mobilité synthétiques. Alors que les modèles de mobilité synthétiques sont utiles pour isoler les paramètres spécifiques d'une solution ou aider à enquêter sur l'évolutivité d'un système, ils ne peuvent pas toujours refléter les conditions réelles. D'autre part, les traces de contact sont connues pour mieux représenter la mobilité de la vie réelle, mais aussi d'être difficile à obtenir. Et si une trace réelle était suffisante pour obtenir plusieurs autres, comme si nous avions effectué plusieurs expérimentations ? à cette fin, nous nous appuyons sur la mobilité plausible, un algorithme capable d'inférer un mouvement spatial à partir de traces de contact et nous proposons un système de reproduction de traces de mobilité qui, à partir d'une unique trace de contact réelle, offre de multiples traces de contact inspirées de la trace originale. / This thesis is structured around contributions in the areas of domestic and mobile networks. In the context of home networks, we deal with both home traffic characterization and application performance degradation. In the case of mobile networks, we are interested in understanding the relationship between wireless technology and contact opportunities among nodes on the move.
|
9 |
Data management in forecasting systems : optimization and maintenance / Gestion des données dans les systèmes prévisionnels : optimisation et maintenanceFeng, Haitang 17 October 2012 (has links)
Les systèmes prévisionnels reposent généralemnt sur des entrepôts de données pour le stockage et sur les outils OLAP pour la visualisation. Des données prédictives agrégées pourraient être modifiées. Par conséquent, la problématique derecherche peut être décrite comme la propagation d'une modification faite sur un agrégat à travers des hiérachies et des dimensions dans un environnement d'entrepôt de données. Il existe un grand nombre de travaux de recherche sur les problèmes de maintenance de vues. Cependant, à notre connaissance, l'impact de la mise à jour interactive d'un agrégat sur les données de base n'a pas été exploré. Cette thèse CIFRE est soutenue par l'ANRT et l'entreprise Anticipeo. L'application Anticipeo est un système prévisionnel de ventes, qui prédit des ventes. Elle était précise avec des résultats de la prédiction, mais le temps de réponse était un problème. Cette thèse comporte deux parties. La première partie est d'identifier la provenance de la latence. Nous avons proposé une méthodologie s'appuyant sur différentes approches et techniques pour améliorer les performances d'une application. Cependant, la propagation d'une modification effectuée sur une agrégat dans un entrpôt de données ne pouvait pas être résolue par ces biais techniques. La deuxième partie du travail consiste en la proposition d'un nouvel algorithme (PAM - Propagation de modification basée sur une agrégat) avec une version étendue (PAM II) pour cette situation. Les algorithmes identifient et mettent àjour les ensembles exactes de données sources et d'aurtes agrégats influencés par la modification d'agrégat. La version optimisées PAM II réalise une meilleure performance par rapport à PAM quand l'utilisation d'une sémantique supplémentaire (par exemple, les dépendances) est possible. Les expériences sur des données réelles d'Anticipeo ont montré que l'algorithme PAM et son extension apportent de meilleures performances dans la propagation des mises à jour. / Forecasting systems are usually based on data warehouses for data strorage, and OLAP tools for historical and predictive data visualization. Aggregated predictive data could be modified. Hence, the research issue can be described as the propagation of an aggregate-based modification in hirarchies and dimensions in a data warehouse enironment. Ther exists a great number of research works on related view maintenance problems. However, to our knowledge, the impact of interactive aggregate modifications on raw data was not investigated. This CIFRE thesis is supported by ANRT and the company Anticipeo. The application of Anticipeo is a sales forecasting system that predicts future sales in order to draw appropriate business strategy in advance. By the beginning of the thesis, the customers of Anticipeo were satisfied the precision of the prediction results, but not with the response time. The work of this thesis can be generalized into two parts. The first part consists in au audit on the existing application. We proposed a methodology relying on different technical solutions. It concerns the propagation of an aggregate-based modification in a data warehouse. the second part of our work consists in the proposition of a newx allgorithms (PAM - Propagation of Aggregated-baseed Modification) with an extended version (PAM II) to efficiently propagate in aggregate-based modification. The algorithms identify and update the exact sets of source data anf other aggregated impacted by the aggregated modification. The optimized PAM II version archieves better performance compared to PAM when the use of additional semantics (e.g. dependencies) is possible. The experiments on real data of Anticipeo proved that the PAM algorithm and its extension bring better perfiormance when a backward propagation.
|
10 |
Optimisation et évaluation de performance pour l'aide à la conception et à l'administration des entrepôts de données complexesDarmont, Jérôme 23 November 2006 (has links) (PDF)
Les entrepôts de données forment le socle des systèmes décisionnels. Ils permettent d'intégrer les données de production d'une entreprise ou d'un organisme et sont le support de l'analyse multidimensionnelle en ligne (OLAP) ou de la fouille de données. Avec l'exploitation de plus en plus courante de données complexes dans le cadre des processus décisionnels, de nouvelles approches d'entreposage, qui exploitent notamment le langage XML, sont développées. Dans ce contexte, le problème de la performance des entrepôts de données demeure plus que jamais un enjeu crucial.<br /><br />Le travail présenté dans ce mémoire vise à proposer des solutions innovantes au niveau de l'optimisation et de l'évaluation des performances des entrepôts de données. Nous avons en effet conçu une approche générique dont l'objectif est de proposer automatiquement à l'administrateur d'un entrepôt des solutions permettant d'optimiser les temps d'accès aux données. Le principe de cette approche est d'appliquer des techniques de fouille de données sur une charge (ensemble de requêtes) représentative de l'utilisation de l'entrepôt de données afin de déduire une configuration quasi-optimale d'index et/ou de vues matérialisées. Des modèles de coût permettent ensuite de sélectionner parmi ces structures de données les plus efficaces en terme de rapport gain de performance/surcharge.<br /><br />Par ailleurs, l'évaluation de performance peut venir en appui de la conception des entrepôts de données. Ainsi, afin de valider notre approche de manière expérimentale, nous avons également conçu plusieurs bancs d'essais génériques. Le principe directeur qui a présidé à leur élaboration est l'adaptabilité. En effet, pour comparer l'efficacité de différentes techniques d'optimisation des performances, il est nécessaire de les tester dans différents environnements, sur différentes configurations de bases de données et de charges, etc. La possibilité d'évaluer l'impact de différents choix d'architecture est aussi une aide appréciable dans la conception des entrepôts de données. Nos bancs d'essais permettent donc de générer diverses configurations d'entrepôts de données, ainsi que des charges décisionnelles qui s'y appliquent.<br /><br />Finalement, nos solutions d'optimisation et d'évaluation des performances ont été mises en oeuvre dans les contextes des entrepôts de données relationnels et XML.
|
Page generated in 0.1445 seconds