• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 15
  • 3
  • Tagged with
  • 38
  • 38
  • 21
  • 20
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • 7
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Passage à l'échelle pour la visualisation interactive exploratoire de données : approches par abstraction et par déformation spatiale / Addressing scaling challenges in interactive exploratory visualization with abstraction and spatial distortion

Richer, Gaëlle 26 November 2019 (has links)
La visualisation interactive est un outil essentiel pour l'exploration, la compréhension et l'analyse de données. L'exploration interactive efficace de jeux de données grands ou complexes présente cependant deux difficultés fondamentales. La première est visuelle et concerne les limitations de la perception et cognition humaine, ainsi que celles des écrans. La seconde est computationnelle et concerne les limitations de capacité mémoire ou de traitement des machines standards. Dans cette thèse, nous nous intéressons aux techniques de passage à l'échelle relativement à ces deux difficultés, pour plusieurs contextes d'application.Pour le passage à l'échelle visuelle, nous présentons une approche versatile de mise en évidence de sous-ensembles d'éléments par déformation spatiale appliquée aux vues multiples et une représentation abstraite et multi-/échelle de coordonnées parallèles. Sur les vues multiples, la déformation spatiale vise à remédier à la diminution de l'efficacité de la surbrillance lorsque les éléments graphiques sont de taille réduite. Sur les coordonnées parallèles, l'abstraction multi-échelle consiste à simplifier la représentation tout en permettant d'accéder interactivement au détail des données, en les pré-agrégeant à plusieurs niveaux de détail.Pour le passage à l'échelle computationnelle, nous étudions des approches de pré-calcul et de calcul à la volée sur des infrastructures distribuées permettant l'exploration de jeux de données de plus d'un milliard d'éléments en temps interactif. Nous présentons un système pour l'exploration de données multi-dimensionnelles dont les interactions et l'abstraction respectent un budget en nombre d'éléments graphiques qui, en retour, fournit une borne théorique sur les latences d'interactions dues au transfert réseau entre client et serveur. Avec le même objectif, nous comparons des stratégies de réduction de données géométrique pour la reconstruction de cartes de densité d'ensembles de points. / Interactive visualization is helpful for exploring, understanding, and analyzing data. However, increasingly large and complex data challenges the efficiency of visualization systems, both visually and computationally. The visual challenge stems from human perceptual and cognitive limitations as well as screen space limitations while the computational challenge stems from the processing and memory limitations of standard computers.In this thesis, we present techniques addressing the two scalability issues for several interactive visualization applications.To address visual scalability requirements, we present a versatile spatial-distortion approach for linked emphasis on multiple views and an abstract and multi-scale representation based on parallel coordinates. Spatial distortion aims at alleviating the weakened emphasis effect of highlighting when applied to small-sized visual elements. Multiscale abstraction simplifies the representation while providing detail on demand by pre-aggregating data at several levels of detail.To address computational scalability requirements and scale data processing to billions of items in interactive times, we use pre-computation and real-time computation on a remote distributed infrastructure. We present a system for multi-/dimensional data exploration in which the interactions and abstract representation comply with a visual item budget and in return provides a guarantee on network-related interaction latencies. With the same goal, we compared several geometric reduction strategies for the reconstruction of density maps of large-scale point sets.
32

Le maintien de la cohérence dans les systèmes de stockage partiellement repliqués / Ensuring consistency in partially replicated data stores

Saeida Ardekani, Masoud 16 September 2014 (has links)
Dans une première partie, nous étudions la cohérence dans les systèmes transactionnels, en nous concentrant sur le problème de réconcilier la scalabilité avec des garanties transactionnelles fortes. Nous identifions quatre propriétés critiques pour la scalabilité. Nous montrons qu’aucun des critères de cohérence forte existants n’assurent l’ensemble de ces propriétés. Nous définissons un nouveau critère, appelé Non-Monotonic Snapshot Isolation ou NMSI, qui est le premier à être compatible avec les quatre propriétés à la fois. Nous présentons aussi une mise en œuvre de NMSI, appelée Jessy, que nous comparons expérimentalement à plusieurs critères connus. Une autre contribution est un canevas permettant de comparer de façon non biaisée différents protocoles. Elle se base sur la constatation qu’une large classe de protocoles transactionnels distribués est basée sur une même structure, Deferred Update Replication(DUR). Les protocoles de cette classe ne diffèrent que par les comportements spécifiques d’un petit nombre de fonctions génériques. Nous présentons donc un canevas générique pour les protocoles DUR.La seconde partie de la thèse a pour sujet la cohérence dans les systèmes de stockage non transactionnels. C’est ainsi que nous décrivons Tuba, un stockage clef-valeur qui choisit dynamiquement ses répliques selon un objectif de niveau de cohérence fixé par l’application. Ce système reconfigure automatiquement son ensemble de répliques, tout en respectant les objectifs de cohérence fixés par l’application, afin de s’adapter aux changements dans la localisation des clients ou dans le débit des requête. / In the first part, we study consistency in a transactional systems, and focus on reconciling scalability with strong transactional guarantees. We identify four scalability properties, and show that none of the strong consistency criteria ensure all four. We define a new scalable consistency criterion called Non-Monotonic Snapshot Isolation (NMSI), while is the first that is compatible with all four properties. We also present a practical implementation of NMSI, called Jessy, which we compare experimentally against a number of well-known criteria. We also introduce a framework for performing fair comparison among different transactional protocols. Our insight is that a large family of distributed transactional protocols have a common structure, called Deferred Update Replication (DUR). Protocols of the DUR family differ only in behaviors of few generic functions. We present a generic DUR framework, called G-DUR. We implement and compare several transactional protocols using the G-DUR framework.In the second part, we focus on ensuring consistency in non-transactional data stores. We introduce Tuba, a replicated key-value store that dynamically selects replicas in order to maximize the utility delivered to read operations according to a desired consistency defined by the application. In addition, unlike current systems, it automatically reconfigures its set of replicas while respecting application-defined constraints so that it adapts to changes in clients’ locations or request rates. Compared with a system that is statically configured, our evaluation shows that Tuba increases the reads that return strongly consistent data by 63%.
33

Garbage collector for memory intensive applications on NUMA architectures / Ramasse-miette pour les applications avec forte utilisation de la mémoire sur architectures NUMA

Gidra, Lokesh 28 September 2015 (has links)
Afin de maximiser la localité des accès mémoire pendant la phase de collection, un thread GC évite d’accéder un autre noeud mémoire en notifiant à la place un thread GC distant avec un message. Néanmoins, NumaGiC évite les inconvénients d’un design complètement distribué qui tend à diminuer le parallélisme et augmenter le déséquilibre des accès mémoire en permettant aux threads de voler depuis les autres noeuds quand ceux-ci sont inactifs. NumaGiC fait son possible pour trouver un équilibre parfait entre les accès distant, le déséquilibre des accès mémoire et le parallélisme. Dans ce travail, nous comparons NumaGiC avec Parallel Scavenge et certaines de ses variantes améliorées de façon incrémentale sur deux architectures ccNUMA en utilisant la machine virtuelle Hotspot d’OpenJDK 7. Sur Spark et Neo4j, deux applications d’informatique décisionnelle de niveau industriel, avec une taille de tas allant de 160 GB à 350 GB, et sur SPECjbb2013 et SPECjbb2005, NumaGiC améliore la performance globale jusqu’à 94% par rapport à Parallel Scavenge et améliore la performance du collecteur lui-même jusqu’à 5,4times par rapport à Parallel Scavenge. En terme de passage à l’échelle du débit du GC en augmentant le nombre de noeuds NUMA, NumaGiC passe à l’échelle beaucoup mieux qu’avec Parallel Scavenge pour toutes les applications. Dans le cas de SPECjbb2005, où les références inter-objets sont les moins nombreuses parmi toutes les applications, NumaGiC passe à l’échelle quasiment linéairement. / Large-scale multicore architectures create new challenges for garbage collectors (GCs). On con-temporary cache-coherent Non-Uniform Memory Access (ccNUMA) architectures, applications with a large memory footprint suffer from the cost of the garbage collector (GC), because, as the GC scans the reference graph, it makes many remote memory accesses, saturating the interconnect between memory nodes. In this thesis, we address this problem with NumaGiC, a GC with a mostly-distributed design. In order to maximise memory access locality during collection, a GC thread avoids accessing a different memory node, instead notifying a remote GC thread with a message; nonetheless, NumaGiC avoids the drawbacks of a pure distributed design, which tends to decrease parallelism and increase memory access imbalance, by allowing threads to steal from other nodes when they are idle. NumaGiC strives to find a perfect balance between local access, memory access balance, and parallelism. In this work, we compare NumaGiC with Parallel Scavenge and some of its incrementally improved variants on two different ccNUMA architectures running on the Hotspot Java Virtual Machine of OpenJDK 7. On Spark and Neo4j, two industry-strength analytics applications, with heap sizes ranging from 160 GB to 350 GB, and on SPECjbb2013 and SPECjbb2005, NumaGiC improves overall performance by up to 94% over Parallel Scavenge, and increases the performance of the collector itself by up to 5.4× over Parallel Scavenge. In terms of scalability of GC throughput with increasing number of NUMA nodes, NumaGiC scales substantially better than Parallel Scavenge for all the applications. In fact in case of SPECjbb2005, where inter-node object references are the least among all, NumaGiC scales almost linearly.
34

Scalable Trajectory Approach for ensuring deterministic guarantees in large networks / Passage à l'échelle de l'approche par trajectoire dans de larges réseaux

Medlej, Sara 26 September 2013 (has links)
Tout comportement défectueux d’un système temps-réel critique, comme celui utilisé dans le réseau avionique ou le secteur nucléaire, peut mettre en danger des vies. Par conséquent, la vérification et validation de ces systèmes est indispensable avant leurs déploiements. En fait, les autorités de sécurité demandent d’assurer des garanties déterministes. Dans cette thèse, nous nous intéressons à obtenir des garanties temporelles, en particulier nous avons besoin de prouver que le temps de réponse de bout-en-bout de chaque flux présent dans le réseau est borné. Ce sujet a été abordé durant de nombreuses années et plusieurs approches ont été développées. Après une brève comparaison entre les différentes approches existantes, une semble être un bon candidat. Elle s’appelle l’approche par trajectoire; cette méthode utilise les résultats établis par la théorie de l'ordonnancement afin de calculer une limite supérieure. En réalité, la surestimation de la borne calculée peut entrainer la rejection de certification du réseau. Ainsi une première partie du travail consiste à détecter les sources de pessimisme de l’approche adoptée. Dans le cadre d’un ordonnancement FIFO, les termes ajoutant du pessimisme à la borne calculée ont été identifiés. Cependant, comme les autres méthodes, l’approche par trajectoire souffre du problème de passage à l’échelle. En fait, l’approche doit être appliquée sur un réseau composé d’une centaine de commutateur et d’un nombre de flux qui dépasse les milliers. Ainsi, il est important qu’elle soit en mesure d'offrir des résultats dans un délai acceptable. La première étape consiste à identifier, dans le cas d’un ordonnancement FIFO, les termes conduisant à un temps de calcul important. L'analyse montre que la complexité du calcul est due à un processus récursif et itératif. Ensuite, en se basant toujours sur l’approche par trajectoire, nous proposons de calculer une limite supérieure dans un intervalle de temps réduit et sans perte significative de précision. C'est ce qu'on appelle l'approche par trajectoire scalable. Un outil a été développé permettant de comparer les résultats obtenus par l’approche par trajectoire et notre proposition. Après application sur un réseau de taille réduite (composé de 10 commutateurs), les résultats de simulations montrent que la durée totale nécessaire pour calculer les bornes des milles flux a été réduite de plusieurs jours à une dizaine de secondes. / In critical real-time systems, any faulty behavior may endanger lives. Hence, system verification and validation is essential before their deployment. In fact, safety authorities ask to ensure deterministic guarantees. In this thesis, we are interested in offering temporal guarantees; in particular we need to prove that the end-to-end response time of every flow present in the network is bounded. This subject has been addressed for many years and several approaches have been developed. After a brief comparison between the existing approaches, the Trajectory Approach sounded like a good candidate due to the tightness of its offered bound. This method uses results established by the scheduling theory to derive an upper bound. The reasons leading to a pessimistic upper bound are investigated. Moreover, since the method must be applied on large networks, it is important to be able to give results in an acceptable time frame. Hence, a study of the method’s scalability was carried out. Analysis shows that the complexity of the computation is due to a recursive and iterative processes. As the number of flows and switches increase, the total runtime required to compute the upper bound of every flow present in the network understudy grows rapidly. While based on the concept of the Trajectory Approach, we propose to compute an upper bound in a reduced time frame and without significant loss in its precision. It is called the Scalable Trajectory Approach. After applying it to a network, simulation results show that the total runtime was reduced from several days to a dozen seconds.
35

Passage à l'échelle pour les contraintes d'ordonnancement multi-ressources

Letort, Arnaud 28 October 2013 (has links) (PDF)
La programmation par contraintes est une approche régulièrement utilisée pour résoudre des problèmes combinatoires d'origines diverses. Dans cette thèse nous nous focalisons sur les problèmes d'ordonnancement cumulatif. Un problème d'ordonnancement consiste à déterminer les dates de débuts et de fins d'un ensemble de tâches, tout en respectant certaines contraintes de capacité et de précédence. Les contraintes de capacité concernent aussi bien des contraintes cumulatives classiques où l'on restreint la somme des hauteurs des tâches intersectant un instant donné, que des contraintes cumulatives colorées où l'on restreint le nombre maximum de couleurs distinctes prises par les tâches. Un des objectifs récemment identifiés pour la programmation par contraintes est de traiter des problèmes de grandes tailles, habituellement résolus à l'aide d'algorithmes dédiés et de métaheuristiques. Par exemple, l'utilisation croissante de centres de données virtualisés laisse apparaitre des problèmes d'ordonnancement et de placement multi-dimensionnels de plusieurs milliers de tâches. Pour atteindre cet objectif, nous utilisons l'idée de balayage synchronisé considérant simultanément une conjonction de contraintes cumulative et des précédences, ce qui nous permet d'accélérer la convergence au point fixe. De plus, de ces algorithmes de filtrage nous dérivons des procédures gloutonnes qui peuvent être appe- lées à chaque noeud de l'arbre de recherche pour tenter de trouver plus rapidement une solution au problème. Cette approche permet de traiter des problèmes impliquant plus d'un million de tâches et 64 resources cumulatives. Ces algorithmes ont été implémentés dans les solveurs de contraintes Choco et SICStus, et évalués sur divers problèmes de placement et d'ordonnancement.
36

Conception et évaluation d'un modèle adaptatif pour la qualité de service dans les réseaux MPLS / Conception and evaluation of an adaptive model for the quality of service in the MPLS networks

Abboud, Khodor 20 December 2010 (has links)
L'objectif de ce travail de thèse dans un premier temps est l'évaluation de performances des modèles de routage multi-chemins pour l'ingénierie de trafic et l'équilibrage de charge sur un réseau de type IP/MPLS (MPLS-TE). Nous comparons la capacité de ces modèles à équilibrer la charge du réseau tout en faisant de la différentiation de trafic. Nous les appliquons sur des grandes topologies générées par le générateur automatique des topologies BRITE, qui s'approchent en forme et en complexité du réseau réel. Nous mesurons ainsi l'impact de leur complexité respective et donc la capacité à les déployer sur des réseaux de grande taille (scalabilité). Dans un second temps, l'objectif est de proposer un concept de modélisation générale d'un réseau à commutations par paquets. Ce modèle est établi sur la base de la théorie différentielle de trafic et la théorie des files d'attente, tout en utilisant des approches graphiques. Le but est d'estimer l'état de charge du réseau et de ses composants (routeurs, liens, chemins). Ensuite, en fonction de ça, nous développons des approches de contrôle de congestion et commande sur l'entrée améliorant les techniques de routage adaptatif et l'équilibrage de charge dans les réseaux IP/MPLS / In This work, firstly we present and evaluate the behavior of multipath routing models for the DS-TE (DiffSev aware MPLS traffic Engineering) called PEMS and LBWDP. To clarify network topologies and routing models that are suitable for MPLS Traffic Engineering, we evaluate them from the viewpoint of network scalability and end-to-end quality. Using a network topology generated by BRITE, that has many alternative paths, we applied these models on a huge topology that correspond to real network. This can provide a real simulation for the internet and gives a good evaluation for the end-to-end quality and the network use.Secondly, the aim of this work is to propose a general model for Packet switching networks. This model is established on the traffic differential theory and the Queuing theory, while using graphic approaches. The aim of this model is to calculate the network use state and its components (router, link, path...). Then, we develop control and command approaches in the entry of network to improve an adaptive routing plan and load balancing in IP/MPLS networks
37

Simulation crédible des déplacements de piétons en temps réel : modèle microscopique à influence macroscopique

Simo Kanmeugne, Patrick 11 July 2014 (has links) (PDF)
Cette thèse s'inscrit dans le cadre d'un projet de recherche et de développement qui vise à mettre en place des technologies de simulation permettant de reproduire des comportements humains dans une ville. L'objectif de nos travaux est de définir des algorithmes permettant de simuler les déplacements d'une grande quantité de piétons dans un environnement urbain, en temps réel, et de manière crédible. Pour ce type d'exercice, plusieurs solutions existent. Ces solutions sont principalement développées à partir de deux types d'approches : les approches microscopiques, où les piétons sont modélisés comme des agents autonomes, et les approches macroscopiques, où les piétons sont considérés comme soumis à des lois d'écoulement continues ou discrètes. Notre position est que ces deux approches ne s'opposent pas, contrairement à ce qui ressort de la pratique courante, mais se complètent mutuellement. Privilégier l'une au détriment de l'autre fait courir le risque de produire des solutions partiellement satisfaisantes. Aussi nous sommes nous proposés de clarifier le cadre formel permettant d'appréhender la complexité des déplacements. En ligne avec plusieurs études statistiques et psychologiques sur le déplacement des piétons, nous explicitons un déplacement crédible comme un déplacement économe en énergie métabolique. Nous nous inspirons des jeux de congestion et du paradigme multi-agent pour proposer une formulation générique du problème de déplacement des piétons : nous introduisons la notion de ressources de navigation, que nous décrivons comme des régions de l'espace que les agents utilisent pour atteindre leurs destinations, et via lesquelles les agents interagissent pour estimer leurs dépenses énergétiques de manière robuste. Nous proposons une stratégie de déplacement basée sur les heuristiques taboues et nous considérons le principe influence et réaction pour implémenter les actions de déplacements. Le concept d'environnement issu du paradigme multi-agent s'avère particulièrement utile pour appréhender la complexité de la simulation. L'environnement est considéré comme un composant indépendant et ontologiquement différent des agents qui est pris en compte à tous les niveaux de décisions. Une importante partie de la dynamique de la simulation peut ainsi être déléguée à l'environnement sans altérer l'autonomie des agents. Cette séparation favorise à la fois la crédibilité des résultats et le passage à l'échelle. Nous avons choisi de comparer notre proposition avec un modèle microscopique standard à travers plusieurs scénarios de simulation. Il ressort de notre comparaison que notre modèle permet de reproduire des résultats plus crédibles du point de vue d'un observateur extérieur et plus proches des études empiriques connues sur les déplacements des piétons.
38

La césarienne de qualité au Burkina Faso: comment penser et agir au delà de l'acte technique

Richard, Fabienne 02 May 2012 (has links)
La césarienne est une intervention obstétricale majeure qui peut sauver la vie de la mère et de l’enfant. En Afrique sub-saharienne, il persiste une grande inégalité d’accès à la césarienne et une grande variation des pratiques autour des indications d’intervention. D’un côté, des barrières financières, géographiques, culturelles privent des femmes d’une intervention qui peut sauver leur vie. De l’autre, la pratique grandissante de césariennes sans indication médicale, dans un contexte de mauvaise qualité de soins, entraine une sur-morbidité et mortalité iatrogènes et évitables. <p>L’objectif de notre thèse est de contribuer à une meilleure connaissance des déterminants d’une césarienne de qualité et de montrer comment en situation réelle (cas d’un district urbain au Burkina Faso) on peut agir sur ces déterminants pour améliorer la qualité des césariennes.<p>Dans le cadre d’un projet multidisciplinaire (santé publique, mobilisation politique et sociale, anthropologie) d’Amélioration de la QUalité et de l’Accès aux Soins Obstétricaux d’Urgence - le projet AQUASOU (2003-2006) - nous avons pu mettre en œuvre des activités visant à améliorer l’accès à une césarienne de qualité dans le district du Secteur 30) à Ouagadougou, Burkina Faso. Nous avons mené une étude Avant-Après et utilisé des méthodes d’évaluation mixtes quantitatives et qualitatives pour comprendre dans quelle mesure et comment ce type d’approche globale améliore la qualité de la césarienne. Nous avons utilisé le cadre d’analyse de Dujardin et Delvaux (1998) qui présente les différents déterminants de la césarienne pour organiser et structurer nos résultats. Cette expérience s’étant déroulée dans le cadre d’un projet pilote nous avons également évalué le degré de pérennité du projet AQUASOU quatre ans après sa clôture officielle et analysé sa diffusion au niveau région et national.<p>Le cadre d’analyse de la césarienne de qualité avec ses quatre piliers (Accès, Diagnostic, Procédure, Soins postopératoires) a permis d’aller au-delà de la simple évaluation de la qualité technique de l’acte césarienne. Il a structuré l’analyse des différentes barrières à l’accès à la césarienne comme par exemple l’acceptabilité des services par la population et le coût de la prise en charge. <p>L’analyse des discours des femmes césarisées a mis en lumière le sentiment de culpabilité des femmes d’avoir eu une césarienne - ne pas avoir été « une bonne mère » capable d’accoucher normalement. Les questionnements sur la récurrence de la césarienne pour les prochaines grossesses, les dépenses élevées à la charge du ménage, la fatigue physique et les complications médicales possibles après l’opération mettent la femme dans une situation de vulnérabilités plurielles au sein de son couple et de sa famille.<p>L’évaluation du système de partage des coûts pour les urgences obstétricales mis en place en 2005 dans le district du Secteur 30 a montré qu’il était possible de mobiliser les collectivités locales de la ville et des communes rurales pour la santé des femmes. La levée des barrières financières a pu bénéficier à la fois aux femmes du milieu urbain et rural mais l’écart d’utilisation des services entre le milieu de résidence n’a pas été comblé et cela confirme l’importance des barrières géographiques (distance, route impraticable pendant la saison des pluies, manque de moyen de transport) et socioculturelles.<p>L’étude sur le rôle des audits cliniques ou revues de cas dans l’amélioration de la qualité des soins a montré que les soignants avaient une bonne connaissance du but de l'audit et qu’ils classaient l'audit comme le premier facteur de changement dans leur pratique, comparé aux staffs matinaux, aux formations et aux guides cliniques. Cependant, l’institutionnalisation des audits se révèle difficile dans un contexte de manque de ressources qui affecte les conditions de travail et dans un environnement peu favorable à la remise en question de sa pratique professionnelle.<p>L’évaluation de la pérennité du projet pilote quatre ans après la fin du soutien financier et technique montre que les bénéfices pour la population sont toujours là en terme d’accessibilité à la césarienne :coûts directs pour les ménages de 5000 FCFA (US $ 9.8), qualité des soins maintenue avec une diminution de la mortalité périnatale précoce pour les accouchements par césarienne de 3,6% en 2004 à 1,8% en 2008.<p> \ / Doctorat en Sciences de la santé publique / info:eu-repo/semantics/nonPublished

Page generated in 0.0753 seconds