• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 324
  • 123
  • 25
  • 23
  • 8
  • 8
  • 4
  • 4
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 509
  • 136
  • 121
  • 118
  • 79
  • 75
  • 71
  • 66
  • 50
  • 46
  • 41
  • 41
  • 39
  • 39
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Environnements de visualisation pour l'évaluation des performances des systèmes parallèles : étude, conception et réalisation

Arrouye, Yves 01 November 1995 (has links) (PDF)
Les applications parallèles sont de plus en plus complexes et, même si les environnements de développement s'améliorent, de plus en plus difficiles à mettre au point que ce soit du point de vue de leur correction ou, dans le cadre qui nous intéresse, de leurs performances. Un outil intéressant pour la mise au point des performances d'une application est la visualisation de son exécution. Le travail présenté dans ce mémoire porte sur l'étude, la conception et la réalisation d'un environnement interactif extensible de visualisation pour l'évaluation de performance de systèmes parallèles. Un tel environnement permet de reconstituer le comportement d'une application d'après des traces d'exécution et facilite, par le calcul et la présentation d'indices de performances, la compréhension de son fonctionnement et la détection de ses problèmes de performance. Nous commençons par préciser les concepts importants dans un environnement de visualisation et présentons ensuite l'état de l'art en la matière. Nous décrivons ensuite la conception et la réalisation de l'environnement Scope. Cet environnement est validé par rapport aux objectifs initiaux et son utilité est démontrée par l'étude de sessions d'évaluation de performance d'applications concrètes.
82

Technique de visualisation pour l’identification de l’usage excessif d’objets temporaires dans les traces d’exécution

Duseau, Fleur 12 1900 (has links)
De nos jours, les applications de grande taille sont développées à l’aide de nom- breux cadres d’applications (frameworks) et intergiciels (middleware). L’utilisation ex- cessive d’objets temporaires est un problème de performance commun à ces applications. Ce problème est appelé “object churn”. Identifier et comprendre des sources d’“object churn” est une tâche difficile et laborieuse, en dépit des récentes avancées dans les tech- niques d’analyse automatiques. Nous présentons une approche visuelle interactive conçue pour aider les développeurs à explorer rapidement et intuitivement le comportement de leurs applications afin de trouver les sources d’“object churn”. Nous avons implémenté cette technique dans Vasco, une nouvelle plate-forme flexible. Vasco se concentre sur trois principaux axes de con- ception. Premièrement, les données à visualiser sont récupérées dans les traces d’exécu- tion et analysées afin de calculer et de garder seulement celles nécessaires à la recherche des sources d’“object churn”. Ainsi, des programmes de grande taille peuvent être vi- sualisés tout en gardant une représentation claire et compréhensible. Deuxièmement, l’utilisation d’une représentation intuitive permet de minimiser l’effort cognitif requis par la tâche de visualisation. Finalement, la fluidité des transitions et interactions permet aux utilisateurs de garder des informations sur les actions accomplies. Nous démontrons l’efficacité de l’approche par l’identification de sources d’“object churn” dans trois ap- plications utilisant intensivement des cadres d’applications framework-intensive, inclu- ant un système commercial. / Nowadays, large framework-intensive programs are developed using many layers of frameworks and middleware. Bloat, and particularly object churn, is a common per- formance problem in framework-intensive applications. Object churn consists of an ex- cessive use of temporary objects. Identifying and understanding sources of churn is a difficult and labor-intensive task, despite recent advances in automated analysis tech- niques. We present an interactive visualization approach designed to help developers quickly and intuitively explore the behavior of their application with respect to object churn. We have implemented this technique in Vasco, a new flexible and scalable visualization platform. Vasco follows three main design goals. Firstly, data is collected from execu- tion traces. It is analyzed in order to calculate and keep only the data that is necessary to locate sources of object churn. Therefore, large programs can be visualized while keeping a clear and understandable view. Secondly, the use of an intuitive view allows minimizing the cognitive effort required for the visualization task. Finally, the fluidity of transitions and interactions allows users to mentally preserve the context throughout their interactions. We demonstrate the effectiveness of the approach by identifying churn in three framework-intensive applications, including a commercial system.
83

Analyse et rejeu de traces de charge dans les grands systèmes de calcul distribués

Emeras, Joseph 01 October 2013 (has links) (PDF)
High Performance Computing is preparing the era of the transition from Petascale to Exascale. Distributed computing systems are already facing new scalability problems due to the increasing number of computing resources to manage. It is now necessary to study in depth these systems and comprehend their behaviors, strengths and weaknesses to better build the next generation. The complexity of managing users applications on the resources conducted to the analysis of the workload the platform has to support, this to provide them an efficient service. The need for workload comprehension has led to the collection of traces from production systems and to the proposal of a standard workload format. These contributions enabled the study of numerous of these traces. This also led to the construction of several models, based on the statistical analysis of the different workloads from the collection. Until recently, existing workload traces did not enabled researchers to study the consumption of resources by the jobs in a temporal way. This is now changing with the need for characterization of jobs consumption patterns. In the first part of this thesis we propose a study of existing workload traces. Then we contribute with an observation of cluster workloads with the consideration of the jobs resource consumptions over time. This highlights specific and unattended patterns in the usage of resources from users. Finally, we propose an extension of the former standard workload format that enables to add such temporal consumptions without loosing the benefit of the existing works. Experimental approaches based on workload models have also served the goal of distributed systems evaluation. Existing models describe the average behavior of observed systems. However, although the study of average behaviors is essential for the understanding of distributed systems, the study of critical cases and particular scenarios is also necessary. This study would give a more complete view and under- standing of the performance of resource and job management. In the second part of this thesis we propose an experimental method for performance evaluation of distributed systems based on the replay of production workload trace extracts. These extracts, replaced in their original context, enable to experiment the change of configuration of the system in an online workload and observe the different configurations results. Our technical contribution in this experimental approach is twofold. We propose a first tool to construct the environment in which the experi- mentation will take place, then we propose a second set of tools that automatize the experiment setup and that replay the trace extract within its original context. Finally, these contributions conducted together, enable to gain a better knowledge of HPC platforms. As future works, the approach proposed in this thesis will serve as a basis to further study larger infrastructures.
84

Efficacité mnésique et mécanisme d'intégration : applications chez l'adulte jeune et dans le vieillissement normal / Memory Effectiveness and the Integration Mechanism : applications in young adults and normal aging

Macri, Anthony 24 November 2017 (has links)
Nous sous-estimons sans cesse notre mémoire. Nous la blâmons pour ses déboires mais ne la louons jamais pour ses succès. Toutefois, il faut bien l'admettre, notre mémoire flanche et ses capacités, notamment concernant l'évocation de souvenirs, faiblissent avec le temps et l'avancée en âge. Le cadre de la cognition incarnée propose que notre mémoire n'est pas simplement un outil nous permettant d'accéder à notre passé. Elle est avant tout tournée vers le présent et nous aide à appréhender chaque moment de notre vie quotidienne grâce à l'accumulation des expériences que nous vivons et qui nous servent de référence. La mémoire conserve des traces sensori-motrices de ces expériences (Versace, Labeye, Badard, & Rose, 2009) et son efficacité se définit alors par la capacité d'une situation à réactiver des propriétés stockées en mémoire et pertinentes par rapport à cette situation. C'est de cette réactivation que découle l'émergence des connaissances mais l'efficacité de cette réactivation dépend principalement du lien entre les différentes propriétés lorsqu'elles sont encodées au sein des traces des événements auxquels elles appartiennent. Au sein du modèle fonctionnel de mémoire à traces-multiples Act-in (Versace et al., 2014), l'établissement de ce lien repose sur le mécanisme d'intégration intra-trace. Certains facteurs, tels que la réalisation d'une action ou l'expérience d'une émotion, sont connus pour leurs effets sur l'efficacité de la mémoire. Cependant, ces effets n'ont que très peu été étudiés en rapport avec une conception incarnée de la mémoire. Nous émettions l'hypothèse que l'influence de ces facteurs sur la mémoire reflétait principalement leur impact sur le fonctionnement du mécanisme d'intégration. Le premier objectif de ce travail de thèse était donc d'évaluer si l'action et l'émotion permettaient d'améliorer le fonctionnement du mécanisme d'intégration. Ce mécanisme pouvant opérer à différents niveaux d'association entre les propriétés d'un événement : intégration des propriétés d'un item ou intégration de cet item à son contexte; ces travaux avaient également pour objectif de mettre en évidence un pattern clair vis-à-vis des effets de l'action et de l'émotion sur ces différents niveaux. Enfin, nous soutenons l'hypothèse émise par certains auteurs (e.g. Benjamin, 2000) selon laquelle les difficultés mnésiques rencontrées lors du vieillissement normal sont dues à un déficit dans l'établissement d'associations en mémoire entre différents éléments d'un événements. Ce déficit associatif peut se traduire en termes de déficit du mécanisme d'intégration et le dernier objectif de ces travaux consistait à évaluer si l'action et l'émotion, de par leur influence sur le mécanisme d'intégration, pouvaient réduire les déficits mnésiques observés chez les personnes âgées. Afin de tester ces hypothèses, nous avons employé un paradigme permettant d'obtenir des scores de performances sur les différents niveaux d'intégration chez un même individu tout en manipulant les effets de la réalisation d'actions au moment de l'encodage de l'information ou en manipulant la valence émotionnel du matériel employé et ce chez des adultes jeunes et âgés. / We tend to always underestimate our memory. We blame it for its mishaps but never praise it for its successes. Nonetheless, one must admit that memory has its flaws and its capacities, mostly regarding recollections, weaken with time and age. In the grounded cognition framework, memory is not just a tool to access our past. Memory is mainly turned towards the present and it helps us adapt to each moment of our daily lives thanks to the accumulation of the experiences we live and that become references. Memory is made up of sensori-motor traces of these experiences (Versace, Labeye, Badard, & Rose, 2009) and its effectiveness is thus defined by the potential of a situation to reactivate the properties stored in memory and that are relevant for the present situation. Knowledge emerges the reactivation from but the effectiveness of the reactivation depends mostly on the link between the different properties of an event at the moment of their encoding in memory. Within Act-in, a multiple-traces functional memory model (Versace et al., 2014), the formation of this link rests upon the integration mechanism.Several factors, such as performing an action or experiencing an emotion, are known to influence on memory effectiveness. However, this influence has only be rarely investigated in a grounded approach of memory. We formulated the hypothesis that the influence of these factors on memory reflects their impact on the integration mechanism. The first objective of this thesis was to assess if action and emotion were able to improve integration. This mechanism operates on different levels of association between the properties of an event: integration of the properties of an item and integration of the item to its context; the work reported in the present document aimed to identify a clear pattern regarding the effects of action and emotion on these different levels.Finally, we support the hypothesis formulated by several authors (e.g. Benjamin, 2000) according to which the memory difficulties encountered in normal aging are caused by a deficit in the formation of associations between the different elements of an event in memory. The associative deficit can be translated in terms of an integration deficit and our last objective was then to assess if action and emotion, through their influence on integration, could reduce the memory deficits observed in older adults. To test these hypotheses, we used a paradigm designed to evaluate the performances on the different levels of integration in one individual manipulating at the same time the actions performed by the participants at encoding or the emotional valence of the material both in young and older adults.
85

Abstraction et comparaison de traces d'exécution pour l'analyse d'applications multimédias embarquées / Abstraction and comparison of execution traces for analysis of embedded multimedia applications

Kamdem Kengne, Christiane 05 December 2014 (has links)
Le projet SoC-Trace a pour objectif le développement d'un ensemble de méthodes et d'outils basés sur les traces d'éxécution d'applications embarquées multicoeur afin de répondre aux besoins croissants d'observabilité et de 'débogabilité' requis par l'industrie. Le projet vise en particulier le développement de nouvelles méthodes d'analyse, s'appuyant sur différentes techniques d'analyse de données telles que l'analyse probabiliste, la fouille de données, et l'agrégation de données. Elles devraient permettre l'identification automatique d'anomalies,l'analyse des corrélations et dépendances complexes entre plusieurs composants d'une application embarquées ainsi que la maîtrise du volume important des traces qui peut désormais dépasser le GigaOctet. L'objectif de la thèse est de fournir une représentation de haut niveau des informations contenues dans les traces, basée sur la sémantique. Il s'agira dans un premier temps de développer un outil efficace de comparaison entre traces;de définir une distance démantique adaptée aux traces, puis dans un second temps d'analyser et d'interpréter les résultats des comparaisons de traces en se basant sur la distance définie. / The SoC-Trace project aims to develop a set of methods and tools based on execution traces of multicore embedded applications to meet the growing needs of observability and 'débogability' required by the industry. The project aims in particular the development of new analytical methods, based on different data analysis techniques such as probabilistic analysis, data mining, and data aggregation. They should allow the automatic identification of anomalies, the analysis of complex correlations and dependencies between different components of an embedded application and control of the volume traces that can now exceed the gigabyte. The aim of the thesis is to provide a high-level representation of information in the trace based semantics. It will initially develop an effective tool for comparing traces, to define a semantic distance for execution traces, then a second time to analyze and interpret the results of comparisons of traces based on the defined distance.
86

Performance et temps. Pour une théorie esthétique du temps dans la performance artistique du XXe siècle et du début du XXIe siècle / Performance and Time. Towards an Aesthetic Theory of Time in 20th and early 21st Century Performance Art

Bury, Józef 12 December 2014 (has links)
La présente recherche a pour but d’étudier le rôle du temps dans les expériences artistique et esthétique relatives à la performance artistique. Cette étude porte sur les œuvres et les pratiques de la performance du XXe et du début du XXIe siècles, allant des premières manifestations publiques des avant-gardes historiques jusqu’à la performance augmentée par l’intégration des nouvelles technologies de l’enregistrement, de l’information et de la communication. Partant de l’hypothèse de l’efficience du composant temporel de la performance, il s’agit tout d’abord de démontrer que la structure temporelle de la performance fait l’objet d’une élaboration artistique réfléchie et que le temps peut être considérée comme « matériau » ou « milieu » de l’œuvre-performance. Les analyses de la dimension temporelle des œuvres particulières révèlent également son pouvoir d’agir sur le vécu de tous les protagonistes réunis au sein de la performance-événement et sa capacité de les impliquer à différents degrés dans le processus de la concrétisation de l’œuvre-performance. Ces différentes fonctions du temps, son « activité » et son mode opératoire sont analysés au cours de cette recherche en tant qu’ « agentivité du temps dans la performance ». À l’issue de ces investigations, le temps apparaît comme l’un des facteurs ontogénétiques de l’œuvre-performance fondant sa spécificité, et comme l’une de ses qualités intrinsèques susceptible de déterminer les conduites artistique et esthétique de l’artiste et du spectateur, au point de les rendre interchangeables. / The objective of the present research is to investigate the role of time in artistic and aesthetic experiences pertaining to performance art. This paper focuses on the performance works and practices of the 20th and early 21st centuries, ranging from the first public performances of historical avant-garde movements to the performance augmented through the use of the latest recording, information processing and communication technologies. Starting with the hypothesis of the efficiency of a performance’s temporal component, we first demonstrate that the temporal structure of a performance is the matter of well-thought-out artistic design, and that time can be regarded as the medium, or “milieu” of a performance work. Moreover, analyses of the temporal dimension of individual performance works reveal how time can affect the real-life experience of all the protagonists taking part in the performance-event, involving them, to varying degrees, in the process through which the performance comes into being as a work of art. These multiple functions of time, its “activity” and modus operandi are discussed throughout this study as “agency of time in performance”. The research shows that time turns out to be one of the ontogenetic, specificity-conferring factors of a performance work, and also one of its intrinsic qualities which is likely to determine the artist’s and spectator’s artistic and aesthetic attitudes to such an extent that they become interchangeable.
87

Treblinka (1942-1943) : lieu paradigmatique de la "Solution Finale" de la question juive : rendre compte des limites de l'extrême : essai de réinscription dans l'histoire / Treblinka 1942-1943 : the paradigmatic site of the "Final Solution of the Jewish Question" : conveying the representation of the limits of the extreme : an essay on rewriting historical emplotment

Hausser-Gans, Michèle 05 July 2016 (has links)
Alors qu’un vaste corpus de documents existe en français concernant la Shoah en général et Auschwitz en particulier, celui relatif aux sites de l’Action Reinhard – Sobibor, Chelmno, Belzec, et surtout Treblinka - est relativement peu abondant. Un des obstacles majeurs à leur étude est l’absence - voulue par les nazis - des traces « visibles » de leur existence. Rasés et transformés en exploitations agricoles dès la fin 1943, aucun ne fut libéré par une quelconque armée. En France, Treblinka reste un camp encore largement méconnu. De tous les centres de mise à mort de l’opération Reinhard, ce fut pourtant celui où l’assassinat des Juifs fut le plus « efficace » (selon les responsables du système) - près d’un million victimes en 400 jours - et celui où les survivants furent (relativement) les plus nombreux : entre 50 et 70 en 1945. Il représente le cas paradigmatique d’une « impossibilité de rendre compte ». Décrire et réinscrire Treblinka dans l’Histoire, malgré tous ces écueils, c’est aussi déjouer les pronostics mémoriels du projet nazi tout en incitant l’historien à réfléchir sur les méthodes de son champ de recherche et sur le sens de son travail. / If a vast array of historical and literary material concerning WWII and the Holocaust is available in French, accounts concerning Aktion Reinhard in Poland, (Sobibor, Belzec, and Treblinka Camps) are relatively scarce. One of the major causes for this scarcity is the fact that the Nazis purposely destroyed almost all traces of their occurrence. Before the end of 1943, these sites were dismantled and turned into fake farms. None of these places was “liberated” by any military force.In France, Treblinka remains quite unknown. So is the fact that it was the most “successful” unit of the Aktion Reinhard death machinery. Close to a million Jews were assassinated there during the 400 days that it operated. It was also there that the number of survivors was relatively important: 50 to 70 were alive in 1945. It can be viewed as the paradigmatic case of words’ inability to express such knowledge. Despite all these difficulties, the description and reinsciption in History of Treblinka’s reality addresses a double necessity: to defeat the Nazis’ predictions regarding the erasure of their crimes and to confront the Historian with the relevance of his methods and the meaning of his endeavor.
88

Développement d’outils analytiques et méthodologiques pour l’analyse et le suivi de composés vétérinaires et stéroïdes hormonaux à l’état de traces dans l’eau et le sol / Development of methodological and analytical tools for the analysis and the monitoring of veterinary antibiotics and hormonal steroids at trace levels in water and soil

Salvia, Marie-Virginie 05 April 2013 (has links)
De nombreux produits chimiques se retrouvent dispersés dans l'environnement avec des conséquences parfois néfastes pour les hommes et les écosystèmes. Parmi ces substances figurent les antibiotiques et les stéroïdes hormonaux. Peu de données sont disponibles quant à la présence et le devenir de ces substances dans l'environnement notamment pour le sol, par manque de méthodologies. Nous avons donc mis au point des procédures d'analyse de traces de ces contaminants émergents, dans l'eau et le sol. Nous avons développé des méthodes multi-résidus et inter-familles basées sur des analyses LCMS/ MS. Pour les échantillons aqueux, l'extraction est menée sur phase solide (SPE, OASIS HLB). Les MLQs sont comprises entre 0.09 et 34 ng/L. Pour la matrice solide, la procédure d'extraction est inspirée de la méthode appelée QuEChERS suivie d'une purification SPE. Elle a été validée et des MLQs entre 0.013 et 3 ng/g ont été atteintes. Les tétracyclines et les fluoroquinolones, ont été étudiées séparément car elles ont des propriétés physico-chimiques bien spécifiques les rendant difficiles à extraire correctement du sol avec une méthode inter-familles. La méthode développée sur la matrice sol a permis une étude statistique mettant en exergue l'impact de certains paramètres du sol sur les rendements d'extraction et les effets matrice. Les méthodes ont été appliquées à une étude en colonnes de sol pour obtenir des données sur le transfert, l'accumulation et la dégradation des composés dans le sol / Several chemical products are dispersed in the environment and the consequences can be sometimes harmful for humans and the ecosystems. Among these substances appear the antibiotics and the hormonal steroids. Nowadays, only few data are available on the presence and the fate of these substances in the environment in particular for solid matrices, mainly due to a lack of methodologies. Consequently, methods to analyze traces of « emergent » contaminants in water and soil were carried out. Therefore, multi-residues and inter-families procedures based on LC-MS/MS analysis were established. Concerning the aqueous samples, 23 analytes are extracted with the SPE technique (OASIS HLB). MLQs are between 0.09 and 34 ng/L. For the solid matrix, the extraction procedure of 31 compounds is inspired from the method called QuEChERS and followed by a purification step. This methodology was validated and MLQs between 0.013 and 3 ng/g were obtained. Two antibiotics families, tetracyclines and fluoroquinolones, were studied separately as they have specific physical/chemical properties and are therefore difficult to extract from soil with an inter-families method. Then, the method developed for the soil matrix allowed a statistic study which showed the impact of the soil parameters on the recoveries and matrix effects. Finally, the methodologies were applied to a soil column study which allowed obtaining data on the transfer, accumulation and degradation of the substances in soil
89

Réécriture d’arbres de piles et traces de systèmes à compteurs / Ground stack tree rewriting and traces of counter systems

Penelle, Vincent 20 November 2015 (has links)
Dans cette thèse, nous nous attachons à étudier des classes de graphes infinis et leurs propriétés, Notamment celles de vérification de modèles, d'accessibilité et de langages reconnus.Nous définissons une notion d'arbres de piles ainsi qu'une notion liée de réécriture suffixe, permettant d'étendre à la fois les automates à piles d'ordre supérieur et la réécriture suffixe d'arbres de manière minimale. Nous définissons également une notion de reconnaissabilité sur les ensembles d'opérations à l'aide d'automates qui induit une notion de reconnaissabilité sur les ensembles d'arbres de piles et une notion de normalisation des ensembles reconnaissables d'opérations analogues à celles existant sur les automates à pile d'ordre supérieur. Nous montrons que les graphes définis par ces systèmes de réécriture suffixe d'arbres de piles possèdent une FO-théorie décidable, en montrant que ces graphes peuvent être obtenu par une interprétation à ensembles finis depuis un graphe de la hiérarchie à piles.Nous nous intéressons également au problème d'algébricité des langages de traces des systèmes à compteurs et au problème lié de la stratifiabilité d'un ensemble semi-linéaire. Nous montrons que dans le cas des polyèdres d'entiers, le problème de stratifiabilité est décidable et possède une complexité coNP-complète. Ce résultat nous permet ensuite de montrer que le problème d'algébricité des traces de systèmes à compteurs plats est décidable et coNP-complet. Nous donnons également une nouvelle preuve de la décidabilité des langages de traces des systèmes d'addition de vecteurs, préalablement étudié par Schwer / In this thesis, we study classes of infinite graphs and their properties,especially the model-checking problem, the accessibility problem and therecognised languages.We define a notion of stack trees, and a related notionof ground rewriting, which is an extension of both higher-order pushdownautomata and ground tree rewriting systems. We also define a notion ofrecognisability on the sets of ground rewriting operations through operationautomata. This notion induces a notion of recognisability over sets of stacktrees and a normalisation of recognisable sets of operations, similar to theknown notions over higher-order pushdown automata. We show that the graphsdefined by these ground stack tree rewriting systems have a decidableFO-theory, by exhibiting a finite set interpretation from a graph defined bya higher-order automaton to a graph defined by a ground stack tree rewritingsystem.We also consider the context-freeness problem for counter systems, andthe related problem of stratifiability of semi-linear sets. We prove thedecidability of the stratifiability problem for integral polyhedra and that itis coNP-complete. We use this result to show that the context-freeness problemfor flat counter systems is as well coNP-complete. Finally, we give a new proofof the decidability of the context-freeness problem for vector additionsystems, previously studied by Schwer
90

Chaînes de Markov Incomplètement spécifiées : analyse par comparaison stochastique et application à l'évaluation de performance des réseaux / Markov chains Incompletely Specified : Stochastic comparison analysis and application to networks performance evaluation

Ait Salaht, Farah 03 October 2014 (has links)
Dans cette thèse, nous étudions les problèmes d'incertitudes dans les modèles probabilistes et tentons de déterminer leur impact sur l'analyse de performances et le dimensionnement des systèmes. Nous considérons deux aspects du problème d'imprécision. Le premier, consiste à étudier des chaînes en temps discret dont les probabilités ou taux de transition ne sont pas parfaitement connus. Nous construisons de nouveaux algorithmes de calcul de bornes par éléments sur les vecteurs de distribution stationnaires de chaînes partiellement spécifiées. Ces algorithmes permettent de déterminer des bornes par élément à chaque étape de calcul. Le second aspect étudié concerne le problème de mesures de traces de trafic réelles dans les réseaux. Souvent très volumineuses, la modélisation des traces de trafic est généralement impossible à effectuer de façon suffisamment précise et l'adéquation avec une loi de probabilité connue n'est pas assez réaliste. Utilisant une description par histogramme du trafic, nous proposons d'appliquer une nouvelle méthode d’évaluation de performance des réseaux. Fondée sur la comparaison stochastique pour construire des bornes optimales de supports réduits des histogrammes de trafics et sur la notion de monotonie stochastique des éléments de réseau, cette méthode permet de définir, de manière très pertinente, des garanties sur les mesures de performance. Nous obtenons en effet des bornes stochastiques supérieures et inférieures sur la longueur du tampon, les pertes, etc. L'intérêt et l'impact de notre méthode sont présentés sur diverses applications : éléments de réseau, AQM, réseaux de files d'attente, file avec processus d'arrivée non-stationnaire, etc / This thesis is devoted to the uncertainty in probabilistic models, how it impacts their analysis and how to apply these methods to performance analysis and network dimensioning. We consider two aspects of the uncertainty. The first consists to study a partially specified Markov chains. The missing of some transitions in the exact system because of its complexity can be solved by constructing bounding systems where worst-case transitions are defined to obtain an upper or a lower bound on the performance measures. We propose to develop new algorithms which give element-wise bounds of the steady-state distribution for the partially specified Markov chain. These algorithms are faster than the existing ones and allow us to compute element-wise bounds at each iteration.The second aspect studied concerns the problem of the measurements of real traffic trace in networks. Exact analysis of queueing networks under real traffic becomes quickly intractable due to the state explosion. Assuming the stationarity of flows, we propose to apply the stochastic comparison method to derive performance measure bounds under histogram-based traffics. We apply an algorithm based on dynamic programming to derive optimal bounding traffic histograms on reduced state spaces. Using the stochastic bound histograms and the monotonicity of the networking elements, we show how we can obtain, in a very efficient manner, guarantees on performance measures. We indeed obtain stochastic upper and lower bounds on buffer occupancy, losses, etc. The interest and the impact of our method are shown on various applications: elements of networks, AQM, queueing networks and queue with non-stationary arrival process

Page generated in 0.0402 seconds