Spelling suggestions: "subject:"probabilistic""
201 |
Une approche computationnelle de la dépendance au mouvement du codage de la position dans la système visuel / Motion-based position coding in the visual system : a computational studyAliakbari khoei, Mina 06 October 2014 (has links)
Cette thèse est centralisée sur cette question : comment est-ce que le système visuel peut coder efficacement la position des objets en mouvement, en dépit des diverses sources d'incertitude ? Cette étude déploie une hypothèse sur la connaissance a priori de la cohérence temporelle du mouvement (Burgi et al 2000; Yuille and Grzywacz 1989). Nous avons ici étendu le cadre de modélisation précédemment proposé pour expliquer le problème de l'ouverture (Perrinet and Masson, 2012). C'est un cadre d'estimation de mouvement Bayésien mis en oeuvre par un filtrage particulaire, que l'on appelle la prévision basé sur le mouvement (MBP). Sur cette base, nous avons introduit une théorie du codage de position basée sur le mouvement, et étudié comment les mécanismes neuronaux codant la position instantanée de l'objet en mouvement pourraient être affectés par le signal de mouvement le long d'une trajectoire. Les résultats de cette thèse suggèrent que le codage de la position basé sur le mouvement peut constituer un calcul neuronal générique parmi toutes les étapes du système visuel. Cela peut en partie compenser les effets cumulatifs des délais neuronaux dans le codage de la position. En outre, il peut expliquer des changements de position basés sur le mouvement, comme par example, l'Effect de Saut de Flash. Comme un cas particulier, nous avons introduit le modèle de MBP diagonal et avons reproduit la réponse anticipée de populations de neurones dans l'aire cortical V1. Nos résultats indiquent qu'un codage en position efficace et robuste peut être fortement dépendant de l'intégration le long de la trajectoire. / Coding the position of moving objects is an essential ability of the visual system in fulfilling precise and robust tracking tasks. This thesis is focalized upon this question: How does the visual system efficiently encode the position of moving objects, despite various sources of uncertainty? This study deploys the hypothesis that the visual systems uses prior knowledge on the temporal coherency of motion (Burgi et al 2000; Yuille and Grzywacz 1989). We implemented this prior by extending the modeling framework previously proposed to explain the aperture problem (Perrinet and Masson, 2012), so-called motion-based prediction (MBP). This model is a Bayesian motion estimation framework implemented by particle filtering. Based on that, we have introduced a theory on motion-based position coding, to investigate how neural mechanisms encoding the instantaneous position of moving objects might be affected by motion. Results of this thesis suggest that motion-based position coding might be a generic neural computation among all stages of the visual system. This mechanism might partially compensate the accumulative and restrictive effects of neural delays in position coding. Also it may account for motion-based position shifts as the flash lag effect. As a specific case, results of diagonal MBP model reproduced the anticipatory response of neural populations in the primary visual cortex of macaque monkey. Our results imply that an efficient and robust position coding might be highly dependent on trajectory integration and that it constitutes a key neural signature to study the more general problem of predictive coding in sensory areas.
|
202 |
Développement de modèles graphiques probabilistes pour analyser et remailler les maillages triangulaires 2-variétés / Development of probabilistic graphical models to analyze and remesh 2-manifold triangular meshesVidal, Vincent 09 December 2011 (has links)
Ce travail de thèse concerne l'analyse structurelle des maillages triangulaires surfaciques, ainsi que leur traitement en vue de l'amélioration de leur qualité (remaillage) ou de leur simplification. Dans la littérature, le repositionnement des sommets d'un maillage est soit traité de manière locale, soit de manière globale mais sans un contrôle local de l'erreur géométrique introduite, i.e. les solutions actuelles ne sont pas globales ou introduisent de l'erreur géométrique non-contrôlée. Les techniques d'approximation de maillage les plus prometteuses se basent sur une décomposition en primitives géométriques simples (plans, cylindres, sphères etc.), mais elles n'arrivent généralement pas à trouver la décomposition optimale, celle qui optimise à la fois l'erreur géométrique de l'approximation par les primitives choisies, et le nombre et le type de ces primitives simples. Pour traiter les défauts des approches de remaillage existantes, nous proposons une méthode basée sur un modèle global, à savoir une modélisation graphique probabiliste, intégrant des contraintes souples basées sur la géométrie (l'erreur de l'approximation), la qualité du maillage et le nombre de sommets du maillage. De même, pour améliorer la décomposition en primitives simples, une modélisation graphique probabiliste a été choisie. Les modèles graphiques de cette thèse sont des champs aléatoires de Markov, ces derniers permettant de trouver une configuration optimale à l'aide de la minimisation globale d'une fonction objectif. Nous avons proposé trois contributions dans cette thèse autour des maillages triangulaires 2-variétés : (i) une méthode d'extraction statistiquement robuste des arêtes caractéristiques applicable aux objets mécaniques, (ii) un algorithme de segmentation en régions approximables par des primitives géométriques simples qui est robuste à la présence de données aberrantes et au bruit dans la position des sommets, (iii) et finalement un algorithme d'optimisation de maillages qui cherche le meilleur compromis entre l'amélioration de la qualité des triangles, la qualité de la valence des sommets, le nombre de sommets et la fidélité géométrique à la surface initiale. / The work in this thesis concerns structural analysis of 2-manifold triangular meshes, and their processing towards quality enhancement (remeshing) or simplification. In existing work, the repositioning of mesh vertices necessary for remeshing is either done locally or globally, but in the latter case without local control on the introduced geometrical error. Therefore, current results are either not globally optimal or introduce unwanted geometrical error. Other promising remeshing and approximation techniques are based on a decomposition into simple geometrical primitives (planes, cylinders, spheres etc.), but they generally fail to find the best decomposition, i.e. the one which jointly optimizes the residual geometrical error as well as the number and type of selected simple primitives. To tackle the weaknesses of existing remeshing approaches, we propose a method based on a global model, namely a probabilistic graphical model integrating soft constraints based on geometry (approximation error), mesh quality and the number of mesh vertices. In the same manner, for segmentation purposes and in order to improve algorithms delivering decompositions into simple primitives, a probabilistic graphical modeling has been chosen. The graphical models used in this work are Markov Random Fields, which allow to find an optimal configuration by a global minimization of an objective function. We have proposed three contributions in this thesis about 2-manifold triangular meshes : (i) a statistically robust method for feature edge extraction for mechanical objects, (ii) an algorithm for the segmentation into regions which are approximated by simple primitives, which is robust to outliers and to the presence of noise in the vertex positions, (iii) and lastly an algorithm for mesh optimization which jointly optimizes triangle quality, the quality of vertex valences, the number of vertices, as well as the geometrical fidelity to the initial surface.
|
203 |
Reconstruction 3D du bassin humain à partir d'images médicales multimodales incomplètes. Application à l'assistance de la chirurgie de la prothèse totale de la hanche (PTH).Amavizca Ruiz, Ligia Miriam 20 October 2005 (has links) (PDF)
Cette thèse se situe dans le cadre de la chirurgie de la prothèse totale de la hanche (PTH) assistée par ordinateur. Le but de ce travail est l'obtention d'un modèle 3D du bassin du patient à partir de données incomplètes. <br />Actuellement dans un processus conventionnel, la planification de la PTH se fait avec une radiographie tandis que les systèmes d'assistance chirurgicale de la PTH, utilisent un volume 3D du bassin construit à partir d'images médicales IRM, TDM ou Scanner. Néanmoins la reconstruction du volume 3D s'avère limitée par plusieurs facteurs : (i) le temps d'attente de rendez vous pour l'examen de ce type est trop long, (ii) les appareils sont peu accessibles pour les cliniques, (iii) la difficulté de la segmentation automatique pour l'obtention du volume 3D et (iv) l'impossibilité de l'exposition aux études IRM, Scanner ou TDM pour certains patients. <br />A partir de cette problématique, ce travail de thèse apporte deux contributions principales : <br />– une étude des principales caractéristiques du bassin et du fémur utiles pour la reconstruction d'un modèle 3D, <br />– une méthodologie pour l'obtention d'un volume 3D du bassin à partir d'une radiographie et quelques images échographiques. <br />La méthode proposée est composée de trois étapes : (i) obtention des données radiographiques et échographiques du bassin du patient, (ii) inférence de l'atlas du bassin du patient et (iii) obtention du modèle 3D par la déformation d'un maillage s'adaptant à l'atlas inféré. Dans ce travail un atlas est constitué par un ensemble de points caractéristiques du bassin. Pour résoudre les problèmes liés à la représentation d'un atlas générique, à l'inférence et au traitement de l'information des données radiographiques et échographiques nous avons fait appel aux techniques bayésiennes.
|
204 |
Robustesse et émergence dans les systèmes complexes : le modèle des automates cellulairesRouquier, Jean-Baptiste 08 December 2008 (has links) (PDF)
L'objet de ce travail est de mieux comprendre ce qui se produit lorsque l'on perturbe un système complexe, en utilisant les automates cellulaires comme modèle. Nous nous intéressons principalement à deux perturbations. La première concerne l'écoulement du temps : contrairement au modèle habituel, nous utilisons des mises à jour asynchrones, c'est-à-dire que, à chaque étape, seulement une partie des cellules sont mises à jour. L'autre perturbation concerne la topologie, c'est-à-dire le graphe d'interaction entre les cellules.<br>Une première partie étudie expérimentalement l'apparition de la percolation dirigée dans les automates cellulaires, notamment dans le cadre du "damage spreading". Le dernier chapitre de cette partie prouve une équivalence entre une classe d'automates cellulaires probabilistes et les automates cellulaires asynchrones.<br>La seconde partie étudie dans un premier chapitre l'interaction des deux perturbations évoquées: asynchronisme et topologie. Alors que le modèle habituel utilise une grille Zd, nous étudions une grille où certains liens sont temporairement coupés. Puis un second chapitre démontre des propriétés théoriques sur la règles minorité lorsque la topologie est un arbre.<br>Nous avons dans cette thèse mené à la fois des études expérimentales et des études théoriques. Une préoccupation transversale est la simulation formelle entre modèles. L'enjeu de ces travaux est, à terme, de savoir comment obtenir des systèmes ayant un comportement global prédéfini, ou bien comment rendre robuste à certaines perturbations un système complexe donné.
|
205 |
Application of the Stimulus-Driven Theory of Probabilistic Dynamics to the hydrogen issue in level-2 PSA. Application de la Stimulus Driven Theory of Probabilistic Dynamics (SDTPD) au risque hydrogène dans les EPS de niveau 2.Peeters, Agnès 05 October 2007 (has links)
Les Etudes Probabilistes de Sûreté (EPS) de niveau 2 en centrale nucléaire visent à identifier les séquences d’événements pouvant correspondre à la propagation d’un accident d’un endommagement du cœur jusqu’à une perte potentielle de l’intégrité de l’enceinte, et à estimer la fréquence d’apparition des différents scénarios possibles.
Ces accidents sévères dépendent non seulement de défaillances matérielles ou d’erreurs humaines, mais également de l’occurrence de phénomènes physiques, tels que des explosions vapeur ou hydrogène. La prise en compte de tels phénomènes dans le cadre booléen des arbres d’événements s’avère difficile, et les méthodologies dynamiques de réalisation des EPS sont censées fournir une manière plus cohérente d’intégrer l’évolution du processus physique dans les changements de configuration discrète de la centrale au long d’un transitoire accidentel.
Cette thèse décrit l’application d’une des plus récentes approches dynamiques des EPS – la Théorie de la Dynamique Probabiliste basée sur les Stimuli (SDTPD) – à différents modèles de déflagration d'hydrogène ainsi que les développements qui ont permis cette applications et les diverses améliorations et techniques qui ont été mises en oeuvre.
Level-2 Probabilistic Safety Analyses (PSA) of nuclear power plants aims to identify the possible sequences of events corresponding to an accident propagation from a core damage to a potential loss of integrity of the containment, and to assess the frequency of occurrence of the different scenarios.
These so-called severe accidents depend not only on hardware failures and human errors, but also on the occurrence of physical phenomena such as e.g. steam or hydrogen explosions. Handling these phenomena in the classical Boolean framework of event trees is not convenient, and dynamic methodologies to perform PSA studies are expected to provide a more consistent way of integrating the physical process evolution with the discrete changes of plant configuration along an accidental transient.
This PhD Thesis presents the application of one of the most recently proposed dynamic PSA methodologies, i.e. the Stimulus-Driven Theory of Probabilistic Dynamics (SDTPD), to several models of hydrogen explosion in the containment of a plant, as well as the developed methods and improvements.
|
206 |
Apprentissage des modèles de situations afin de fournir des services <br />sensibles au contexteBrdiczka, Oliver 25 May 2007 (has links) (PDF)
Cette thèse porte sur l'apprentissage des modèles de situations afin<br />de fournir des services sensibles au contexte dans un environnement<br />intelligent. D'abord, nous motivons et introduisons la notion de contexte<br />pour la modélisation du comportement humain. Ce dernier est représenté par un<br />modèle de situations décrivant l'environnement, ses occupants et leurs<br />activités. Nous proposons deux exemples d'implémentation du modèle de<br />situations. Puis, nous introduisons un cadre conceptuel pour l'acquisition<br />automatique et l'évolution des différentes couches d'un modèle de situations.<br />Ce cadre regroupe différentes méthodes d'apprentissage: la détection de rôles<br />par entité, l'extraction non-supervisée de situations à partir de données<br />multimodales, l'apprentissage supervisé de situations et l'évolution d'un<br />modèle de situations basée sur les retours de l'utilisateur. Ce cadre<br />conceptuel ainsi que les méthodes associées ont été implémentées et évaluées<br />dans un environnement domestique augmenté.
|
207 |
Effets d'échelle dans la rupture des composites unidirectionnelsForet, Gilles 19 October 1995 (has links) (PDF)
Nous nous intéressons dans ce travail à la rupture en traction des matériaux composites unidirectionnels dans la perspective de leur utilisation comme câbles de précontrainte. Le comportement de type élastique-fragile de ces matériaux impose de prendre en compte l'aléa de résistance, afin de prédire les effets d'échelle. Pour étudier ce problème, nous avons simulé numériquement la rupture des composites unidirectionnels à l'aide d'un modèle mécanique à cinématique uniaxiale. Nous avons réalisé pour chaque géométrie un très grand nombre de simulations afin d'obtenir une statistique de rupture au voisinage des faibles résistances très précises. Nous avons étudié deux mécanismes d'endommagement, rupture des fils et décohésions entre fils (un fil peut être constitué d'une ou plusieurs fibres, sa section étant caractéristique de la finesse de discrétisation du modèle). Nous avons alors constaté qu'un effet d'échelle de longueur de type chaîne décrivait correctement nos simulations de rupture pour différentes longueurs dès que l'on pouvait négliger les effets d'extrémité et, d'un point de vue pratique, que la queue de distribution des faibles résistances n'obéit plus à une loi du type rupture de la structure au premier endommagement. L'extrapolation des courbes de distribution des résistances a permis de proposer le concept de résistance utile d'un jonc en acceptant une certaine probabilité de rupture. Cette résistance utile peut être très largement supérieure à celle utilisée actuellement en appliquant un coefficient de sécurité de 0,5 à la résistance moyenne. L'utilisation de ce concept de résistance utile pourrait alors réduire la quantité de matière et évidemment les coûts. Un autre apport du travail est issu de l'étude des effets d'échelle de section. Nous sommes en effet arrivés à démontrer que pour un usage donné (longueur, probabilité de rupture admissible), il existe une section optimale de jonc donnant la meilleure résistance utile.
|
208 |
Modélisation probabiliste en biologie moléculaire et cellulaireYvinec, Romain 05 October 2012 (has links) (PDF)
De nombreux travaux récents ont démontré l'importance de la stochasticité dans l'expression des gènes à différentes échelles. On passera tout d'abord en revue les principaux résultats expérimentaux pour motiver l'étude de modèles mathématiques prenant en compte des effets aléatoires. On étudiera ensuite deux modèles particuliers où les effets aléatoires induisent des comportements intéressants, en lien avec des résultats expérimentaux: une dynamique intermittente dans un modèle d'auto-régulation de l'expression d'un gène; et l'émergence d'hétérogénéité à partir d'une population homogène de protéines par modification post-traductionnelle.\\ Dans le Chapitre I, nous avons étudié le modèle standard d'expression des gènes à trois variables: ADN, ARN messager et protéine. L'ADN peut être dans deux états, respectivement ''ON'' et ''OFF''. La transcription (production d'ARN messagers) peut avoir lieu uniquement dans l'état ''ON''. La traduction (production de protéines) est proportionnelle à la quantité d'ARN messager. Enfin la quantité de protéines peut réguler de manière non-linéaire les taux de production précédent. Nous avons utilisé des théorèmes de convergence de processus stochastique pour mettre en évidence différents régimes de ce modèle. Nous avons ainsi prouvé rigoureusement le phénomène de production intermittente d'ARN messagers et/ou de protéines. Les modèles limites obtenues sont alors des modèles hybrides, déterministes par morceaux avec sauts Markoviens. Nous avons étudié le comportement en temps long de ces modèles et prouvé la convergence vers des solutions stationnaires. Enfin, nous avons étudié en détail un modèle réduit, calculé explicitement la solution stationnaire, et étudié le diagramme de bifurcation des densités stationnaires. Ceci a permis 1) de mettre en évidence l'influence de la stochasticité en comparant aux modèles déterministes; 2) de donner en retour un moyen théorique d'estimer la fonction de régulation par un problème inverse. \\ Dans le Chapitre II, nous avons étudié une version probabiliste du modèle d'agrégation-fragmentation. Cette version permet une définition de la nucléation en accord avec les modèles biologistes pour les maladies à Prion. Pour étudier la nucléation, nous avons utilisé une version stochastique du modèle de Becker-Döring. Dans ce modèle, l'agrégation est réversible et se fait uniquement par attachement/détachement d'un monomère. Le temps de nucléation est définit comme le premier temps où un noyau (c'est-à-dire un agrégat de taille fixé, cette taille est un paramètre du modèle) est formé. Nous avons alors caractérisé la loi du temps de nucléation dans ce modèle. La distribution de probabilité du temps de nucléation peut prendre différente forme selon les valeurs de paramètres: exponentielle, bimodale, ou de type Weibull. Concernant le temps moyen de nucléation, nous avons mis en évidence deux phénomènes importants. D'une part, le temps moyen de nucléation est une fonction non-monotone du paramètre cinétique d'agrégation. D'autre part, selon la valeur des autres paramètres, le temps moyen de nucléation peut dépendre fortement ou très faiblement de la quantité initiale de monomère . Ces caractérisations sont importantes pour 1) expliquer des dépendances très faible en les conditions initiales, observées expérimentalement; 2) déduire la valeur de certains paramètres d'observations expérimentales. Cette étude peut donc être appliqué à des données biologiques. Enfin, concernant un modèle de polymérisation-fragmentation, nous avons montré un théorème limite d'un modèle purement discret vers un modèle hybride, qui peut-être plus utile pour des simulations numériques, ainsi que pour une étude théorique.
|
209 |
Optimisation multi-objectif et aide à la décision pour la conception robuste. : Application à une structure industrielle sur fondations superficielles / Multi-objective optimization and decision aid for robust design : application to an industrial structure on spread foundationsPiegay, Nicolas 17 December 2015 (has links)
La conception des ouvrages en Génie Civil se fait habituellement de manière semi-probabiliste en employant des valeurs caractéristiques auxquelles sont associées des facteurs partiels de sécurité. Toutefois, de telles approches ne permettent pas de garantir la robustesse de l’ouvrage conçu vis-à-vis des sources d’incertitudes susceptibles d’affecter ses performances au cours de sa réalisation et de son fonctionnement. Nous proposons dans ce mémoire une méthodologie d’aide à la décision pour la conception robuste des ouvrages qui est appliquée à une structure métallique reposant sur des fondations superficielles. La conception de cet ouvrage est conduite en intégrant le phénomène d’interaction sol-structure qui implique que les choix de conception faits sur la fondation influencent ceux faits sur la structure supportée (et réciproquement). La démarche de conception proposée fait appel à des outils d’optimisation multi-objectif et d’aide à la décision afin d’obtenir une solution qui offre le meilleur compromis entre l’ensemble des préférences énoncées par le décideur sur chaque critère de conception. Des analyses de sensibilité sont menées parallèlement dans le but d’identifier et de quantifier les sources d’incertitude les plus influentes sur la variabilité des performances de l’ouvrage. Ces sources d’incertitude représentées sous une forme probabiliste sont intégrées dans la procédure de conception et propagées à l’aide d’une méthode d’échantillonnage par hypercube latin. Une partie du mémoire est consacrée à l’analyse des effets de l’incertitude relative à la modélisation des paramètres géotechniques sur la réponse de l’ouvrage et sur la démarche plus globale d’optimisation. / Design in Civil Engineering is usually performed in a semi-probabilistic way using characteristic values which are associated with partial safety factors. However, this approach doesn’t guarantee the structure robustness with regard to uncertainties that could affect its performance during construction and operation. In this thesis, we propose a decision aid methodology for robust design of steel frame on spread foundations. Soil-structure interaction is taken into consideration in the design process implying that the design choices on foundations influence the design choices on steel frame (and vice versa). The proposed design approach uses multi-objective optimization and decision aid methods in order to obtain the best solution with respect to the decision-maker’s preferences on each criterion. Furthermore, sensitivity analyzes are performed in order to identify and quantify the most influencing uncertainty sources on variability of the structure performances. These uncertainties are modeled as random variables and propagated in the design process using latin hypercube sampling. A part of this dissertation is devoted to the effects of uncertainties involved in soil properties on the structure responses and on the design global approach.
|
210 |
Combining checkpointing and other resilience mechanisms for exascale systems / L'utilisation conjointe de mécanismes de sauvegarde de points de reprise (checkpoints) et d'autres mécanismes de résilience pour les systèmes exascalesBentria, Dounia 10 December 2014 (has links)
Dans cette thèse, nous nous sommes intéressés aux problèmes d'ordonnancement et d'optimisation dans des contextes probabilistes. Les contributions de cette thèse se déclinent en deux parties. La première partie est dédiée à l’optimisation de différents mécanismes de tolérance aux pannes pour les machines de très large échelle qui sont sujettes à une probabilité de pannes. La seconde partie est consacrée à l’optimisation du coût d’exécution des arbres d’opérateurs booléens sur des flux de données.Dans la première partie, nous nous sommes intéressés aux problèmes de résilience pour les machines de future génération dites « exascales » (plateformes pouvant effectuer 1018 opérations par secondes).Dans le premier chapitre, nous présentons l’état de l’art des mécanismes les plus utilisés dans la tolérance aux pannes et des résultats généraux liés à la résilience.Dans le second chapitre, nous étudions un modèle d’évaluation des protocoles de sauvegarde de points de reprise (checkpoints) et de redémarrage. Le modèle proposé est suffisamment générique pour contenir les situations extrêmes: d’un côté le checkpoint coordonné, et de l’autre toute une famille de stratégies non-Coordonnées. Nous avons proposé une analyse détaillée de plusieurs scénarios, incluant certaines des plateformes de calcul existantes les plus puissantes, ainsi que des anticipations sur les futures plateformes exascales.Dans les troisième, quatrième et cinquième chapitres, nous étudions l'utilisation conjointe de différents mécanismes de tolérance aux pannes (réplication, prédiction de pannes et détection d'erreurs silencieuses) avec le mécanisme traditionnel de checkpoints et de redémarrage. Nous avons évalué plusieurs modèles au moyen de simulations. Nos résultats montrent que ces modèles sont bénéfiques pour un ensemble de modèles d'applications dans le cadre des futures plateformes exascales.Dans la seconde partie de la thèse, nous étudions le problème de la minimisation du coût de récupération des données par des applications lors du traitement d’une requête exprimée sous forme d'arbres d'opérateurs booléens appliqués à des prédicats sur des flux de données de senseurs. Le problème est de déterminer l'ordre dans lequel les prédicats doivent être évalués afin de minimiser l'espérance du coût du traitement de la requête. Dans le sixième chapitre, nous présentons l'état de l'art de la seconde partie et dans le septième chapitre, nous étudions le problème pour les requêtes exprimées sous forme normale disjonctive. Nous considérons le cas plus général où chaque flux peut apparaître dans plusieurs prédicats et nous étudions deux modèles, le modèle où chaque prédicat peut accéder à un seul flux et le modèle où chaque prédicat peut accéder à plusieurs flux. / In this thesis, we are interested in scheduling and optimization problems in probabilistic contexts. The contributions of this thesis come in two parts. The first part is dedicated to the optimization of different fault-Tolerance mechanisms for very large scale machines that are subject to a probability of failure and the second part is devoted to the optimization of the expected sensor data acquisition cost when evaluating a query expressed as a tree of disjunctive Boolean operators applied to Boolean predicates. In the first chapter, we present the related work of the first part and then we introduce some new general results that are useful for resilience on exascale systems.In the second chapter, we study a unified model for several well-Known checkpoint/restart protocols. The proposed model is generic enough to encompass both extremes of the checkpoint/restart space, from coordinated approaches to a variety of uncoordinated checkpoint strategies. We propose a detailed analysis of several scenarios, including some of the most powerful currently available HPC platforms, as well as anticipated exascale designs.In the third, fourth, and fifth chapters, we study the combination of different fault tolerant mechanisms (replication, fault prediction and detection of silent errors) with the traditional checkpoint/restart mechanism. We evaluated several models using simulations. Our results show that these models are useful for a set of models of applications in the context of future exascale systems.In the second part of the thesis, we study the problem of minimizing the expected sensor data acquisition cost when evaluating a query expressed as a tree of disjunctive Boolean operators applied to Boolean predicates. The problem is to determine the order in which predicates should be evaluated so as to shortcut part of the query evaluation and minimize the expected cost.In the sixth chapter, we present the related work of the second part and in the seventh chapter, we study the problem for queries expressed as a disjunctive normal form. We consider the more general case where each data stream can appear in multiple predicates and we consider two models, the model where each predicate can access a single stream and the model where each predicate can access multiple streams.
|
Page generated in 0.0768 seconds