Spelling suggestions: "subject:"arithmétique"" "subject:"arithmétiques""
151 |
Surveillance préventive des systèmes hybrides à incertitudes bornées / Preventive monitoring of hybrid systems in a bounded-error frameworkMaÏga, Moussa 02 July 2015 (has links)
Cette thèse est dédiée au développement d’algorithmes génériques pour l’observation ensembliste de l’état continu et du mode discret des systèmes dynamiques hybrides dans le but de réaliser la détection de défauts. Cette thèse est organisée en deux grandes parties. Dans la première partie, nous avons proposé une méthode rapide et efficace pour le passage ensembliste des gardes. Elle consiste à procéder à la bissection dans la seule direction du temps et ensuite faire collaborer plusieurs contracteurs simultanément pour réduire le domaine des vecteurs d’état localisés sur la garde, durant la tranche de temps étudiée. Ensuite, nous avons proposé une méthode pour la fusion des trajectoires basée sur l'utilisation des zonotopes. Ces méthodes, utilisées conjointement, nous ont permis de caractériser de manière garantie l'ensemble des trajectoires d'état hybride engendrées par un système dynamique hybride incertain sur un horizon de temps fini. La deuxième partie de la thèse aborde les méthodes ensemblistes pour l'estimation de paramètres et pour l'estimation d'état hybride (mode et état continu) dans un contexte à erreurs bornées. Nous avons commencé en premier lieu par décrire les méthodes de détection de défauts dans les systèmes hybrides en utilisant une approche paramétrique et une approche observateur hybride. Ensuite, nous avons décrit deux méthodes permettant d’effectuer les tâches de détection de défauts. Nous avons proposé une méthode basée sur notre méthode d'atteignabilité hybride non linéaire et un algorithme de partitionnement que nous avons nommé SIVIA-H pour calculer de manière garantie l'ensemble des paramètres compatibles avec le modèle hybride, les mesures et avec les bornes d’erreurs. Ensuite, pour l'estimation d'état hybride, nous avons proposé une méthode basée sur un prédicteurcorrecteur construit au dessus de notre méthode d'atteignabilité hybride non linéaire. / This thesis is dedicated to the development of generic algorithms for the set-membership observation of the continuous state and the discrete mode of hybrid dynamical systems in order to achieve fault detection. This thesis is organized into two parts. In the first part, we have proposed a fast and effective method for the set-membership guard crossing. It consists in carrying out bisection in the time direction only and then makes several contractors working simultaneously to reduce the domain of state vectors located on the guard during the study time slot. Then, we proposed a method for merging trajectories based on zonotopic enclosures. These methods, used together, allowed us to characterize in a guaranteed way the set of all hybrid state trajectories generated by an uncertain hybrid dynamical system on a finite time horizon. The second part focuses on set-membership methods for the parameters or the hybrid state (mode and continuous state) of a hybrid dynamical system in a bounded error framework. We started first by describing fault detection methods for hybrid systems using the parametric approach and the hybrid observer approach. Then, we have described two methods for performing fault detection tasks. We have proposed a method for computing in a guaranteed way all the parameters consistent with the hybrid dynamical model, the actual data and the prior error bound, by using our nonlinear hybrid reachability method and an algorithm for partition which we denote SIVIA-H. Then, for hybrid state estimation, we have proposed a method based on a predictor-corrector, which is also built on top of our non-linear method for hybrid reachability.
|
152 |
Substance, continuité et discrétion d'après Guillaume d'Ockham / Substance, continuity and discretion according to William OckhamRoques, Magali 07 December 2012 (has links)
Dans ce travail de doctorat, nous avons pour objectif de reconstituer les présupposés et les conséquences de la thèse ockhamiste selon laquelle la quantité n’est pas réellement distincte de la substance ou de la qualité. Cette thèse est formulée dans les écrits philosophiques et théologiques de Guillaume d’Ockham, logicien et théologien anglais du début du XIVe siècle (1285-1349). La thèse est organisée en trois parties. La première partie a pour objet la question de savoir comment s’organise la catégorie de quantité si l’on admet que la quantité n’est pas réellement distincte de la substance ou de la qualité. La deuxième partie, consacrée à la physique de la quantité, traite de chacune des trois espèces de quantité, la quantité permanente continue (l’extension spatiale), la quantité successive (le mouvement et le temps) et la quantité discrète (le nombre). Enfin, la troisième partie consiste en une description et une évaluation de la théorie ockhamiste de la structure métaphysique de la substance / The aim of this PhD dissertation is to reconstruct the assumptions and consequences of the ockhamist thesis according to which quantity is not really distinct from substance or from quality. This thesis can be found in the philosophical and theological writings of William of Ockham, a logician and Franciscan theologian from the beginning of the 14th century (1285-1349).The dissertation is divided into three parts. The first part deals with the question how the category of quantity is organised if one assumes that quantity is not really distinct from substance or from quality. The second part is dedicated to the physics of quantity. Each species of quantity is examined, that is permanent continuous quantity (spatial extension), successive quantity (motion and time) and discrete quantity (number). Lastly, the third part consists in a description and an evaluation of the ockhamist theory of the metaphysical structure of substance
|
153 |
Numerical Quality and High Performance In Interval Linear Algebra on Multi-Core Processors / Algèbre linéaire d'intervalles - Qualité Numérique et Hautes Performances sur Processeurs Multi-CœursTheveny, Philippe 31 October 2014 (has links)
L'objet est de comparer des algorithmes de multiplication de matrices à coefficients intervalles et leurs implémentations.Le premier axe est la mesure de la précision numérique. Les précédentes analyses d'erreur se limitent à établir une borne sur la surestimation du rayon du résultat en négligeant les erreurs dues au calcul en virgule flottante. Après examen des différentes possibilités pour quantifier l'erreur d'approximation entre deux intervalles, l'erreur d'arrondi est intégrée dans l'erreur globale. À partir de jeux de données aléatoires, la dispersion expérimentale de l'erreur globale permet d'éclairer l'importance des différentes erreurs (de méthode et d'arrondi) en fonction de plusieurs facteurs : valeur et homogénéité des précisions relatives des entrées, dimensions des matrices, précision de travail. Cette démarche conduit à un nouvel algorithme moins coûteux et tout aussi précis dans certains cas déterminés.Le deuxième axe est d'exploiter le parallélisme des opérations. Les implémentations précédentes se ramènent à des produits de matrices de nombres flottants. Pour contourner les limitations d'une telle approche sur la validité du résultat et sur la capacité à monter en charge, je propose une implémentation par blocs réalisée avec des threads OpenMP qui exécutent des noyaux de calcul utilisant les instructions vectorielles. L'analyse des temps d'exécution sur une machine de 4 octo-coeurs montre que les coûts de calcul sont du même ordre de grandeur sur des matrices intervalles et numériques de même dimension et que l'implémentation par bloc passe mieux à l'échelle que l'implémentation avec plusieurs appels aux routines BLAS. / This work aims at determining suitable scopes for several algorithms of interval matrices multiplication.First, we quantify the numerical quality. Former error analyses of interval matrix products establish bounds on the radius overestimation by neglecting the roundoff error. We discuss here several possible measures for interval approximations. We then bound the roundoff error and compare experimentally this bound with the global error distribution on several random data sets. This approach enlightens the relative importance of the roundoff and arithmetic errors depending on the value and homogeneity of relative accuracies of inputs, on the matrix dimension, and on the working precision. This also leads to a new algorithm that is cheaper yet as accurate as previous ones under well-identified conditions.Second, we exploit the parallelism of linear algebra. Previous implementations use calls to BLAS routines on numerical matrices. We show that this may lead to wrong interval results and also restrict the scalability of the performance when the core count increases. To overcome these problems, we implement a blocking version with OpenMP threads executing block kernels with vector instructions. The timings on a 4-octo-core machine show that this implementation is more scalable than the BLAS one and that the cost of numerical and interval matrix products are comparable.
|
154 |
Game semantics and realizability for classical logic / Sémantique des jeux et réalisabilité pour la logique classiqueBlot, Valentin 07 November 2014 (has links)
Cette thèse étudie deux modèles de réalisabilité pour la logique classique construits sur la sémantique des jeux HO, interprétant la logique, l'arithmétique et l'analyse classiques directement par des programmes manipulant un espace de stockage d'ordre supérieur.La non-innocence en jeux HO autorise les références d'ordre supérieur, et le non parenthésage révèle la CPS des jeux HO et fournit une catégorie de continuations dans laquelle interpréter le lambda-mu calcul de Parigot. Deux modèles de réalisabilité sont construits sur cette interprétation calculatoire directe des preuves classiques.Le premier repose sur l'orthogonalité, comme celui de Krivine, mais il est simplement typé et au premier ordre. En l'absence de codage de l'absurdité au second ordre, une mu-variable libre dans les réaliseurs permet l'extraction. Nous définissons un bar-récurseur et prouvons qu'il réalise l'axiome du choix dépendant, utilisant deux conséquences de la structure de CPO du modèle de jeux: toute fonction sur les entiers (même non calculable) existe dans le modèle, et toute fonctionnelle sur des séquences est Scott-continue. La bar-récursion est habituellement utilisée pour réaliser intuitionnistiquement le « double negation shift » et en déduire la traduction négative de l'axiome du choix. Ici, nous réalisons directement l'axiome du choix dans un cadre classique.Le second, très spécifique au modèle de jeux, repose sur des conditions de gain: des ensembles de positions d'un jeu munis de propriétés de cohérence. Un réaliseur est alors une stratégie dont les positions sont toutes gagnantes. / This thesis investigates two realizability models for classical logic built on HO game semantics. The main motivation is to have a direct computational interpretation of classical logic, arithmetic and analysis with programs manipulating a higher-order store.Relaxing the innocence condition in HO games provides higher-order references, and dropping the well-bracketing of strategies reveals the CPS of HO games and gives a category of continuations in which we can interpret Parigot's lambda-mu calculus. This permits a direct computational interpretation of classical proofs from which we build two realizability models.The first model is orthogonality-based, as the one of Krivine. However, it is simply-typed and first-order. This means that we do not use a second-order coding of falsity, and extraction is handled by considering realizers with a free mu-variable. We provide a bar-recursor in this model and prove that it realizes the axiom of dependent choice, relying on two consequences of the CPO structure of the games model: every function on natural numbers (possibly non computable) exists in the model, and every functional on sequences is Scott-continuous. Usually, bar-recursion is used to intuitionistically realize the double negation shift and consequently the negative translation of the axiom of choice. Here, we directly realize the axiom of choice in a classical setting.The second model relies on winning conditions and is very specific to the games model. A winning condition is a set of positions in a game which satisfies some coherence properties, and a realizer of a formula is then a strategy which positions are all winning.
|
155 |
Robust tools for weighted Chebyshev approximation and applications to digital filter design / Outils robustes pour l’approximation de Chebyshev pondérée et applications à la synthèse de filtres numériquesFilip, Silviu-Ioan 07 December 2016 (has links)
De nombreuses méthodes de traitement du signal reposent sur des résultats puissants d'approximation numérique. Un exemple significatif en est l'utilisation de l'approximation de type Chebyshev pour l'élaboration de filtres numériques.En pratique, le caractère fini des formats numériques utilisés en machine entraîne des difficultés supplémentaires pour la conception de filtres numériques (le traitement audio et le traitement d'images sont deux domaines qui utilisent beaucoup le filtrage). La majorité des outils actuels de conception de filtres ne sont pas optimisés et ne certifient pas non plus la correction de leurs résultats. Notre travail se veut un premier pas vers un changement de cette situation.La première partie de la thèse traite de l'étude et du développement de méthodes relevant de la famille Remez/Parks-McClellan pour la résolution de problèmes d'approximation polynomiale de type Chebyshev, en utilisant l'arithmétique virgule-flottante.Ces approches sont très robustes, tant du point de vue du passage à l'échelle que de la qualité numérique, pour l'élaboration de filtres à réponse impulsionnelle finie (RIF).Cela dit, dans le cas des systèmes embarqués par exemple, le format des coefficients du filtre qu'on utilise en pratique est beaucoup plus petit que les formats virgule flottante standard et d'autres approches deviennent nécessaires.Nous proposons une méthode (quasi-)optimale pour traîter ce cas. Elle s'appuie sur l'algorithme LLL et permet de traiter des problèmes de taille bien supérieure à ceux que peuvent traiter les approches exactes. Le résultat est ensuite utilisé dans une couche logicielle qui permet la synthèse de filtres RIF pour des circuits de type FPGA.Les résultats que nous obtenons en sortie sont efficaces en termes de consommation d'énergie et précis. Nous terminons en présentant une étude en cours sur les algorithmes de type Remez pour l'approximation rationnelle. Ce type d'approches peut être utilisé pour construire des filtres à réponse impulsionnelle infinie (RII) par exemple. Nous examinons les difficultés qui limitent leur utilisation en pratique. / The field of signal processing methods and applications frequentlyrelies on powerful results from numerical approximation. One suchexample, at the core of this thesis, is the use of Chebyshev approximationmethods for designing digital filters.In practice, the finite nature of numerical representations adds an extralayer of difficulty to the design problems we wish to address using digitalfilters (audio and image processing being two domains which rely heavilyon filtering operations). Most of the current mainstream tools for thisjob are neither optimized, nor do they provide certificates of correctness.We wish to change this, with some of the groundwork being laid by thepresent work.The first part of the thesis deals with the study and development ofRemez/Parks-McClellan-type methods for solving weighted polynomialapproximation problems in floating-point arithmetic. They are veryscalable and numerically accurate in addressing finite impulse response(FIR) design problems. However, in embedded and power hungry settings,the format of the filter coefficients uses a small number of bits andother methods are needed. We propose a (quasi-)optimal approach basedon the LLL algorithm which is more tractable than exact approaches.We then proceed to integrate these aforementioned tools in a softwarestack for FIR filter synthesis on FPGA targets. The results obtainedare both resource consumption efficient and possess guaranteed accuracyproperties. In the end, we present an ongoing study on Remez-type algorithmsfor rational approximation problems (which can be used for infinite impulseresponse (IIR) filter design) and the difficulties hindering their robustness.
|
156 |
Contribution à l'arithmétique des ordinateurs et applications aux systèmes embarqués / Contributions to computer arithmetic and applications to embedded systemsBrunie, Nicolas 16 May 2014 (has links)
Au cours des dernières décennies les systèmes embarqués ont dû faire face à des demandes applicatives de plus en plus variées et de plus en plus contraintes. Ce constat s'est traduit pour l’arithmétique par le besoin de toujours plus de performances et d'efficacité énergétique. Ce travail se propose d'étudier des solutions allant du matériel au logiciel, ainsi que les diverses interactions qui existent entre ces domaines, pour améliorer le support arithmétique dans les systèmes embarqués. Certains résultats ont été intégrés au processeur MPPA développé par Kalray. La première partie est consacrée au support de l'arithmétique virgule flottante dans le MPPA. Elle commence par la mise au point d'une unité flottante matérielle basée sur l'opérateur classique FMA (fused multiply-Add). Les améliorations proposées, implémentées et évaluées incluent un FMA à précision mixte, l'addition à 3 opérandes et le produit scalaire 2D, à chaque fois avec un seul arrondi et le support des sous-Normaux. Cette partie se poursuit par l'étude de l'implémentation des autres primitives flottantes normalisées : division et racine carrée. L'unité flottante matérielle précédente est réutilisée et modifiée pour optimiser ces primitives à moindre coût. Cette première partie s’ouvre sur le développement d'un générateur de code destiné à l'implémentation de bibliothèques mathématiques optimisées pour différents contextes (architecture, précision, latence, débit). La seconde partie consiste en la présentation d'une nouvelle architecture de coprocesseur reconfigurable. Cet opérateur matériel peut être dynamiquement modifié pour s'adapter à la volée à des besoins applicatifs variés. Il vise à fournir des performances se rapprochant d'une implémentation matérielle dédiée sans renier la flexibilité inhérente au logiciel. Il a été spécifiquement pensé pour être intégré avec un cœur embarqué faible consommation du MPPA. Cette partie s'attache aussi à décrire le développement d'un environnement logiciel pour cibler ce coprocesseur ainsi qu'explorer divers choix architecturaux envisagés. La dernière partie étudie un problème plus large : l'utilisation efficace de ressources arithmétiques parallèles. Elle présente une amélioration des architectures régulières Single Instruction Multiple Data tels qu’on les trouve dans les accélérateurs graphiques (GPU) pour l'exécution de graphes de flot de contrôle divergents. / In the last decades embedded systems have been challenged with more and more application variety, each time more constrained. This implies an ever growing need for performances and energy efficiency in arithmetic units. This work studies solutions ranging from hardware to software to improve arithmetic support in embedded systems. Some of these solutions were integrated in Kalray's MPPA processor. The first part of this work focuses on floating-Point arithmetic support in the MPPA. It starts with the design of a floating-Point unit (FPU) based on the classical FMA (Fused Multiply-Add) operator. The improvements we suggest, implement and evaluate include a mixed precision FMA, a 3-Operand add and a 2D scalar product, each time with a single rounding and support for subnormal numbers. It then considers the implementation of division and square root. The FPU is reused and modified to optimize the software implementations of those primitives at a lower cost. Finally, this first part opens up on the development of a code generator designed for the implementation of highly optimized mathematical libraries in different contexts (architecture, accuracy, latency, throughput). The second part studies a reconfigurable coprocessor, a hardware operator that could be dynamically modified to adapt on the fly to various applicative needs. It intends to provide performance close to ASIC implementation, with some of the flexibility of software. One of the addressed challenges is the integration of such a reconfigurable coprocessor into the low power embedded cluster of the MPPA. Another is the development of a software framework targeting the coprocessor and allowing design space exploration. The last part of this work leaves micro-Architecture considerations to study the efficient use of parallel arithmetic resources. It presents an improvement of regular architectures (Single Instruction Multiple Data), like those found in graphic processing units (GPU), for the execution of divergent control flow graphs.
|
157 |
Sur quelques questions en théorie d'Iwasawa / On some questions in Iwasawa theoryVillanueva Gutiérrez, José Ibrahim 30 June 2017 (has links)
Ce travail de thèse comporte l'étude des invariants logarithmiques le long des $l^{d}$-extensions et se compose de trois parties étroitement reliées. La première partie est un compendium sur les divers approches à l'arithmétique algorithmique, c'est à dire l'étude générale des invariants logarithmiques. En particulier on y présente quatre définitions équivalentes du groupe de classes logarithmiques et on y démontre leur équivalence. On donne aussi une preuve alternative d'un théorème d'Iwasawa de type logarithmique. La deuxième partie s'interprète comme un addendum historique sur l'étude du groupe de classes logarithmiques le long des $l$-extensions. On démontre que sous la conjecture de Gross-Kuz'min la théorie d'Iwasawa peut être bien employée pour l'étude du cas non-cyclotomique. Ainsi, on démontre des relations entre les invariants $mu$ et $lambda$ correspondant au $ell$-groupe de classes avec les invariants $ilde{mu}$ et $ilde{lambda}$ attachés aux groupes de classes logarithmiques. La troisième partie comporte l'étude du module d'Iwasawa logarithmique pour des $l^{d}$-extensions, c'est à dire du groupe de Galois $X=Gal(L_{d}/K_{d})$ de la $ell$-extension maximale abélienne logarithmiquement non-ramifiée du compositum $K_{d}$ des différentes $l$-extensions d'un corps de nombres $K$. On démontre sous la conjecture de Gross-Kuz'min, de façon analogue au cas classique, que $X$ est bien un module noethérien et de torsion sous l'algèbre d'Iwasawa de $K_{d}$. Ainsi, on déduit des relations entre les invariants logarithmiques $ilde{mu}$ et $ilde{lambda}$ des $l$-extensions de $K$ qui satisfont une hypothèse de décomposition. / This work is concerned with the study of logarithmic invariants on $l^{d}$-extensions and is subdivided in three pieces, which are closely related to each other. The first part is a compendium of the different approaches to logarithmic arithmetic, that is the study of the logarithmic invariants. In particular we show the equivalence between the four definitions of the logarithmic class group existing in the literature. Also we give an alternative proof of an Iwasawa logarithmic result. The second part can be thought as an historic addendum on the study of the logarithmic class group over $l$-extensions. Assuming the Gross-Kuz'min conjecture we show that the logarithmic class group can be studied in the Iwasawa setting for non-cyclotomic extensions. We also give relations between the classical $mu$ and $lambda$ invariants and the logarithmic invariants $ilde{mu}$ and $ilde{lambda}$ attached to the logarithmic class groups. The third part studies the properties of the Iwasawa logarithmic module for $l^{d}$-extensions, that is the Galois group $X=Gal(L_{d}/K_{d})$ of the maximal abelian $ell$-extension logarithmically unramified of the compositum $K_{d}$ of the different $l$-extensions of a number field $K$. Assuming the Gross-Kuz'min conjecture we show that $X$ is a noetherian torsion module over the Iwasawa algebra of $K_{d}$. We also deduce relations between the logarithmic invariants $ilde{mu}$ and $ilde{lambda}$ of the $l$-extensions of $K$ which satisfy a splitting condition.
|
158 |
Application of hybrid uncertainty-clustering approach in pre-processing well-logs / Application de l'approche hybride incertitude-partitionnement pour le prétraitement des données de diagraphieMasoudi, Pedram 16 May 2017 (has links)
La thèse est principalement centrée sur l'étude de la résolution verticale des diagraphies. On outre, l'arithmétique floue est appliquée aux modèles expérimentaux pétrophysiques en vue de transmettre l'incertitude des données d'entrée aux données de sortie, ici la saturation irréductible en eau et la perméabilité. Les diagraphies sont des signaux digitaux dont les données sont des mesures volumétriques. Le mécanisme d'enregistrement de ces données est modélisé par des fonctions d'appartenance floues. On a montré que la Résolution Verticale de la Fonction d'Appartenance (VRmf) est supérieur d'espacement. Dans l'étape suivante, la fréquence de Nyquist est revue en fonction du mécanisme volumétrique de diagraphie ; de ce fait, la fréquence volumétrique de Nyquist est proposée afin d'analyser la précision des diagraphies. Basé sur le modèle de résolution verticale développée, un simulateur géométrique est conçu pour générer les registres synthétiques d'une seule couche mince. Le simulateur nous permet d'analyser la sensibilité des diagraphies en présence d'une couche mince. Les relations de régression entre les registres idéaux (données d'entrée de ce simulateur) et les registres synthétiques (données de sortie de ce simulateur) sont utilisées comme relations de déconvolution en vue d'enlever l'effet des épaules de couche d'une couche mince sur les diagraphies GR, RHOB et NPHI. Les relations de déconvolution ont bien été appliquées aux diagraphies pour caractériser les couches minces. Par exemple, pour caractériser une couche mince poreuse, on a eu recours aux données de carottage qui étaient disponibles pour la vérification : NPHI mesuré (3.8%) a été remplacé (corrigé) par 11.7%. NPHI corrigé semble être plus précis que NPHI mesuré, car la diagraphie a une valeur plus grande que la porosité de carottage (8.4%). Il convient de rappeler que la porosité totale (NPHI) ne doit pas être inférieure à la porosité effective (carottage). En plus, l'épaisseur de la couche mince a été estimée à 13±7.5 cm, compatible avec l'épaisseur de la couche mince dans la boite de carottage (<25 cm). Normalement, l'épaisseur in situ est inférieure à l'épaisseur de la boite de carottage, parce que les carottes obtenues ne sont plus soumises à la pression lithostatique, et s'érodent à la surface du sol. La DST est appliquée aux diagraphies, et l'intervalle d'incertitude de DST est construit. Tandis que la VRmf des diagraphies GR, RHOB, NPHI et DT est ~60 cm, la VRmf de l'intervalle d'incertitude est ~15 cm. Or, on a perdu l'incertitude de la valeur de diagraphie, alors que la VRmf est devenue plus précise. Les diagraphies ont été ensuite corrigées entre l'intervalle d'incertitude de DST avec quatre simulateurs. Les hautes fréquences sont amplifiées dans les diagraphies corrigées, et l'effet des épaules de couche est réduit. La méthode proposée est vérifiée dans les cas synthétiques, la boite de carottage et la porosité de carotte. L'analyse de partitionnement est appliquée aux diagraphies NPHI, RHOB et DT en vue de trouver l'intervalle d'incertitude, basé sur les grappes. Puis, le NPHI est calibré par la porosité de carottes dans chaque grappe. Le √MSE de NPHI calibré est plus bas par rapport aux cinq modèles conventionnels d'estimation de la porosité (au minimum 33% d'amélioration du √MSE). Le √MSE de généralisation de la méthode proposée entre les puits voisins est augmenté de 42%. L'intervalle d'incertitude de la porosité est exprimé par les nombres flous. L'arithmétique floue est ensuite appliquée dans le but de calculer les nombres flous de la saturation irréductible en eau et de la perméabilité. Le nombre flou de la saturation irréductible en eau apporte de meilleurs résultats en termes de moindre sous-estimation par rapport à l'estimation nette. Il est constaté que lorsque les intervalles de grappes de porosité ne sont pas compatibles avec la porosité de carotte, les nombres flous de la perméabilité ne sont pas valables. / In the subsurface geology, characterization of geological beds by well-logs is an uncertain task. The thesis mainly concerns studying vertical resolution of well-logs (question 1). In the second stage, fuzzy arithmetic is applied to experimental petrophysical relations to project the uncertainty range of the inputs to the outputs, here irreducible water saturation and permeability (question 2). Regarding the first question, the logging mechanism is modelled by fuzzy membership functions. Vertical resolution of membership function (VRmf) is larger than spacing and sampling rate. Due to volumetric mechanism of logging, volumetric Nyquist frequency is proposed. Developing a geometric simulator for generating synthetic-logs of a single thin-bed enabled us analysing sensitivity of the well-logs to the presence of a thin-bed. Regression-based relations between ideal-logs (simulator inputs) and synthetic-logs (simulator outputs) are used as deconvolution relations for removing shoulder-bed effect of thin-beds from GR, RHOB and NPHI well-logs. NPHI deconvolution relation is applied to a real case where the core porosity of a thin-bed is 8.4%. The NPHI well-log is 3.8%, and the deconvolved NPHI is 11.7%. Since it is not reasonable that the core porosity (effective porosity) be higher than the NPHI (total porosity), the deconvolved NPHI is more accurate than the NPHI well-log. It reveals that the shoulder-bed effect is reduced in this case. The thickness of the same thin-bed was also estimated to be 13±7.5 cm, which is compatible with the thickness of the thin-bed in the core box (<25 cm). Usually, in situ thickness is less than the thickness of the core boxes, since at the earth surface, there is no overburden pressure, also the cores are weathered. Dempster-Shafer Theory (DST) was used to create well-log uncertainty range. While the VRmf of the well-logs is more than 60 cm, the VRmf of the belief and plausibility functions (boundaries of the uncertainty range) would be about 15 cm. So, the VRmf is improved, while the certainty of the well-log value is lost. In comparison with geometric method, DST-based algorithm resulted in a smaller uncertainty range of GR, RHOB and NPHI logs by 100%, 71% and 66%, respectively. In the next step, cluster analysis is applied to NPHI, RHOB and DT for the purpose of providing cluster-based uncertainty range. Then, NPHI is calibrated by core porosity value in each cluster, showing low √MSE compared to the five conventional porosity estimation models (at least 33% of improvement in √MSE). Then, fuzzy arithmetic is applied to calculate fuzzy numbers of irreducible water saturation and permeability. Fuzzy number of irreducible water saturation provides better (less overestimation) results than the crisp estimation. It is found that when the cluster interval of porosity is not compatible with the core porosity, the permeability fuzzy numbers are not valid, e.g. in well#4. Finally, in the possibilistic approach (the fuzzy theory), by calibrating α-cut, the right uncertainty interval could be achieved, concerning the scale of the study.
|
159 |
Arithmétique mentale et sens du nombre: le rôle des habiletés numériques dans le choix et l'exécution des stratégies de résolution d'additions complexes /cMathieu Guillaume / Mental arithmetic and the number sense: the role of numerical abilities in the selection and in the execution of solving strategies for complex additions.Guillaume, Mathieu 09 October 2013 (has links)
La présente thèse a pour objectif de clarifier la nature de la relation entre les habiletés numériques innées – le Sens du Nombre – et les compétences en arithmétique apprises à l’école. L’originalité de cette recherche consiste en l’attention particulière que je porterai au rôle que jouent les habiletés numériques innées dans les différentes manières de résoudre une addition complexe, telle que 48 + 25, c’est-à-dire les stratégies de résolution. Dans le présent travail, je m’attèlerai à déterminer si la possession de compétences numériques plus développées favorise l’utilisation de procédures de calcul qui tiennent compte des propriétés numériques des opérandes du calcul, et si, inversement, la possession d’habiletés numériques plus imprécises entrave leur application, au profit de stratégies de calcul plus basiques. <p><p>À cette fin, j’axerai la présente thèse en trois volets distincts. Dans un premier volet, je vérifierai que les habiletés numériques sont essentielles à l’implémentation de toutes les stratégies de calcul, malgré le fait qu’elles soient engagées à des degrés d’élaboration différents en fonction de la stratégie exécutée. Ensuite, dans un second volet, je confirmerai que les compétences numériques orientent les préférences stratégiques ;comme je le supposais, les calculateurs possédant les habiletés numériques les plus développées ont davantage recours à des stratégies basées sur la magnitude complète des nombres, alors que ceux qui ont des capacités plus limitées les évitent. Enfin, dans un dernier volet, je mettrai en évidence que l’application de telles stratégies qui impliquent de traiter les numérosités entières engendre au niveau cérébral une activité accrue au sein des régions intrapariétales, aires dédiées au traitement des magnitudes numériques, par rapport aux autres procédures de calcul.<p><p>Les résultats que je rapporte dans la présente thèse mettent ainsi en évidence que les habiletés numériques sont critiques dans la résolution d’additions complexes non seulement au niveau de l’exécution de la stratégie de calcul, mais aussi dans l’établissement à long terme de la préférence stratégique des individus. Outre ces observations, la présente recherche plaide plus généralement en faveur de la prise en considération des stratégies de résolution dans les tâches arithmétiques, car les compétences numériques peuvent y être associées à des degrés différents. Au-delà de la simple performance, s’intéresser plus qualitativement aux stratégies de résolution constitue selon moi une étape cruciale dans la compréhension de la nature du lien entre le Sens du Nombre inné et les compétences en arithmétique.<p><p>/<p><p>The current thesis aims at clarifying the nature of the relationship between innate numerical abilities – the Number Sense – and arithmetic skills acquired at school. I will particularly focus in this research on the role played by these innate numerical abilities in selecting and executing the different procedures that could be used to solve a complex addition such as 48 + 27. In the current thesis, I will attempt to determine whether more elaborated numerical competence favours the utilisation of solving strategies that take into account the numerical properties of the addends, and conversely, whether inaccurate numerical representations discourage from using these strategies, for the benefit of more basic solving strategies.<p><p>In the current thesis, I will more specifically cover three different aspects. First of all, I will demonstrate that numerical abilities are crucial in implementing every solving strategy, but that they are engaged to a different extent as a function of the executed strategy. Secondly, I will show that numerical competence determine strategic preference; as I hypothesized, adults who possess the best numerical abilities would use more frequently solving strategies that are based on the entire numerical magnitude of the addends, whereas adults with more limited abilities would rather avoid them and execute basic procedures. Finally, in the third section, I will emphasize that the use of such elaborated solving strategies do imply at the cerebral level a stronger activity within the intraparietal regions, which are dedicated to the numerical magnitude processing, in comparison to other basic solving strategies.<p><p>The data I report here thus highlight that numerical abilities are essential in solving complex additions, not only in the execution of the solving strategy, but also in the long-term establishment of the preferred strategy. Besides this observation, the current thesis claims more generally in favour of the consideration of solving strategies when assessing arithmetic tasks, because numerical abilities are involved to a distinct extent in these tasks. Over and above regular performance, investigating through a qualitative perspective the solving strategies constitutes, according to me, a fundamental step in understanding the nature of the relationship between the innate Number Sense and arithmetic skills.<p> / Doctorat en Sciences Psychologiques et de l'éducation / info:eu-repo/semantics/nonPublished
|
160 |
Contrer l'attaque Simple Power Analysis efficacement dans les applications de la cryptographie asymétrique, algorithmes et implantations / Thwart simple power analysis efficiently in asymmetric cryptographic applications, algorithms and implementationsRobert, Jean-Marc 08 December 2015 (has links)
Avec le développement des communications et de l'Internet, l'échange des informations cryptées a explosé. Cette évolution a été possible par le développement des protocoles de la cryptographie asymétrique qui font appel à des opérations arithmétiques telles que l'exponentiation modulaire sur des grands entiers ou la multiplication scalaire de point de courbe elliptique. Ces calculs sont réalisés par des plates-formes diverses, depuis la carte à puce jusqu'aux serveurs les plus puissants. Ces plates-formes font l'objet d'attaques qui exploitent les informations recueillies par un canal auxiliaire, tels que le courant instantané consommé ou le rayonnement électromagnétique émis par la plate-forme en fonctionnement.Dans la thèse, nous améliorons les performances des opérations résistantes à l'attaque Simple Power Analysis. Sur l'exponentiation modulaire, nous proposons d'améliorer les performances par l'utilisation de multiplications modulaires multiples avec une opérande commune optimisées. Nous avons proposé trois améliorations sur la multiplication scalaire de point de courbe elliptique : sur corps binaire, nous employons des améliorations sur les opérations combinées AB,AC et AB+CD sur les approches Double-and-add, Halve-and-add et Double/halve-and-add et l'échelle binaire de Montgomery ; sur corps binaire, nous proposons de paralléliser l'échelle binaire de Montgomery ; nous réalisons l'implantation d'une approche parallèle de l'approche Right-to-left Double-and-add sur corps premier et binaire, Halve-and-add et Double/halve-and-add sur corps binaire. / The development of online communications and the Internet have made encrypted data exchange fast growing. This has been possible with the development of asymmetric cryptographic protocols, which make use of arithmetic computations such as modular exponentiation of large integer or elliptic curve scalar multiplication. These computations are performed by various platforms, including smart-cards as well as large and powerful servers. The platforms are subject to attacks taking advantage of information leaked through side channels, such as instantaneous power consumption or electromagnetic radiations.In this thesis, we improve the performance of cryptographic computations resistant to Simple Power Analysis. On modular exponentiation, we propose to use multiple multiplications sharing a common operand to achieve this goal. On elliptic curve scalar multiplication, we suggest three different improvements : over binary fields, we make use of improved combined operation AB,AC and AB+CD applied to Double-and-add, Halve-and-add and Double/halve-and-add approaches, and to the Montgomery ladder ; over binary field, we propose a parallel Montgomery ladder ; we make an implementation of a parallel approach based on the Right-to-left Double-and-add algorithm over binary and prime fields, and extend this implementation to the Halve-and-add and Double/halve-and-add over binary fields.
|
Page generated in 0.0639 seconds