• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 199
  • 73
  • 20
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 299
  • 125
  • 102
  • 76
  • 46
  • 44
  • 37
  • 36
  • 35
  • 29
  • 26
  • 24
  • 24
  • 22
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Contribution à la modélisation mathématique pour la simulation et l'observation d'états des bioprocédés

Bogaerts, Philippe 21 April 1999 (has links)
Les bioprocédés ont connu un essor considérable au cours de ces dernières années et sont promis à un bel avenir. Qu'il s'agisse de la production de vaccins, de la fermentation de levures pour l'industrie alimentaire ou encore de l'épuration biologique des eaux usées, les applications sont nombreuses et les produits sont d'un intérêt capital pour l'être humain. Étant donnés le coût et le temps de mise en oeuvre de ces procédés, il est particulièrement utile de construire des simulateurs permettant de reproduire le comportement macroscopique des cultures cellulaires utilisées. Ces simulateurs peuvent servir à déterminer des conditions optimales de fonctionnement (en fonction des critères de l'utilisateur) et à tester certains outils (régulateurs, capteurs logiciels, etc.). Par ailleurs, il est nécessaire, pour le suivi et la régulation de ces procédés, de disposer de grandeurs mesurées (concentrations cellulaires, en substrats, en le produit d'intérêt, etc.). Les problèmes liés à la mesure matérielle de ces grandeurs sont nombreux: coût des capteurs, destruction des échantillons, longues périodes d'échantillonnage, temps d'analyse élevés, etc. Il est dès lors utile de construire des observateurs d'états (ou capteurs logiciels) fournissant une estimation en temps continu de grandeurs non mesurées sur la base d'un modèle mathématique et de certaines mesures matérielles.<p><p>Les modèles mathématiques sont nécessaires pour la synthèse des deux types d'outils envisagés dans ce travail (simulateurs et capteurs logiciels). Les modèles utilisés consistent en les bilans massiques des constituants apparaissant dans le schéma réactionnel, ce dernier contenant les réactions essentielles pour la description des phénomènes à l'échelle macroscopique. Au sein de ces bilans massiques, une nouvelle structure générale de modèle cinétique est proposée, possédant un certain nombre de propriétés intéressantes, telles l'interprétation physique des paramètres cinétiques, les concentrations définies positives sous certaines conditions, la garantie de stabilité entrées bornées - états bornés, ou encore la possibilité de linéarisation en les paramètres à estimer.<p><p>Une méthodologie générale d'estimation paramétrique est proposée, afin d'identifier les coefficients pseudo-stoechiométriques, les coefficients cinétiques et certains paramètres expérimentaux (concentrations initiales des cultures). Cette méthodologie possède un caractère systématique, prend en compte les erreurs de mesure sur l'ensemble des signaux (y compris à l'instant initial), fournit à l'utilisateur la covariance des erreurs d'estimation paramétrique, prend en compte intrinsèquement les contraintes de signe sur les paramètres, fournit une estimation des erreurs de simulation, permet de réduire le nombre d'équations différentielles au sein du modèle, etc. La mise en oeuvre et l'intérêt de ces outils sont illustrés en simulation (cultures bactériennes) et dans le cas d'une application réelle (cultures de cellules animales CHO).<p><p>La première catégorie d'observateurs d'états étudiée dans ce travail est celle des observateurs utilisant pleinement le modèle cinétique. L'observation d'états basée sur l'identification des conditions initiales les plus vraisemblables est plus particulièrement analysée. Elle consiste à estimer en temps continu l'entièreté de l'état par intégration d'un modèle de simulation au départ des conditions initiales les plus vraisemblables. Ces dernières sont identifiées à chaque nouvel instant de mesure sur la base de toute l'information disponible jusqu'à cet instant. Certaines propriétés mathématiques sont étudiées (dont une comparaison avec le filtre de Kalman) et un certain nombre d'extensions de la méthode sont proposées (dont une version récurrente qui ne nécessite plus de résoudre un problème d'optimisation non linéaire à chaque nouvel instant de mesure). Ces outils sont à nouveau illustrés dans le cadre des cultures de cellules animales CHO, et se basent sur les modèles de simulation développés dans la première partie du travail.<p><p>Étant donné les risques de divergence des observateurs de cette première catégorie lorsque la qualité du modèle cinétique n'est pas suffisante, une seconde catégorie est envisagée, constituée des observateurs utilisant partiellement le modèle cinétique. Dans ce contexte, un nouvelle technique est proposée consistant en un observateur hybride entre le filtre de Kalman étendu (utilisant pleinement le modèle cinétique) et l'observateur asymptotique de Bastin et Dochain (n'utilisant pas du tout le modèle cinétique). Cette structure estime (conjointement avec l'état du système) un degré de confiance en le modèle cinétique. Elle est capable d'évoluer de façon progressive, en fonction de ce degré de confiance, entre les deux solutions extrêmes (filtre de Kalman et observateur asymptotique), tirant ainsi parti des avantages respectifs de ces deux méthodes selon les conditions opératoires et la qualité du modèle cinétique. Ces outils sont validés sur des cultures bactériennes simulées.<p><p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
272

Reusability and hierarchical simulation modeling of communication systems for performance evaluation: Simulation environment, basic and generic models, transfer protocols

Mrabet, Radouane 12 June 1995 (has links)
<p align="justify">The main contribution of this thesis is the emphasis made on the reusability concept, on one side, for designing a simulation environment, and on the other side, for defining two different levels of granularity for reusable network component libraries.</p><p><p align="justify">The design of our simulation environment, called AMS for Atelier for Modeling and Simulation, was based on existing pieces of software, which proved their usefulness in their respective fields. In order to carry out this integration efficiently, a modular structure of the atelier was proposed. The structure has been divided into four phases. Each phase is responsible of a part of the performance evaluation cycle. The main novelty of this structure is the usage of a dedicated language as a means to define a clear border between the editing and simulation phases and to allow the portability of the atelier upon different platforms. A prototype of the atelier has been developed on a SUN machine running the SunOs operating system. It is developed in C language.</p><p><p align="justify">The kernel of the AMS is its library of Detailed Basic Models (DBMs). Each DBM was designed in order to comply with the most important criterion which is reusability. Indeed, each DBM can be used in aeveral network architectures and can be a component of generic and composite models. Before the effective usage of a DBM, it is verified and validated in order to increase the model credibility. The most important contribution of this research is the definition of a methodology for modeling protocol entities as DBMs. We then tried to partly bridge the gap between specification and modeling. This methodology is based on the concept of function. Simple functions are modeled as reusable modules and stored into a library. The Function Based Methodology was designed to help the modeler to build efficiently and rapidly new protocols designed for the new generation of networks where several services can be provided. These new protocols can be dynamically tailored to the user' s requirements.</p><p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
273

Searching over encrypted data / Recherches sur des données chiffrées

Moataz, Tarik 05 December 2016 (has links)
Les services cloud offrent des coûts réduits, une élasticité et un espace de stockage illimité qui attirent de nombreux utilisateurs. Le partage de fichiers, les plates-formes collaboratives, les plateformes de courrier électroniques, les serveurs de sauvegarde et le stockage de fichiers sont parmi les services qui font du cloud un outil essentiel pour une utilisation quotidienne. Actuellement, la plupart des systèmes d'exploitation proposent des applications de stockage externalisées intégrées, par conception, telles que One Drive et iCloud, en tant que substituts naturels succédant au stockage local. Cependant, de nombreux utilisateurs, même ceux qui sont disposés à utiliser les services susmentionnés, restent réticents à adopter pleinement le stockage et les services sous-traités dans le cloud. Les préoccupations liées à la confidentialité des données augmentent l'incertitude pour les utilisateurs qui conservent des informations sensibles. Il existe de nombreuses violations récurrentes de données à l'échelle mondiale qui ont conduit à la divulgation d'informations sensibles par les utilisateurs. Pour en citer quelques-uns : une violation de Yahoo fin 2014 et annoncé publiquement en Septembre 2016, connue comme la plus grande fuite de données de l'histoire d'Internet, a conduit à la divulgation de plus de 500 millions de comptes utilisateur ; une infraction aux assureurs-maladie, Anthem en février 2015 et Premera BlueCross BlueShield en mars 2015, qui a permis la divulgation de renseignements sur les cartes de crédit, les renseignements bancaires, les numéros de sécurité sociale, pour des millions de clients et d'utilisateurs. Une contre-mesure traditionnelle pour de telles attaques dévastatrices consiste à chiffrer les données des utilisateurs afin que même si une violation de sécurité se produit, les attaquants ne peuvent obtenir aucune information à partir des données. Malheureusement, cette solution empêche la plupart des services du cloud, et en particulier, la réalisation des recherches sur les données externalisées.Les chercheurs se sont donc intéressés à la question suivante : comment effectuer des recherches sur des données chiffrées externalisées tout en préservant une communication, un temps de calcul et un stockage acceptables ? Cette question avait plusieurs solutions, reposant principalement sur des primitives cryptographiques, offrant de nombreuses garanties de sécurité et d'efficacité. Bien que ce problème ait été explicitement identifié pendant plus d'une décennie, de nombreuses dimensions de recherche demeurent non résolues. Dans ce contexte, le but principal de cette thèse est de proposer des constructions pratiques qui sont (1) adaptées aux déploiements dans les applications réelles en vérifiant les exigences d'efficacité nécessaires, mais aussi, (2) en fournissant de bonnes assurances de sécurité. Tout au long de notre recherche, nous avons identifié le chiffrement cherchable (SSE) et la RMA inconsciente (ORAM) comme des deux potentielles et principales primitives cryptographiques candidates aux paramètres des applications réelles. Nous avons identifié plusieurs défis et enjeux inhérents à ces constructions et fourni plusieurs contributions qui améliorent significativement l'état de l'art.Premièrement, nous avons contribué à rendre les schémas SSE plus expressifs en permettant des requêtes booléennes, sémantiques et de sous-chaînes. Cependant, les praticiens doivent faire très attention à préserver l'équilibre entre la fuite d'information et le degré d'expressivité souhaité. Deuxièmement, nous améliorons la bande passante de l'ORAM en introduisant une nouvelle structure récursive de données et une nouvelle procédure d'éviction pour la classe d'ORAM ; nous introduisons également le concept de redimensionnabilibté dans l'ORAM qui est une caractéristique requise pour l'élasticité de stockage dans le cloud. / Cloud services offer reduced costs, elasticity and a promised unlimited managed storage space that attract many end-users. File sharing, collaborative platforms, email platforms, back-up servers and file storage are some of the services that set the cloud as an essential tool for everyday use. Currently, most operating systems offer built-in outsourced cloud storage applications, by design, such as One Drive and iCloud, as natural substitutes succeeding to the local storage. However, many users, even those willing to use the aforementioned cloud services, remain reluctant towards fully adopting cloud outsourced storage and services. Concerns related to data confidentiality rise uncertainty for users maintaining sensitive information. There are many, recurrent, worldwide data breaches that led to the disclosure of users' sensitive information. To name a few: a breach of Yahoo late 2014 and publicly announced on September 2016, known as the largest data breach of Internet history, led to the disclosure of more than 500 million user accounts; a breach of health insurers, Anthem in February 2015 and Premera BlueCross BlueShield in March 2015, that led to the disclosure of credit card information, bank account information, social security numbers, data income and more information for more than millions of customers and users. A traditional countermeasure for such devastating attacks consists of encrypting users' data so that even if a security breach occurs, the attackers cannot get any information from the data. Unfortunately, this solution impedes most of cloud services, and in particular, searching on outsourced data. Researchers therefore got interrested in the fllowing question: how to search on outsourced encrypted data while preserving efficient communication, computation and storage overhead? This question had several solutions, mostly based on cryptographic primitives, offering numerous security and efficiency guarantees. While this problem has been explicitly identified for more than a decade, many research dimensions remain unsolved. The main goal of this thesis is to come up with practical constructions that are (1) suitable for real life deployments verifying necessary efficiency requirements, but also, (2) providing good security insurances. Throughout our reseach investigation, we identified symmetric searchable encryption (SSE) and oblivious RAM (ORAM) as the two potential and main cryptographic primitives' candidate for real life settings. We have recognized several challenges and issues inherent to these constructions and provided a number of contributions that improve upon the state of the art. First, we contributed to make SSE schemes more expressive by enabling Boolean, semantic, and substring queries. Practitioners, however, need to be very careful about the provided balance between the security leakage and the degree of desired expressiveness. Second, we improve ORAM's bandwidth by introducing a novel recursive data structure and a new eviction procedure for the tree-based class of ORAM contructions, but also, we introduce the concept of resizability in ORAM which is a required feature for cloud storage elasticity.
274

Analyse économique de la norme juridique : des origines constitutionnelles à la mise en oeuvre par le juge / Economic analysis of legal norms : from the constitutional origins to the enforcement by the judge

Espinosa, Romain 17 November 2015 (has links)
Les questions de légitimité et de stabilité des systèmes politiques ont longtemps été étudiées séparément des problèmes de mise en oeuvre du droit en sciences économiques. L’objectif de cette thèse est concilier ces différentes approches afin de replacer la mise en oeuvre de la norme juridique au centre du débat institutionnel. Ce travail se décompose en cinq investigations empiriques ou expérimentales portant chacune sur une des étapes du processus politique et judiciaire.Le premier article s’intéresse à l’impact des droits constitutionnels sur les dépenses publiques. La seconde étude explore l’influence des biais d’auto-complaisance sur la demande et l’offre de redistribution. Le troisième travail analyse les décisions rendues par le Conseil Constitutionnel. La quatrième partie examine la réforme de la carte judiciaire des Conseils de Prud’hommes de 2008. Le dernier chapitre étudie la relation entre la composition syndicale des Conseils de Prud’hommes et les issues des litiges qui y sont portés.Nos analyses reposent sur les outils économétriques et expérimentaux. Elles font usage de méthodes d’estimations classiques (OLS, GLS, Probit, Logit, Within OLS), de modèles à sélection (Heckman, Triprobit), des outils destinés aux problèmes d’endogénéité (2SLS)et des techniques d’estimation de systèmes d’équation (3SLS). L’approche expérimentale contient également des tests statistiques communément appliqués (tests de permutation,tests de comparaison de moyenne, tests de proportion) ainsi que de récentes méthodes pour traiter l’hétérogénéité (wild clustering). / The legitimacy and the stability of political systems have very often been studied in economics separate from considerations about legal norms’ enforcement. My objective is to combine these different approaches, and to place the question of the legal enforcement at the heart of the debate about institutions. This work is made of cinq empirical and experimental investigations that deal with each of the stages of the political and legal process.This first paper analyzes the impact of constitutional rights on public expenditures. The second article explores the influence of self-serving biases on the demand and the supplyof redistribution. The third analysis focuses on the decisions of the French Constitutional Council. The fourth work deals with the recent reform of the judiciary map of Frenchlabor courts. The last study investigates the relationship between the composition of the elected jurors in French labor courts and the way cases are terminated.Our investigations rely on econometric and experimental techniques. They use standard estimation methods (OLS, GLS, Probit, Logit, Within OLS), selection models (Heckman,Triprotibt), techniques for endogeneity correction (2SLS), and methods to estimate systems of equations (3SLS). The experimental analysis makes use of standard statistical tests(permutation tests, proportion tests, two-group mean-comparison tests), and more recent methods to solve heterogeneity (wild clustering).
275

Intéressement, actionnariat et conflits dans l'entreprise : études sur données d'entreprises françaises / Profit Sharing, Employee Ownership and Conflicts in the Firm : evidences from French Firms

Tall, Aguibou Bougobaly 20 June 2016 (has links)
L'idée de base des contrats incitatifs est celle de la réalisation d'intérêts communs provoquant des changements dans le comportement des salariés et l'amélioration de la performance de l'entreprise. Les résultats et les succès de l'entreprise dépendent également du climat des relations professionnelles. Dans ce contexte, l'objectif de cette thèse est de contribuer à la compréhension de la participation financière (l'intéressement et l'actionnariat salarié) et ses liens avec les conflits à partir de données d'entreprises françaises. La recherche sur ces deux thèmes est d'une importance pratique et novatrice. Tout d'abord, il existe au sein de l'entreprise une multitude de types de conflits. Nous nous intéressons principalement aux conflits collectifs. Ensuite, la plupart des études sur les conflits collectifs se concentre uniquement sur les grèves, en ignorant les autres formes d'actions collectives, et très peu d'études font le lien avec les systèmes d'incitations collectives au sein de l'entreprise. Ainsi, ce travail se décompose en quatre études empiriques. La première vise à analyser les différentes formes de conflits au sein de l'entreprise. La deuxième analyse l'effet de la participation financière sur les conflits collectifs. La troisième étude s'intéresse à l'impact de la négociation et de la participation financière sur la résolution des conflits collectifs. Enfin, la dernière examine la performance des entreprises en fonction de la participation financière et des conflits collectifs. Nos recherches reposent sur des outils d'analyse multidimensionnelle et économétriques. L'approche multidimensionnelle fait appel à l'Analyse des Correspondances Multiples et à la Classification Hiérarchique Ascendante.L'approche économétrique fait usage de méthodes d'estimations classiques (OLS,Probit Simple, Probit Multinomial, Probit Ordonné), de modèles à sélection (Heckman), et des techniques d'estimations de modèles récursifs à équations simultanées traitant ainsi les problèmes d'endogénéité et la mixture (quantitative et qualitative) des variables dépendantes (Roodman, Conditional Mixed Process). / The basic idea of incentive contracts is that of achieving common interests causing changes in the behavior of employees and improving firm performance.The firms' outputs and success also depend on the industrial relation climate. In this context, the aim of this thesis is to contribute to the understanding offinancial participation (profit sharing and employee share ownership) and its links with the conflicts using data on French firms. Research on these topics isinnovative and highly recommended. First, there exists within the firm a multitude of types of conflicts. We are primarily concerned with collective conflicts. Most of studies on collective conflicts focuses only on strikes, ignoring other forms of collective actions. Very few studies make the link between collective incentive schemes and collective conflicts. Thus, this work is dividedinto four empirical studies. The first one analyzes the different forms of conflicts within the firm. The second one analyzes the effect of financial participation on collective conflicts. The third study focuses on the impact of bargaining and financial participation on the resolution of collective conflicts. The last one examines firm's performance based on financial participation and collective conflicts. Our research is based on multidimensional analysis and econometric tools. The multidimensional approach uses the Multiple Correspondence Analysis and Ascending Hierarchical Clustering. The econometric approach usesclassical estimation methods (OLS, Probit, Mutinomial Probit, Ordered Pobit),selection models (Heckman), and methods estimating simultaneous and recursive equations, treating the endogeneity problems and the mixture (quantitative and qualitative) of the dependent variables (Roodman, Conditional Mixed Process).
276

Développement de méthodes pour le diagnostic, le contrôle, la surveillance de la tuberculose à bacilles ultra-résistants et des souches épidémiques Beijing / Development of methods for the diagnostic, the control and the monitoring of tuberculosis with Bacilles extensively resistante and epidemic Beijing strain

Klotoe, Jésutondin Bernice Mélaine 18 October 2018 (has links)
La tuberculose MDR/XDR (multi et ultrarésistante aux antituberculeux) causée par Mycobacterium tuberculosis constitue un problème de santé publique mondial. L’étude et l’identification des mutations responsables de la résistance sont des facteurs clés pour le contrôle et la surveillance de la tuberculose MDR/XDR. L’expansion de lignée L2/Beijing, une famille de souches originaire du Sud-Est de la Chine (Guangxi) potentiellement plus virulente, complique la maitrise de cette maladie. Dans ce contexte, nous avons développé le TB-EFI et le TB IS-NTF/RINT, deux méthodes moléculaires rapides, multiplexées et haut débit (développées sur le système Luminex xMap), prêtes à utilisation. Nous avons initié le développement d’une méthode moléculaire par la sélection de marqueurs moléculaires pertinents en vue de la discrimination des souches Beijing par la technique MLPA-Beijing. Le TB-EFI est un test qui permet d’identifier les mutations fréquentes (polymorphismes de nucléotides simples) dans les gènes associés à la résistance des souches de Mycobacterium tuberculosis aux antituberculeux de deuxième ligne dont la Fluoroquinolone, les Injectables, et à l’antituberculeux de première ligne, l’Ethambutol. Le TB-EFI pourrait être un test utilisable dans les études rétrospectives en vue du suivi de la résistance d’une population. Le test IS-NTF/RINT est un test spécifique aux souches Beijing qui type la séquence d’insertion IS6110 au sein du locus NTF (Ancien/moderne) et détecte les mutations responsables de la résistance de ces souches à la Rifampicine et l’Isoniazide (les deux antibiotiques principaux de première ligne). Ce test est d’une importance capitale pour l’identification et le contrôle des souches épidémiques, mais aussi pour une vision sur l’évolution du phénomène de résistance dans le temps et l’espace. Il est peu discriminant pour la différenciation des souches Beijing. En vue d’une discrimination complète et précise des souches Beijing, nous avons proposé un lot de SNP qui serviront pour la technique MLPA-Beijing. Par ailleurs, ces méthodes ainsi que le spoligotypage sur microbille, nous ont permis d’effectuer des études d’épidémiologie moléculaire de la tuberculose au Kazakhstan, en Nouvelle Guinée Papouasie, en Italie, au Mozambique, au Pérou. Les techniques développées dans cette thèse pourraient contribuer de manière significative au contrôle de la tuberculose XDR dans les zones « hot-spot », et à la surveillance mondiale de l’évolution des souches Beijing spécialement des souches MDR épidémiques. / MDR / XDR (multidrug and extensively resistant to tuberculosis) TB caused by Mycobacterium tuberculosis is still a global public health problem. The study and identification of mutations responsible for resistance are important factors for the control and surveillance of MDR / XDR TB. The expansion of the L2 / Beijing lineage, a family of strains originating from South-East of China (Guangxi) and potentially more virulent, complicates the control of this disease. In this context, we have developed TB-EFI and TB IS-NTF / RINT, two high-speed, multiplexed and high-throughput molecular methods ready to use (developed on the Luminex xMap system). We initiated the development of a molecular method by the selection of relevant molecular markers for the discrimination of Beijing strains by the MLPA technique. TB-EFI is a test that identifies frequent mutations (single nucleotide polymorphisms) in the genes associated with the resistance of Mycobacterium tuberculosis strains to second-line anti-TB drugs including Fluoroquinolone, Injectable, and first-line antituberculosis drug, Ethambutol. TB-EFI may be used in retrospective studies to monitor resistance in a population. The IS-NTF / RINT test is a test specific to Beijing strains that types the IS6110 insertion sequence within the NTF locus (Ancient / Modern) and detects the mutations responsible for the resistance of these strains to Rifampicin and Isoniazid (the two leading primary antibiotics). This test is of paramount importance for the identification and control of epidemic strains, but also for a vision on the evolution of the phenomenon of resistance in time and space. It is not very discriminating among Beijing strains. In view of complete and precise discrimination of the Beijing strains, we have proposed a set of SNPs that will be used for a technique that will be called MLPA-Beijing. In addition, these methods as well as spoligotyping on microbeads allowed us to carry out molecular epidemiological studies of tuberculosis in Kazakhstan, Papua New Guinea, Italy, Mozambique and Peru. The techniques developed in this thesis could contribute significantly to the control of XDR tuberculosis in hot-spot areas, and to the global monitoring of the evolution of Beijing strains especially epidemic MDR strains.
277

Use of simulators for side-channel analysis: Leakage detection and analysis of cryptographic systems in early stages of development

Veshchikov, Nikita 23 August 2017 (has links) (PDF)
Cryptography is the foundation of modern IT security,it provides algorithms and protocols that can be usedfor secure communications. Cryptographic algorithmsensure properties such as confidentiality and data integrity.Confidentiality can be ensured using encryption algorithms.Encryption algorithms require a secret information called a key.These algorithms are implemented in cryptographic devices.There exist many types of attacks against such cryptosystems,the main goal of these attacks is the extraction of the secret key.Side-channel attacks are among the strongest types of attacksagainst cryptosystems. Side-channel attacks focus on the attacked device, they measure its physicalproperties in order to extract the secret key. Thus, these attacks targetweaknesses in an implementation of an algorithm rather than the abstract algorithm itself.Power analysis is a type of side-channel attacks that can be used to extract a secretkey from a cryptosystem through the analysis of its power consumption whilethe target device executes an encryption algorithm. We can say that the secret information is leaking from the device through itspower consumption. One of the biggest challenges in the domain of side-channel analysisis the evaluation of a device from the perspective of side-channel attacksor in other words the detection of information leakage.A device can be subject to several sources of information leakageand it is actually relatively easy to find just one side-channel attack that works(by exploiting just one source of leakage),however it is very difficult to find all sources of information leakage or to show that there is no information leakage in the givenimplementation of an encryption algorithm. Evaluators use various statistical tests during the analysis of a cryptographic device to checkthat it does not leak the secret key. However, in order to performsuch tests the evaluation lab needs the device to acquire the measurementsand analyse them. Unfortunately, the development process of cryptographicsystems is rather long and has to go through several stages. Thus, an information leakagethat can lead to a side-channel attackcan be discovered by an evaluation lab at the very last stage using the finalproduct. In such case, the whole process has to be restarted in order to fix the issue,this can lead to significant time and budget overheads. The rationale is that developers of cryptographic systems would like to be able to detect issues related to side-channel analysis during the development of the system,preferably on the early stages of its development. However, it is far from beinga trivial task because the end product is not yet available andthe nature of side-channel attacks is such that it exploits the properties ofthe final version of the cryptographic device that is actually available to the end user. The goal of this work is to show how simulators can be used for the detection of issues related to side-channel analysis during the development of cryptosystems.This work lists the advantages of simulators compared to physical experimentsand suggests a classification of simulators for side-channel analysis.This work presents existing simulators that were created for side-channel analysis,more specifically we show that there is a lack of available simulation toolsand that therefore simulators are rarely used in the domain. We present threenew open-source simulators called Silk, Ascold and Savrasca.These simulators are working at different levels of abstraction,they can be used by developers to perform side-channel analysisof the device during different stages of development of a cryptosystem.We show how Silk can be used during the preliminary analysisand development of cryptographic algorithms using simulations based on high level of abstraction source code. We used it to compare S-boxesas well as to compare shuffling countermeasures against side-channel analysis.Then, we present the tool called Ascold that can be used to find side-channel leakagein implementations with masking countermeasure using the analysis of assembly code of the encryption.Finally, we demonstrate how our simulator called Savrasca can be used to find side-channelleakage using simulations based on compiled executable binaries. We use Savrascato analyse masked implementation of a well-known contest on side-channel analysis (the 4th edition of DPA Contest),as a result we demonstrate that the analysed implementation contains a previouslyundiscovered information leakage. Through this work we alsocompared results of our simulated experiments with real experiments comingfrom implementations on microcontrollers and showed that issues found using our simulatorsare also present in the final product. Overall, this work emphasises that simulatorsare very useful for the detection of side-channel leakages in early stages of developmentof cryptographic systems. / Option Informatique du Doctorat en Sciences / info:eu-repo/semantics/nonPublished
278

Towards robust prediction of the dynamics of the Antarctic ice sheet: Uncertainty quantification of sea-level rise projections and grounding-line retreat with essential ice-sheet models / Vers des prédictions robustes de la dynamique de la calotte polaire de l'Antarctique: Quantification de l'incertitude sur les projections de l'augmentation du niveau des mers et du retrait de la ligne d'ancrage à l'aide de modèles glaciologiques essentiels

Bulthuis, Kevin 29 January 2020 (has links) (PDF)
Recent progress in the modelling of the dynamics of the Antarctic ice sheet has led to a paradigm shift in the perception of the Antarctic ice sheet in a changing climate. New understanding of the dynamics of the Antarctic ice sheet now suggests that the response of the Antarctic ice sheet to climate change will be driven by instability mechanisms in marine sectors. As concerns have grown about the response of the Antarctic ice sheet in a warming climate, interest has grown simultaneously in predicting with quantified uncertainty the evolution of the Antarctic ice sheet and in clarifying the role played by uncertainties in predicting the response of the Antarctic ice sheet to climate change. Essential ice-sheet models have recently emerged as computationally efficient ice-sheet models for large-scale and long-term simulations of the ice-sheet dynamics and integration into Earth system models. Essential ice-sheet models, such as the fast Elementary Thermomechanical Ice Sheet (f.ETISh) model developed at the Université Libre de Bruxelles, achieve computational tractability by representing essential mechanisms and feedbacks of ice-sheet thermodynamics through reduced-order models and appropriate parameterisations. Given their computational tractability, essential ice-sheet models combined with methods from the field of uncertainty quantification provide opportunities for more comprehensive analyses of the impact of uncertainty in ice-sheet models and for expanding the range of uncertainty quantification methods employed in ice-sheet modelling. The main contributions of this thesis are twofold. On the one hand, we contribute a new assessment and new understanding of the impact of uncertainties on the multicentennial response of the Antarctic ice sheet. On the other hand, we contribute new methods for uncertainty quantification of geometrical characteristics of the spatial response of physics-based computational models, with, as a motivation in glaciology, a focus on predicting with quantified uncertainty the retreat of the grounded region of the Antarctic ice sheet. For the first contribution, we carry out new probabilistic projections of the multicentennial response of the Antarctic ice sheet to climate change using the f.ETISh model. We apply methods from the field of uncertainty quantification to the f.ETISh model to investigate the influence of several sources of uncertainty, namely sources of uncertainty in atmospheric forcing, basal sliding, grounding-line flux parameterisation, calving, sub-shelf melting, ice-shelf rheology, and bedrock relation, on the continental response on the Antarctic ice sheet. We provide new probabilistic projections of the contribution of the Antarctic ice sheet to future sea-level rise; we carry out stochastic sensitivity analysis to determine the most influential sources of uncertainty; and we provide new probabilistic projections of the retreat of the grounded portion of the Antarctic ice sheet. For the second contribution, we propose to address uncertainty quantification of geometrical characteristics of the spatial response of physics-based computational models within the probabilistic context of the random set theory. We contribute to the development of the concept of confidence sets that either contain or are contained within an excursion set of the spatial response with a specified probability level. We propose a new multifidelity quantile-based method for the estimation of such confidence sets and we demonstrate the performance of the proposed method on an application concerned with predicting with quantified uncertainty the retreat of the Antarctic ice sheet. In addition to these two main contributions, we contribute to two additional pieces of research pertaining to the computation of Sobol indices in global sensitivity analysis in small-data settings using the recently introduced probabilistic learning on manifolds (PLoM) and to a multi-model comparison of the projections of the contribution of the Antarctic ice sheet to global mean sea-level rise. / Les progrès récents effectués dans la modélisation de la dynamique de la calotte polaire de l'Antarctique ont donné lieu à un changement de paradigme vis-à-vis de la perception de la calotte polaire de l'Antarctique face au changement climatique. Une meilleure compréhension de la dynamique de la calotte polaire de l'Antarctique suggère désormais que la réponse de la calotte polaire de l'Antarctique au changement climatique sera déterminée par des mécanismes d'instabilité dans les régions marines. Tandis qu'un nouvel engouement se porte sur une meilleure compréhension de la réponse de la calotte polaire de l'Antarctique au changement climatique, un intérêt particulier se porte simultanément vers le besoin de quantifier les incertitudes sur l'évolution de la calotte polaire de l'Antarctique ainsi que de clarifier le rôle joué par les incertitudes sur le comportement de la calotte polaire de l'Antarctique en réponse au changement climatique. D'un point de vue numérique, les modèles glaciologiques dits essentiels ont récemment été développés afin de fournir des modèles numériques efficaces en temps de calcul dans le but de réaliser des simulations à grande échelle et sur le long terme de la dynamique des calottes polaires ainsi que dans l'optique de coupler le comportement des calottes polaires avec des modèles globaux du sytème terrestre. L'efficacité en temps de calcul de ces modèles glaciologiques essentiels, tels que le modèle f.ETISh (fast Elementary Thermomechanical Ice Sheet) développé à l'Université Libre de Bruxelles, repose sur une modélisation des mécanismes et des rétroactions essentiels gouvernant la thermodynamique des calottes polaires au travers de modèles d'ordre réduit et de paramétrisations. Vu l'efficacité en temps de calcul des modèles glaciologiques essentiels, l'utilisation de ces modèles en complément des méthodes du domaine de la quantification des incertitudes offrent de nombreuses opportunités afin de mener des analyses plus complètes de l'impact des incertitudes dans les modèles glaciologiques ainsi que de développer de nouvelles méthodes du domaine de la quantification des incertitudes dans le cadre de la modélisation glaciologique. Les contributions de cette thèse sont doubles. D'une part, nous contribuons à une nouvelle estimation et une nouvelle compréhension de l'impact des incertitudes sur la réponse de la calotte polaire de l'Antarctique dans les prochains siècles. D'autre part, nous contribuons au développement de nouvelles méthodes pour la quantification des incertitudes sur les caractéristiques géométriques de la réponse spatiale de modèles physiques numériques avec, comme motivation en glaciologie, un intérêt particulier vers la prédiction sous incertitudes du retrait de la région de la calotte polaire de l'Antarctique en contact avec le lit rocheux. Dans le cadre de la première contribution, nous réalisons de nouvelles projections probabilistes de la réponse de la calotte polaire de l'Antarctique au changement climatique au cours des prochains siècles à l'aide du modèle numérique f.ETISh. Nous appliquons des méthodes du domaine de la quantification des incertitudes au modèle numérique f.ETISh afin d'étudier l'impact de différentes sources d'incertitude sur la réponse continentale de la calotte polaire de l'Antarctique. Les sources d'incertitude étudiées sont relatives au forçage atmosphérique, au glissement basal, à la paramétrisation du flux à la ligne d'ancrage, au vêlage, à la fonte sous les barrières de glace, à la rhéologie des barrières de glace et à la relaxation du lit rocheux. Nous réalisons de nouvelles projections probabilistes de la contribution de la calotte polaire de l'Antarctique à l'augmentation future du niveau des mers; nous réalisons une analyse de sensibilité afin de déterminer les sources d'incertitude les plus influentes; et nous réalisons de nouvelles projections probabilistes du retrait de la région de la calotte polaire de l'Antarctique en contact avec le lit rocheux.Dans le cadre de la seconde contribution, nous étudions la quantification des incertitudes sur les caractéristiques géométriques de la réponse spatiale de modèles physiques numériques dans le cadre de la théorie des ensembles aléatoires. Dans le cadre de la théorie des ensembles aléatoires, nous développons le concept de régions de confiance qui contiennent ou bien sont inclus dans un ensemble d'excursion de la réponse spatiale du modèle numérique avec un niveau donné de probabilité. Afin d'estimer ces régions de confiance, nous proposons de formuler l'estimation de ces régions de confiance dans une famille d'ensembles paramétrés comme un problème d'estimation de quantiles d'une variable aléatoire et nous proposons une nouvelle méthode de type multifidélité pour estimer ces quantiles. Finalement, nous démontrons l'efficacité de cette nouvelle méthode dans le cadre d'une application relative au retrait de la région de la calotte polaire de l'Antarctique en contact avec le lit rocheux. En plus de ces deux contributions principales, nous contribuons à deux travaux de recherche additionnels. D'une part, nous contribuons à un travail de recherche relatif au calcul des indices de Sobol en analyse de sensibilité dans le cadre de petits ensembles de données à l'aide d'une nouvelle méthode d'apprentissage probabiliste sur des variétés géométriques. D'autre part, nous fournissons une comparaison multimodèle de différentes projections de la contribution de la calotte polaire de l'Antarctique à l'augmentation du niveau des mers. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
279

L’analyse appliquée du comportement en autisme et ses enjeux : une évaluation du potentiel de la technologie pour améliorer la pratique et la recherche

Turgeon, Stéphanie 05 1900 (has links)
Le trouble du spectre de l’autisme (TSA) est un trouble neurodéveloppemental caractérisé par des déficits importants de la communication sociale et des interactions sociales ainsi que par la présence de comportements ou d'intérêts restreints et répétitifs. Les données empiriques suggèrent que les interventions découlant de l’analyse appliquée du comportement (AAC) sont les plus efficaces pour intervenir auprès des personnes ayant un TSA. Néanmoins, certaines lacunes en lien avec les interventions découlant de l’analyse du comportement existent. Notamment, le manque d’accessibilité aux services, le manque de connaissances quant aux facteurs sous-jacents à l’efficacité des interventions et les perceptions divergentes de l’AAC freinent son adoption à plus grande échelle. Cette thèse comprend trois études qui mettent à profit la technologie pour mieux comprendre ou améliorer ces enjeux entourant l’AAC. Dans le cadre ma première étude, les effets d’une formation interactive en ligne qui vise à enseigner aux parents des stratégies découlant de l’AAC pour réduire les comportements problématiques de leur enfant ont été évalués à l’aide d’un devis randomisé contrôlé avec liste d’attente. Les résultats de cette étude soutiennent le potentiel et l’efficacité de la formation pour augmenter la fréquence d’utilisation de stratégies d’intervention découlant de l’AAC par les parents ainsi que pour réduire l’occurrence et la sévérité des comportements problématiques de leur enfant. En revanche, aucune différence significative n’a été observée pour la mesure des pratiques parentales. Certains enjeux éthiques et pratiques entourant la dissémination de la formation en ligne complètement auto-guidées sont discutés. La deuxième étude de ma thèse doctorale visait donc à montrer comment utiliser des algorithmes d’apprentissage automatique pour identifier les personnes qui sont plus enclines à observer des améliorations suivant une intervention. Plus spécifiquement, l’utilisation de quatre algorithmes d’apprentissage automatique pour prédire les participants ayant pris part à la première étude de cette thèse qui étaient les plus propices à rapporter une diminution des comportements problématiques de leur enfant est démontrée. Cette étude soutient que des algorithmes d’apprentissage automatique peuvent être utilisés avec de petits échantillons pour soutenir la prise de décision des cliniciens et des chercheurs. La troisième étude cette thèse visait à quantifier l’information sur l’AAC publiée dans quatre sous-forums d’un forum internet, une ressource en ligne souvent utilisée par les familles pour identifier des interventions à utiliser après de leur enfant. Pour atteindre cet objectif, une procédure de forage de données a été réalisée. Les analyses de cette étude appuient que les parents qui fréquentent le forum sont exposés à une proportion importante de messages présentant une désapprobation de l’AAC pour intervenir auprès des personnes ayant un TSA ou bien une description inexacte des principes, méthodes, procédures ou interventions qui en découlent. Ensemble, les études effectuées dans le cadre de ma thèse doctorale mettent en évidence les bienfaits de la technologie pour l’intervention psychosociale, tant au niveau de l’évaluation que de l’intervention et du transfert de connaissances. Comme souligné dans les trois études de cette thèse, chacun des outils utilisés présente des limites et doit donc être utilisé pour soutenir les cliniciens et les chercheurs, et non pour remplacer leurs interventions et leur jugement clinique. Les études futures doivent continuer à s’intéresser à l’efficacité des outils technologiques, mais également aux facteurs sous-jacents qui favoriseront leur utilisation et aux considérations éthiques liées à leur emploi. / Autism Spectrum Disorder (ASD) is a neurodevelopmental disorder characterized by significant deficits in social communication and social interactions and by the presence of restricted and repetitive behaviors or interests. Empirical evidence suggests that interventions based on applied behavior analysis (ABA) are the most effective for treating individuals with ASD. Nevertheless, interventions based on behavior analysis present some issues. In particular, intervention services are hard to access, knowledge about the underlying factors of the effectiveness of interventions is lacking and divergent perceptions about of ABA hamper the adoption of the science. This dissertation includes three studies in which technology is used to better understand or improve these issues regarding ABA. As part of my first study, the effects of a fully self-guided interactive web training (IWT) developed for teaching parents of children with ASD ABA-derived strategies to reduce their child's challenging behaviors were evaluated using a randomized waitlist trial. The results of this study support the effectiveness of the IWT for increasing the frequency of parents’ use of behavioral interventions as well as for reducing the frequency and severity of their child’s challenging behaviors. In contrast, no significant difference was observed for the measurement of parenting practices. Ethical and practical consideration regarding the dissemination of fully self-guided online trainings are discussed. The second study of my doctoral thesis aimed to show how to use machine learning algorithms to predict individuals who were most likely to improve following an intervention. Specifically, a demonstration of how to implement four machine learning algorithms to predict the participants from my first study who were the most likely to report a decrease in their child's iv challenging behaviors. This study argues that machine learning algorithms can be used with small samples to support clinicians’ and researchers’ decision making. The third study of my dissertation aimed to quantify the information about ABA published on four subforums of an internet forum; an online resource often used by families to identify potential interventions for their child. This goal was achieved through the use of a data mining procedure. The analyses showed that parents who visited the forum were exposed to a significant proportion of messages that disapproved of ABA for individuals with ASD or that inaccurately described its underlying principles, methods, procedures, or interventions. Together, the studies carried out as part of my doctoral dissertation highlight the benefits of technology to support assessments, interventions, and knowledge gains or transfer within psychosocial practices. As highlighted in the three studies of this dissertation, each of the tools used presents limitations and should therefore be used to support clinicians and researchers, and should not replace their interventions and clinical judgment. Future studies should continue to focus on the effectiveness of technological tools and on the underlying factors that will promote their use. Finally, researchers must reflect on the ethical considerations related to use of technology when working with humans.
280

La construction du patrimoine du Canada entre reconnaissance publique et valorisation touristique : le rôle de la Commission des lieux et monuments historiques et des organismes de tourisme canadiens (1919-1956)

Dutour, Juliette 16 April 2018 (has links)
Marquer les lieux inconnus, ceux dont l’accès est difficile, est une pratique humaine courante. C’est un geste qui marque et qui ancre la trace du passage d’un homme seul ou d’une expédition entière, à la fois dans l’espace - les tas de pierres sont visibles souvent de loin - et sur le territoire - ces « monuments » localisent la plupart du temps le point le plus lointain sur une distance parcourue. Construit en 1910 par un explorateur canadien en voyage dans l’Arctique, ce cairn est l’ancêtre de ceux que la Commission des lieux et monuments historiques du Canada érige à travers le pays à partir des années 1920. Cependant, contrairement à eux, ce cairn ne porte pas de plaque et, sans elle, son rôle est d’autant plus simple : il vient signifier le fait que des hommes - au moins trois ici : les deux qui figurent sur la photographie et celui qui la prend - ont réussi à atteindre ce point extrême du Canada. En plus d’être une marque de revendication territoriale, ce monticule de grosses pierres ramassées à proximité du site, autour duquel ces hommes posent fièrement, est une manière pour eux de dire qu’ils ont été « là », qu’ils ont réussi à atteindre leur objectif et, par conséquent, qu’ils ont obtenu le droit de marquer le territoire afin que la mémoire de leur passage y soit inscrite. Sans plaque commémorative, sans noms ni dates gravés dans la pierre, la mémoire de leur passage est vouée à rester anonyme : si d’autres hommes viennent à passer dans la zone, ils sauront que des hommes les ont précédés, mais ils n’apprendront leurs noms et le détail de leurs aventures que s’ils connaissent l’histoire des expéditions qui ont eu lieu dans la région. Dans le processus de reconstitution de l’histoire de la région, le cairn de 1910 n’est donc pas d’une très grande aide, les seules informations mentionnées directement sur la photographie indiquant seulement : « cairn construit au cours de mon dernier voyage au fond de l’anse Adams, où j’ai laissé une marque. Adams Sound, octobre 1910. Voyage de l’Arctique1 ». Les détails de l’expédition au cours de laquelle cette photographie a été prise sont aujourd’hui connus. Le site d’Arctic Bay est situé sur la côte nord de la baie Adams, dans la partie nord de l’île de Baffin, au Nunavut. La région est habitée par des nomades inuits depuis 5000 ans et elle tire son nom d’un baleinier européen, l’Arctic, qui, en 1872, navigue tout près du site2 . Cette photographie est prise lors de la troisième expédition du capitaine Jacques Bernier qui, en 1910, réussit à passer l’hiver sur le site. Le cairn, construit en octobre 1910, célèbre ainsi la réussite de l’installation d’un campement temporaire dans cette région qualifiée de « désert arctique ». Quelques années plus tard, les responsables de la Commission des lieux et monuments historiques du Canada, s’inspirant de cette tradition de marquage des lieux visités par les explorateurs canadiens, reprennent le principe du cairn. Celui-ci représente donc une forme ancienne, traditionnellement liée aux opérations de conquête territoriale et d’affirmation politique réalisées par les premiers Canadiens. La reprise de cette forme est une manière, pour la Commission, de revenir à une tradition typiquement canadienne : de cette manière, pour célébrer l’histoire du pays, elle fait toujours, de manière implicite, référence à l’œuvre des premiers Canadiens, et elle revient sans cesse aux origines du pays. Les membres de la Commission ajoutent au cairn un média supplémentaire, à la fois vecteur de communication et de transmission de l’histoire : les plaques. C’est le début de la valorisation publique de l’histoire par le gouvernement fédéral, et la mise en place d’un programme de commémoration historique fortement lié au territoire. Ces plaques et leurs mémoriaux ont un très fort impact sur le territoire : en venant se superposer aux sites historiques qu’ils désignent, ils créent un double discours dans l’espace. En effet, en acquérant petit à petit une autonomie non seulement de forme - en tant que monuments reliés aux sites mais physiquement distincts d’eux - mais aussi de fond - ils deviennent, au fil du temps, des monuments à part entière, et se détachent des sites dont ils racontent l’histoire. Le patrimoine canadien est d’abord composé de plaques commémoratives ; c’est de cette manière que l’histoire se matérialise dans un premier temps dans l’espace canadien. En insérant des plaques sur le territoire, les autorités fédérales ont longtemps le sentiment de recréer des lieux disparus, par le simple fait de décrire le site et d’en interpréter l’histoire. Durant plus de trente ans, elles semblent ainsi préférer « recréer » des personnages, des événements passés et des lieux disparus - des bâtiments ruinés ou en très mauvais état - par l’entremise de ces plaques, plutôt que de s’occuper des sites bâtis encore intacts. La commémoration passe avant la conservation : l’insertion dans l’espace des plaques commémoratives ainsi que la composition de leurs textes occupent entièrement la Commission des lieux et monuments historiques pendant cette période. Cependant, outre leur rôle assumé de matérialisation de l’héritage, plusieurs interrogations subsistent quant à leurs fonctions. À quoi servent leurs textes qui ont pour ambition de résumer en quelques phrases des événements de l’histoire du pays ? Leur rôle est-il de raconter et de diffuser l’histoire à la population canadienne et aux touristes étrangers, ou d’investir et de donner un sens à l’espace ? Et celles-ci ont-elles le pouvoir d’assurer la protection d’un site en maintenant les pilleurs et les visiteurs indésirables à distance ?

Page generated in 0.0553 seconds