• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 3
  • 1
  • Tagged with
  • 13
  • 5
  • 5
  • 5
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

La cybersécurité des opérateurs d’importance vitale : analyse géopolitique des enjeux et des rivalités de la coopération public-privé / The cybersecurity of critical infrastructures : geopolitical analysis of the challenges and rivalities of public-private cooperation in france

D'elia, Danilo 07 December 2017 (has links)
En France dès 2008, le Livre blanc sur la défense et la sécurité nationale identifiait les attaques contre les systèmes d’information comme l’une des principales menaces qui pèsent sur la défense et la sécurité. Pour faire face aux nouvelles menaces sur les systèmes d’information, les pouvoirs publics ont fait preuve de volontarisme dans la structuration d’un vaste chantier de politiques publiques. L’interventionnisme public s’est traduit par le vote de l’article 22 de la loi de programmation militaire de 2013 qui impose désormais aux opérateurs d’importance vitale de renforcer la sécurité des systèmes d’information qu’ils exploitent. Pourtant la mise en place de cette stratégie passe par la coopération entre sphère publique et acteurs privés qui soulève nombreux conflits de nature économique, organisationnelle, politique et diplomatique. Ainsi les critiques provenant de deux côtés (public et privé) sont de plus en plus récurrentes. La question principale à laquelle cette thèse répond s’inscrit dans les préoccupations de la géopolitique: quelle est la géographie (les frontières et les territoires) de la coopération public-privé ? Si le territoire et la responsabilité territoriale sont clairs en matière de sécurité physique, dès qu’il s’agit de la cybersécurité, cela devient plus compliqué. La transformation numérique empêche une défense au périmètre et pose la question de comment agir pour dépasser les limites du modèle ancien : à une menace sur un territoire correspond un institution pour mettre en place sa défense. Mon hypothèse principale est que la coopération public-privé est le résultat d’un rapport de force politique entre acteurs. / In France in 2008, the White Paper on Defense and National Security identified attacks on information systems as one of the main threats to the national defense and security. In response to new threats to information systems, public authorities have been proactive in structuring a vast public policy project. Public interventionism resulted in the vote and implementation of the Article 22 of the Military Programming Act of 2013, which now requires operators of vital importance to strengthen the security of the information systems they operate. Yet the implementation of this strategy involves cooperation between the public sphere and private actors, which raises numerous conflicts of an economic, organizational, political and diplomatic nature. Thus critics from both sides (public and private) are more and more recurrent. The main question to which this thesis responds is a geopolitical issue: what is the geography (boundaries and territories) of public-private cooperation? If the territory and territorial responsibility are clear in terms of physical security, when it comes to cybersecurity, it becomes more complicated. The digital transformation prevents a perimeter defense and raises the question of how to act to overcome the limits of the old model: to a threat on a territory corresponds an institution to set up its defense. My main hypothesis is that public-private cooperation is the result of a political balance of power between actors acting at different territorial scales.
2

L’impact de la crise de la dette souveraine européenne auprès des banques d’importance systémique intérieure canadiennes et européennes sur les marchés boursiers

Berger-Soucy, Léanne January 2016 (has links)
L’objectif global de cette étude est de déterminer l’impact de la crise de la dette souveraine européenne sur les titres boursiers des six banques d’importance systémique (D-Sibs) canadiennes et celles des pays PIIGS (Portugal, Irlande, Italie, Grèce & Espagne). À cet effet, nous avons échantillonné nos données entre le 1er janvier 2002 au 31 décembre 2015 pour séparer notre fenêtre temporelle en cinq sous-périodes et ce, dans le but d’isoler certains événements d’envergure systémique. Un des sous-objectifs vise à déterminer s’il y a eu un effet de contagion transfrontalier entre les institutions canadiennes et européennes. Pour chacune des cinq sous-périodes, nous avons donc construit des réseaux basés sur les relations de cointégration entre les prix hebdomadaires des titres boursiers des D-Sibs étudiées. Le second sous-objectif consiste à détecter la présence d’un comportement grégaire auprès des investisseurs, en temps de crise, à l’aide de régressions basées sur la dispersion moyenne entre les rendements de chaque titre et ceux d’un portefeuille de marché composé des D-Sibs canadiennes et des pays PIIGS. Cette étude démontre que la crise financière de 2008-2009 a davantage impacté les banques d’importance systémique intérieure canadiennes et des pays PIIGS, contrairement à la crise de la dette souveraine européenne. En effet, l’effet de contagion transfrontalier est davantage notable lors de la faillite de Lehman Brothers, alors que les turbulences de la crise européenne se sont, en général, limitées à ses frontières. De plus, le comportement grégaire est uniquement détectable lors de la crise des subprimes. Ceci implique que les investisseurs n’ont pas perçu les D-Sibs comme étant menacées par la situation financière précaire de la zone euro.
3

Échantillonnage d'importance des sources de lumière réalistes

Lu, Heqi 27 February 2014 (has links) (PDF)
Les images réalistes peuvent être obtenues en simulant le transport de lumière à l'aide de méthodes de type Monte-Carlo. La possibilité d'utiliser des sources de lumières réalistes pour synthétiser des images contribue grandement au réalisme physique des images obtenues. Parmi les modèles existants, ceux qui reposent sur les cartes d'environnements ou des champs lumineuse sont particulièrement intéressants parce qu'ils permettent d'une part, de capturer adéquatement les effets de champs proches et champs lointains et d'autre part, ils peuvent être mesurés de manière directe. Comme les sources de lumières mesurées peuvent contenir des hautes fréquences et peuvent être de haute dimensionnalité (4D), leur utilisation dans le contexte de la synthèse d'images temps-réel pose des problèmes de performance. Dans cette thèse, nous nous recherchons un compromis entre précision de la représentation et efficacité de la simulation. Le travail effectué repose sur un échantillonnage de haute qualité des sources de lumière pour les méthodes non-biaisées de Monte Carlo. Nous introduisons de nouvelles techniques d'échantillonnage pour le rendu physico-réaliste avec des cartes d'environnement qui varient temporellement ainsi que pour des sources de lumière des champs lumineuse. Les résultats obtenus montrent que l'on peut obtenir un rendu physiquement réaliste, précis et temps réel avec des sources lumière réalistes.
4

Graphes du Web, Mesures d'importance à la PageRank

Mathieu, Fabien 08 December 2004 (has links) (PDF)
L'application des mesures d'importance de type PageRank aux graphes du Web est le sujet de cette thèse, qui est divisée en deux parties. La première introduit une famille particulière de grands graphes, les graphes du Web. Elle commence par définir la notion de Web indexable, puis donne quelques considérations sur les tailles des portions de Web effectivement indexées. Pour finir, elle donne et utilise quelques constatations sur les structures que l'on peut observer sur les graphes induits par ces portions de Web. Ensuite, la seconde partie étudie en profondeur les mesures d'importance à la PageRank. Après un rappel sur la théorie des chaînes de Markov est présentée une classification originale des algorithmes de PageRank, qui part du modèle le plus simple jusqu'à prendre en compte toutes les spécificités liées aux graphes du Web. Enfin, de nouveaux algorithmes sont proposés. L'algorithme BackRank utilise un modèle alternatif de parcours du graphe du Web pour un calcul de PageRank plus rapide. La structure fortement clusterisée des graphes du Web permet quant à elle de décomposer le PageRank sur les sites Web, ce qui est réalisé par les algorithmes FlowRank et BlowRank.
5

Contribution au développement et à l'étude de facteurs d'importance fiabilistes pour les systèmes markoviens

Do Van, Phuc 03 October 2008 (has links) (PDF)
Les facteurs d'importance fiabilistes permettant de fournir des informations sur l'importance des composants vis-à-vis des performances fiabilistes d'un système. Ces facteurs d'importance sont un outil efficace pour la prise de décision dans les études de fiabilité, d'analyse de risques, en maintenance, en exploitation ou en conception. Les facteurs d'importance fiabilistes ont été classiquement définis dans le cadre des modèles booléens de fiabilité et, sous leur forme classique (et avec les méthodes d'évaluation actuelles), ces facteurs ne sont souvent utilisables que sous l'hypothèse de composants binaires et indépendants, et pour une architecture de système " statique ". L'utilisation de ces facteurs d'importance pour l'aide à la décision sur des systèmes réels impose pourtant souvent la prise en compte d'hypothèses plus réalistes. Cette thèse propose un nouveau facteur d'importance fiabiliste, la " sensibilité multi-directionnelle ", qui permet d'évaluer l'importance fiabiliste d'un composant ou d'un groupe de composants d'un système markovien à composants dépendants et, plus généralement, l'importance fiabiliste d'un ensemble de caractéristiques du système. On développe également des méthodes efficaces d'évaluation de ce nouveau facteur d'importance par calcul analytique ou par estimation à partir d'une seule trajectoire observée en utilisant des techniques d'analyse par perturbation. L'extension aux ordres supérieurs et l'utilisation pour des systèmes markoviens d'un facteur importance introduit récemment (DIM) sont également abordés.
6

Forêts aléatoires et sélection de variables : analyse des données des enregistreurs de vol pour la sécurité aérienne / Random forests and variable selection : analysis of the flight data recorders for aviation safety

Gregorutti, Baptiste 11 March 2015 (has links)
De nouvelles réglementations imposent désormais aux compagnies aériennes d'établir une stratégie de gestion des risques pour réduire encore davantage le nombre d'accidents. Les données des enregistreurs de vol, très peu exploitées à ce jour, doivent être analysées de façon systématique pour identifier, mesurer et suivre l'évolution des risques. L'objectif de cette thèse est de proposer un ensemble d'outils méthodologiques pour répondre à la problématique de l'analyse des données de vol. Les travaux présentés dans ce manuscrit s'articulent autour de deux thèmes statistiques : la sélection de variables en apprentissage supervisé d'une part et l'analyse des données fonctionnelles d'autre part. Nous utilisons l'algorithme des forêts aléatoires car il intègre des mesures d'importance pouvant être employées dans des procédures de sélection de variables. Dans un premier temps, la mesure d'importance par permutation est étudiée dans le cas où les variables sont corrélées. Nous étendons ensuite ce critère pour des groupes de variables et proposons une nouvelle procédure de sélection de variables fonctionnelles. Ces méthodes sont appliquées aux risques d'atterrissage long et d'atterrissage dur, deux questions importantes pour les compagnies aériennes. Nous présentons enfin l'intégration des méthodes proposées dans le produit FlightScanner développé par Safety Line. Cette solution innovante dans le transport aérien permet à la fois le monitoring des risques et le suivi des facteurs qui les influencent. / New recommendations require airlines to establish a safety management strategy to keep reducing the number of accidents. The flight data recorders have to be systematically analysed in order to identify, measure and monitor the risk evolution. The aim of this thesis is to propose methodological tools to answer the issue of flight data analysis. Our work revolves around two statistical topics: variable selection in supervised learning and functional data analysis. The random forests are used as they implement importance measures which can be embedded in selection procedures. First, we study the permutation importance measure when the variables are correlated. This criterion is extended for groups of variables and a new selection algorithm for functional variables is introduced. These methods are applied to the risks of long landing and hard landing which are two important questions for airlines. Finally, we present the integration of the proposed methods in the software FlightScanner implemented by Safety Line. This new solution in the air transport helps safety managers to monitor the risks and identify the contributed factors.
7

Quelques utilisations de la densité GEP en analyse bayésienne sur les familles de position-échelle

Desgagné, Alain January 2005 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
8

Estimation de la fiabilité d'un palier fluide / Assessment Reliability fluid bearing

Diop, Khadim 07 December 2015 (has links)
Les travaux de recherche constituent une contribution au développement de la théorie de la fiabilité en mécanique des fluides. Pour la conception de machines et de systèmes mécatroniques complexes, de nombreux composants fluides, difficiles à dimensionner, sont utilisés. Ces derniers ont des caractéristiques intrinsèques statiques et dynamiques sensibles et ont donc une grande importance sur la fiabilité et la durée de vie de la plupart des machines et des systèmes.Le développement effectué se concentre spécialement sur l'évaluation de la fiabilité d’un palier fluide grâce à un couplage « mécanique des fluides - fiabilité ». Ce couplage exige une définition propre de la fonction d’état limite permettant d’estimer la probabilité de défaillance d’un palier fluide. La modélisation par l'équation de Reynolds modifiée permet de déterminer la capacité de charge d’un palier fluide en fonction des conditions de fonctionnement. Plusieurs formes simples de paliers fluides ont été modélisées analytiquement et leurs probabilités de défaillance ont été estimées grâce à des méthodes d'approximation FORM/SORM (First Order Reliability, Second Order Reliability) et de simulation Monte Carlo. / These research is a contribution to the development of reliability theory in fluid mechanics. For the machines design and complex mechatronic systems, many fluid components are used. These components have static and dynamic sensitive characteristics and thus have a great significance on the reliabilityand lifetime of the machines and systems. Development performed focuses specifically on the reliability evaluation of a fluid bearing using a"fluid mechanics - reliability" interaction approach. This coupling requires a specific definition of the limit state function for estimating the failure probability of a fluid bearing. The Reynolds equation permits to determine the fluid bearing load capacity according to the operating conditions. Several simple geometries of fluid bearings were modeled analytically and their failure probabilities were estimated using the approximation methods FORM / SORM (First Order Reliability Method,Second Order Reliability Method) and Monte Carlo simulation.
9

Evaluation de paramètres de sûreté de fonctionnement en présence d'incertitudes et aide à la conception : application aux Systèmes Instrumentés de Sécurité

Sallak, Mohamed 19 October 2007 (has links) (PDF)
L'introduction de systèmes instrumentés dédiés aux applications de sécurité impose l'évaluation de leur sûreté de fonctionnement. On utilise généralement pour cela les bases de données de fiabilité génériques. Cependant, le retour d'expérience pour ces systèmes qui présentent en général des défaillances rares est insuffisant pour valider les résultats obtenus. En outre, la collecte de données de fiabilité et leur extrapolation à d'autres composants introduisent des incertitudes.<br />Les travaux de cette thèse portent sur la problématique de la prise en compte des incertitudes relatives aux données de fiabilité des composants pour l'évaluation de la sûreté de fonctionnement des systèmes par le formalisme des sous ensembles flous. La méthodologie proposée est appliquée à l'évaluation des probabilités de défaillance des Systèmes Instrumentés de Sécurité (SIS) en présence de données de fiabilité imprécises. Nous introduisons deux nouveaux facteurs d'importance pour aider le concepteur. En outre, nous proposons une méthodologie d'aide à la conception des SIS basée sur la modélisation par réseaux de fiabilité et l'optimisation par des algorithmes génétiques de la structure des SIS pour le respect des niveaux d'intégrité de sécurité (SIL) exigés.
10

Contributions aux méthodes de Monte Carlo et leur application au filtrage statistique / Contributions to Monte Carlo methods and their application to statistical filtering

Lamberti, Roland 22 November 2018 (has links)
Cette thèse s’intéresse au problème de l’inférence bayésienne dans les modèles probabilistes dynamiques. Plus précisément nous nous focalisons sur les méthodes de Monte Carlo pour l’intégration. Nous revisitons tout d’abord le mécanisme d’échantillonnage d’importance avec rééchantillonnage, puis son extension au cadre dynamique connue sous le nom de filtrage particulaire, pour enfin conclure nos travaux par une application à la poursuite multi-cibles.En premier lieu nous partons du problème de l’estimation d’un moment suivant une loi de probabilité, connue à une constante près, par une méthode de Monte Carlo. Tout d’abord,nous proposons un nouvel estimateur apparenté à l’estimateur d’échantillonnage d’importance normalisé mais utilisant deux lois de proposition différentes au lieu d’une seule. Ensuite,nous revisitons le mécanisme d’échantillonnage d’importance avec rééchantillonnage dans son ensemble afin de produire des tirages Monte Carlo indépendants, contrairement au mécanisme usuel, et nous construisons ainsi deux nouveaux estimateurs.Dans un second temps nous nous intéressons à l’aspect dynamique lié au problème d’inférence bayésienne séquentielle. Nous adaptons alors dans ce contexte notre nouvelle technique de rééchantillonnage indépendant développée précédemment dans un cadre statique.Ceci produit le mécanisme de filtrage particulaire avec rééchantillonnage indépendant, que nous interprétons comme cas particulier de filtrage particulaire auxiliaire. En raison du coût supplémentaire en tirages requis par cette technique, nous proposons ensuite une procédure de rééchantillonnage semi-indépendant permettant de le contrôler.En dernier lieu, nous considérons une application de poursuite multi-cibles dans un réseau de capteurs utilisant un nouveau modèle bayésien, et analysons empiriquement les résultats donnés dans cette application par notre nouvel algorithme de filtrage particulaire ainsi qu’un algorithme de Monte Carlo par Chaînes de Markov séquentiel / This thesis deals with integration calculus in the context of Bayesian inference and Bayesian statistical filtering. More precisely, we focus on Monte Carlo integration methods. We first revisit the importance sampling with resampling mechanism, then its extension to the dynamic setting known as particle filtering, and finally conclude our work with a multi-target tracking application. Firstly, we consider the problem of estimating some moment of a probability density, known up to a constant, via Monte Carlo methodology. We start by proposing a new estimator affiliated with the normalized importance sampling estimator but using two proposition densities rather than a single one. We then revisit the importance sampling with resampling mechanism as a whole in order to produce Monte Carlo samples that are independent, contrary to the classical mechanism, which enables us to develop two new estimators. Secondly, we consider the dynamic aspect in the framework of sequential Bayesian inference. We thus adapt to this framework our new independent resampling technique, previously developed in a static setting. This yields the particle filtering with independent resampling mechanism, which we reinterpret as a special case of auxiliary particle filtering. Because of the increased cost required by this technique, we next propose a semi independent resampling procedure which enables to control this additional cost. Lastly, we consider an application of multi-target tracking within a sensor network using a new Bayesian model, and empirically analyze the results from our new particle filtering algorithm as well as a sequential Markov Chain Monte Carlo algorithm

Page generated in 0.0409 seconds