• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 118
  • 49
  • 22
  • 1
  • 1
  • Tagged with
  • 193
  • 60
  • 54
  • 50
  • 46
  • 41
  • 33
  • 31
  • 28
  • 25
  • 22
  • 22
  • 21
  • 21
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Étude longitudinale du lien prédictif entre les événements de vie négatifs et les symptômes somatiques à l’adolescence : le rôle modérateur des traits de personnalité

Samson, Sarah 05 1900 (has links)
No description available.
162

Etude de la fiabilité des algorithmes self-convergeants face aux soft-erreurs / Study of reliability of self-convergent algorithms with respect to soft errors

Marques, Greicy Costa 24 October 2014 (has links)
Cette thèse est consacrée à l'étude de la robustesse/sensibilité d'un algorithme auto-convergeant face aux SEU's. Ces phénomènes appelés aussi bit-flips qui se traduit par le basculement intempestif du contenu d'un élément mémoire comme conséquence de l'ionisation produite par le passage d'une particule chargée avec le matériel. Cette étude pourra avoir un impact important vu la conjoncture de miniaturisation qui permettra bientôt de disposer de circuits avec des centaines à des milliers de cœurs de traitement sur une seule puce, pour cela il faudra faire les cœurs communiquer de manière efficace et robustes. Dans ce contexte les algorithme dits auto-convergeants peuvent être utilis afin que la communication entre les cœurs soit fiable et sans intervention extérieure. Une étude par injection de fautes de la robustesse de l'algorithme étudié a été effectuée, cet algorithme a été initialement exécuté par un processeur LEON3 implémenté dans un FPGA embarqué dans une plateforme de test spécifique. Les campagnes préliminaires d'injection de fautes issus d'une méthode de l'état de l'art appelée CEU (Code Emulated Upset) ont mis en évidence une certaine sensibilité aux SEUs de l'algorithme. Pour y faire face des modifications du logiciel ont été effectuées et des techniques de tolérance aux fautes ont été implémentés au niveau logiciel dans le programme implémentant l'algorithme. Des expériences d'injection de fautes ont été effectués pour mettre en évidence la robustesse face aux SEUs et ses potentiels « Tallons d'Achille » de l'algorithme modifié. L'impact des SEUs a été aussi exploré sur l'algorithme auto-convergeant implémenté dans une version hardware dans un FPGA. L'évaluation de cette méthodologie a été effectuée par des expériences d'injection de fautes au niveau RTL du circuit. Ces résultats obtenus avec cette méthode ont montré une amélioration significative de la robustesse de l'algorithme en comparaison avec sa version logicielle. / This thesis is devoted to the study of the robustness/sensitivity of a self-converging algorithm with respect to SEU's. These phenomenon also called bit-flips which may modify the content of memory elements as the result of the silicon ionization resulting from the impact of a charged particles. This study may have a significant impact given the conditions of miniaturization that will soon have circuits with hundreds to thousands of processing cores on a single chip, this will require make the cores communicate effectively and robust manner. In this context the so-called self-converging algorithm can be used to ensure that communication between cores is reliable and without external intervention. A fault injection study of the robustness of the algorithm was performed, this algorithm was initially executed by a processor LEON3 implemented in the FPGA embedded in a specific platform test. Preliminary fault injection from a method the state of the art called CEU showed some sensitivity to SEUs of algorithm. To cope with the software changes were made and techniques for fault tolerance have been implemented in software in the program implementing the self-converging algorithm. The fault injection experiments were made to demonstrate the robustness to SEU's and potential problems of the modified algorithm. The impact of SEUs was explored on a hardware-implemented self-converging algorithm in a FPGA. The evaluation of this method was performed by fault injection at RTL level circuit. These results obtained with this method have shown a significant improvement of the robustness of the algorithm in comparison with its software version.
163

Composition dynamique de services sensibles au contexte dans les systèmes intelligents ambiants / Dynamic context-aware services composition in ambient intelligent systems

Yachir, Ali 23 February 2014 (has links)
Avec l'apparition des paradigmes de l'intelligence ambiante et de la robotique ubiquitaire, on assiste à l'émergence de nouveaux systèmes intelligents ambiants visant à créer et gérer des environnements ou écosystèmes intelligents d'une façon intuitive et transparente. Ces environnements sont des espaces intelligents caractérisés notamment par l'ouverture, l'hétérogénéité, l'incertitude et la dynamicité des entités qui les constituent. Ces caractéristiques soulèvent ainsi des défis scientifiques considérables pour la conception et la mise en œuvre d'un système intelligent adéquat. Ces défis sont principalement au nombre de cinq : l'abstraction de la représentation des entités hétérogènes, la gestion des incertitudes, la réactivité aux événements, la sensibilité au contexte et l'auto-adaptation face aux changements imprévisibles qui se produisent dans l'environnement ambiant. L'approche par composition dynamique de services constitue l'une des réponses prometteuses à ces défis. Dans cette thèse, nous proposons un système intelligent capable d'effectuer une composition dynamique de services en tenant compte, d'une part, du contexte d'utilisation et des diverses fonctionnalités offertes par les services disponibles dans un environnement ambiant et d'autre part, des besoins variables exprimés par les utilisateurs. Ce système est construit suivant un modèle multicouche, adaptatif et réactif aux événements. Il repose aussi sur l'emploi d'un modèle de connaissances expressif permettant une ouverture plus large vers les différentes entités de l'environnement ambiant notamment : les dispositifs, les services, les événements, le contexte et les utilisateurs. Ce système intègre également un modèle de découverte et de classification de services afin de localiser et de préparer sémantiquement les services nécessaires à la composition de services. Cette composition est réalisée d'une façon automatique et dynamique en deux phases principales: la phase offline et la phase online. Dans la phase offline, un graphe global reliant tous les services abstraits disponibles est généré automatiquement en se basant sur des règles de décision sur les entrées et les sorties des services. Dans la phase online, des sous-graphes sont extraits automatiquement à partir du graphe global selon les tâches à réaliser qui sont déclenchées par des événements qui surviennent dans l'environnement ambiant. Les sous-graphes ainsi obtenus sont exécutés suivant un modèle de sélection et de monitoring de services pour tenir compte du contexte d'utilisation et garantir une meilleure qualité de service. Les différents modèles proposés ont été mis en œuvre et validés sur la plateforme ubiquitaire d'expérimentation du laboratoire LISSI à partir de plusieurs scénarii d'assistance et de maintien de personnes à domicile / With the appearance of the paradigms of the ambient intelligence and ubiquitaire robotics, we attend the emergence of new ambient intelligent systems to create and manage environments or intelligent ecosystems in a intuitive and transparent way. These environments are intelligent spaces characterized in particular by the opening, the heterogeneousness, the uncertainty and the dynamicité of the entities which establish(constitute) them. These characteristics so lift(raise) considerable scientific challenges for the conception(design) and the implementation of an adequate intelligent system. These challenges are mainly among five: the abstraction of the representation of the heterogeneous entities, the management of the uncertainties, the reactivity in the events, the sensibility in the context and the auto-adaptation
164

Extraction de connaissances dans des textes arabes et français par une méthode linguistico-computationnelle / Knowledge Extraction from texts written in Arabic and French by a linguistico-computational method

Ben Salamah, Janan 28 October 2017 (has links)
Dans le cadre de notre thèse, nous avons proposé une approche générique multilingue d'extraction automatique de connaissances. Nous avons validé l‟approche sur l'extraction des événements de variations des cours pétroliers et l‟extraction des expressions temporelles liées à des référentiels. Notre approche est basée sur la constitution de plusieurs cartes sémantiques par analyse des données non structurées afin de formaliser les traces linguistiques textuelles exprimées par des catégories d'un point de vue de fouille. Nous avons mis en place un système expert permettant d‟annoter la présence des catégories en utilisant des groupes de règles. Deux algorithmes d'annotation AnnotEV et AnnotEC ont été appliqués, dans la plateforme SemanTAS. Le rappel et précision de notre système d'annotation est autour de 80%. Nous avons présenté les résultats aussi sous forme des fiches de synthèses. Nous avons validé l'aspect Multilingue de l'approche sur la langue française et arabe, et l'aspect généricité et scalabilité en testant sur plusieurs corpus de taille confédérale. / In this thesis, we proposed a multilingual generic approach for the automatic information extraction. Particularly, events extraction of price variation and temporal information extraction linked to temporal referential. Our approach is based on the constitution of several semantic maps by textual analysis in order to formalize the linguistic traces expressed by categories. We created a database for an expert system to identify and annotate information (categories and their characteristics) based on the contextual rule groups. Two algorithms AnnotEC and AnnotEV have been applied in the SemanTAS platform to validate our assumptions. We have obtained a satisfactory result; Accuracy and recall are around 80%. We presented extracted knowledge by a summary file. In order to approve the multilingual aspect of our approach, we have carried out experiments on French and Arabic. We confirmed the scalability level by the annotation of large corpus.
165

Méthodes utilisant des fonctions de croyance pour la gestion des informations imparfaites dans les réseaux de véhicules / Methods using belief functions to manage imperfect information in vehicular networks

Bou Farah, Mira 02 December 2014 (has links)
La popularisation des véhicules a engendré des problèmes de sécurité et d’environnement. Desprojets ont été lancés à travers le monde pour améliorer la sécurité sur la route, réduire l’encombrementdu trafic et apporter plus de confort aux conducteurs. L’environnement des réseaux devéhicules est complexe et dynamique, les sources sont souvent hétérogènes, de ce fait les informationséchangées peuvent souvent être imparfaites. La théorie des fonctions de croyance modélisesouplement les connaissances et fournit des outils riches pour gérer les différents types d’imperfection.Elle est utilisée pour représenter l’incertitude, gérer les différentes informations acquises etles fusionner. Nous nous intéressons à la gestion des informations imparfaites échangées entre lesvéhicules concernant les événements sur la route. Les événements locaux et les événements étendusn’ayant pas les mêmes caractéristiques, les travaux réalisés les distinguent. Dans un environnementsans infrastructure où chaque véhicule a son propre module de fusion, l’objectif est de fournir auxconducteurs la synthèse la plus proche possible de la réalité. Différents modèles fondés sur desfonctions de croyance sont proposés et différentes stratégies sont étudiées : affaiblir ou renforcervers l’absence de l’événement pour prendre en compte le vieillissement des messages, garder lesmessages initiaux ou seulement le résultat de la fusion dans la base des véhicules, considérer la miseà jour du monde, prendre en compte l’influence du voisinage pour gérer la spatialité des embouteillages.Les perspectives restent nombreuses, certaines sont développées dans ce manuscrit commela généralisation des méthodes proposées à tous les événements étendus tels que les brouillards. / The popularization of vehicles has created safety and environmental problems. Projects havebeen launched worldwide to improve road safety, reduce traffic congestion and bring more comfortto drivers. The vehicle network environment is dynamic and complex, sources are often heterogeneous,and therefore the exchanged information may be imperfect. The theory of belief functionsoffers flexibility in uncertainty modeling and provides rich tools for managing different types of imperfection.It is used to represent uncertainty, manage and fuse the various acquired information.We focus on the management of imperfect information exchanged between vehicles concerningevents on the road. The carried work distinguishes local events and spatial events, which do nothave the same characteristics. In an environment without infrastructure where each vehicle is afusion center and creates its own vision, the goal is to provide to each driver the synthesis of thesituation on the road as close as possible to the reality. Different models using belief functionsare proposed. Different strategies are considered: discount or reinforce towards the absence of theevent to take into account messages ageing, keep the original messages or just the fusion result invehicle database, consider the world update, manage the spatiality of traffic jam events by takinginto account neighborhood. Perspectives remain numerous; some are developed in the manuscriptas the generalization of proposed methods to all spatial events such as fog blankets.
166

L’accueil de la coupe du Monde 2014 et des JO 2016 et les impacts de la « révolution des transports » sur la justice socio-spatiale à Rio de Janeiro : tout changer pour que rien ne change ? / The hosting of 2014 football World Cup and 2016 Olympic games and the impacts of the « transport revolution » on socio-spatial justice in Rio de Janeiro : everything changes so that nothing changes?

Legroux, Jean 30 May 2016 (has links)
L’accueil de la coupe du Monde 2014 et des JO 2016 à Rio de Janeiro représente la consécration d’une stratégie de construction de ville attractive qui se base sur l’organisation de méga-événements, un contexte économique favorable et une entente conjoncturelle entre les différents niveaux de gouvernement brésiliens. Cette politique néolibérale de fabrique et de gouvernance de l’espace urbain – impliquant une nouvelle reconfiguration des coalitions d’acteurs historiquement présents dans le circuit de l’accumulation urbain – se fonde sur la rénovation de la ville de Rio dans le but de l’insérer dans la compétition internationale des villes, mais aussi pour échapper, sur le plan national, à sa trajectoire de décadence sur fond de crise économique et politique (qui débuta dans les années 1970-1980). Dans les discours officiels, les transformations urbaines à l’œuvre répondent aux besoins de la « ville olympique » tout en provoquant des impacts positifs pour les habitants de la ville (et par conséquent pour ceux de la région métropolitaine). Dans ce contexte, les investissements en infrastructures de mobilité sont les plus importants, en termes de montants investis et d’impacts sur l’espace urbain, amenant les pouvoirs publics à parler d’une « révolution des transports » capable de résoudre la crise de la mobilité qui aggrave les processus de ségrégation et d’exclusion urbaine. L’objectif de cette thèse est d’évaluer, à travers une analyse multi-scalaire, c’est-à-dire les échelles métropolitaine, municipale et intra-municipales), les impacts différenciés des projets de transport sur la justice socio-spatiale à Rio de Janeiro. Outre une mise en perspective des différents projets et composantes de la « révolution des transports » et de leurs effets sur les dynamiques urbaines, il s’agit d’appliquer différents critères de justice à l’analyse géographique pour proposer une évaluation complexe des impacts des projets de transport, qu’ils portent sur la satisfaction de la demande en termes de capacité et de qualité, ou sur des externalités dépassant ceux de la mobilité (expropriations d’habitants, spéculation immobilière, etc.). La méthodologie qualitative (observation de terrain et entretiens semi-directifs) combinée à cette grille de lecture multicritère de la justice permet de d’appréhender les effets à différentes échelles, de repérer les divers groupes d’acteurs en conflit dans ce contexte de ville attractive et d’identifier quels sont les gagnants et les perdants de cette stratégie urbaine. Finalement, les impacts de la « révolution des transports » provoquent des changements qui n’impliquent pas de rupture réelle, ni avec le modèle routier de mobilité ni avec les logiques de ségrégation de la ville néolibérale. Tout changer pour que rien ne change ? / Rio de Janeiro’s hosting of the World Cup 2014 and the Olympics Games 2016, is the consecration of the "attractive city" strategy, which is based on the triplet organization of mega-events, dynamic economic context and circumstantial alignment between the three levels of Government. This neoliberal policy and governance related to the construction of the urban space implies a reconfiguration of coalitions of historical actors present in the circuit of urban accumulation. Rio’s urban renewal aims to link this city to the global circuit of cities competition, but also to evade from its path of economic and political decay, which began in the 1980s. In official statements, the ongoing urban transformations meet the requirements of the "Olympic city" and generate positive impacts for local and metropolitan inhabitants. In this context, investments in mobility infrastructure are the most meaningful, both in financial and impacts on urban space terms. This leads the government rhetoric of a "transport revolution", able to solve the urban mobility city crisis, clearly attached to processes of urban segregation and exclusion. The object of this thesis is to evaluate, through a multiscale analysis, which includes metropolitan, municipal and intra-urban dimensions, the various impacts of transportation projects on social and spatial justice in Rio de Janeiro. Then, based on justice theories applied to Geography, a multicriteria analytic model of justice is constructed, to assess the impact of transportation projects on terms of demand satisfaction and the effects on other processes such as expropriations and land speculation. The qualitative methodology (semi-structured interviews and field observation), along with the multicriteria framework of justice, allowed the identification of the various groups of conflicting actors in the constitution of the "attractive city" and, among them, those who "win" and those who "lose". The results indicate that the impact of the "transport revolution" in Rio de Janeiro, for the 2014 World Cup and 2016 Olympic Games, causes shifts that tear down neither the Brazilian road mobility model, nor the neoliberal’s city segregation rationale. Change everything in order to nothing change?
167

Recherche de nouvelles particules de spin 0 se désintégrant en paires de quarks top-antitop et calibration en énergie des jets au-delà du TeV avec l’expérience CMS au LHC / Search for new spin 0 particles decaying into top-antitop quarks pairs and jet energy calibration beyon the TeV-scale with the CMS experiment at the LHC

Pequegnot, Anne-Laure 29 September 2016 (has links)
L'expérience CMS auprès du LHC, grand collisionneur de hadrons, est un détecteur généraliste qui permet d'étudier tous les aspects des collisions proton-proton produites par le LHC : de l'étude du Modèle Standard et du boson de Higgs à la recherche de signaux de nouvelle physique au-delà du Modèle Standard.La première partie de cette thèse est dédiée à la calibration en énergie des jets dans CMS, un des plus grands défis et une étape fondamentale pour la réussite du programme de physique dans cet environnement hadronique. Plus particulièrement, l'étude des événements multijets permet de contraindre l'échelle en énergie des jets au-delà du TeV. Les corrections en énergie ainsi extraites sont primordiales pour les analyses de physique utilisant des jets, et sont utilisées par toute la collaboration CMS.La deuxième partie est consacrée à la recherche de particules de spin 0 se désintégrant en paires de quarks top-antitop. En effet, de nombreux modèles de nouvelle physique prédisent de nouvelles particules scalaires ou pseudoscalaires avec un fort couplage au quark top. Une étude phénoménologique de deux de ces modèles est présentée, à savoir les modèles à deux doublets de Higgs (2HDM) et l'extension supersymétrique minimale du Modèle Standard (MSSM). Ces modèles offrent tous deux un secteur de Higgs enrichi avec entre autre deux bosons de Higgs neutres additionnels, un scalaire et un pseudoscalaire. Une analyse du spectre de masse invariante des paires top-antitop utilisant les données collectées par CMS en 2012 à une énergie dans le centre de masse de 8 TeV visant à mettre en évidence l'existence de telles particules est menée. Cette analyse prend en compte pour la première fois les effets des interférences entre la production des paires top-antitop du Modèle Standard et la production résonante à travers la nouvelle particule de spin 0. Il est montré que l'impact des interférences ne peut être négligé. Aucune déviation par rapport aux prédictions théoriques du Modèle Standard n'a été observée dans le spectre de masse invariante des paires top-antitop. Un premier aperçu des données à 13 TeV est également présenté / The CMS experiment at the LHC, the Large Hadron Collider, is a general-purpose detector built to study the proton-proton collisions produced by the LHC, corresponding to a broad physics programme ranging from studying the Standard Model and the Higgs bosons to searching for signal of new physics beyond the Standard Model.The first part of this thesis is dedicated to the jet energy calibration in CMS, one of the most challenging and crucial steps for the sucess of the physics programme within the hadronic environment. More specifically, the study of multijet events allows to constraint the jet energy scale beyond the TeV-scale. The jet energy corrections thus obtained are fundamental for the physics analyses using jets, and are used by all the CMS collaboration.The second part of this manuscript is dedicated to the search for new spin 0 particles decaying into top-antitop quarks pairs. Indeed, several new physics models predict new scalar or pseudoscalar particles with an enhanced coupling to the top quark. A phenomenological study of two of those models is presented, namely the two higgs doublet models (2HDM) and the minimal supersymmetric extension of the Standard Model (MSSM). These models both offer an enriched Higgs sector with in particular two additional neutral Higgs bosons, one scalar and one pseudoscalar. The analysis of the top-antitop pairs mass spectrum using data collected by CMS in 2012 at an energy in the center of mass of 8 TeV is presented, looking for such particles. This search takes into account for the first time the effects of interference between Standard Model top-antitop pairs production and its resonant production through the spin 0 particle. This work shows the impact of interference cannot be neglected. No deviation from the Standard Model predictions has been observed in the top-antitop mass spectrum. A first look at 13 TeV data is also presented
168

Réseaux de Petri Lots Triangulaires pour la modélisation mésoscopique et l'étude de la congestion dans le trafic routier / Triangular Batches Petri Nets for mesoscopic modeling and study for congestion in traffic road

Mnassri, Radhia 11 December 2015 (has links)
L'usage excessif des routes peut entraîner de nombreux inconvénients dont la pollution, les accidents et la congestion. Une solution accessible à court terme consiste à mettre en œuvre des systèmes de gestion de trafic. Dans ce cadre, nous proposons un formalisme, appelé Réseaux de Petri Lots Triangulaire, qui permet la modélisation et la simulation du trafic routier au niveau mésoscopique comme un système à événements discrets. Le RdPLots Triangulaire permet ainsi de décrire les caractéristiques globales du trafic routier: flux, densité et vitesse à travers la proposition d'une relation flux-densité triangulaire. Cette relation implique une modification de la dynamique des lots. Cette dynamique permet maintenant de représenter les deux états du trafic routier à savoir fluide et congestionné ainsi que les trois régimes dédiés au comportement libre, congestion et décongestion. Le calcul des flux instantanés des transitions est à présent réalisé par une méthode basée sur la technique de programmation linéaire en ajoutant une contrainte qui prend en compte l'état et le régime des lots. Pour modéliser des stratégies de contrôle telles que la variation de la vitesse limite (VSL), nous avons intégré au RdPLots Triangulaire des événements contrôlés qui permettent le changement de la vitesse maximale d'une place lot et le flux maximal d'une transition continue ou lot. Tous ces apports théoriques sont implémentés dans un logiciel que nous avons appelé SimuleauTri, sous lequel nous avons étudié des portions d'autoroute à partir des données réelles. Les résultats de simulation sont proches des mesures effectuées sur le terrain, et montrent la pertinence de RdPLots Triangulaire. / The excessive use of roads can cause many adverse effects including pollution, insecurity and congestion. The available short-term solution is the implementation of traffic management systems which optimize the flow and reduce congestion without needing additional infrastructures. In this context, we proposed a new formalism, called Triangular Batches Petri Nets (Triangular BPN), which combines modeling and simulation of traffic in mesoscopic level as a discrete event system. The Triangular BPN describing the overall characteristics of the road traffic such as flow, density, speed by representing a new triangular relation flow-density. This relation implies the modification of batches dynamic, which is now used to represent the two road traffic states : fluid and congested, as well as the three behaviors :free, congestion and decongestion. The calculation of the instantaneous firing flows is achieved by adding a constraint that takes into account the state and behavior of batches. A set of controlled events integrated to the Triangular BPN, that allow the variation of the maximum speed of batch place and the maximum flow of batch and continuous transition. These controlled events used to model the control strategies, such as variable speed limit (VSL). All these theoretical contributions implemented in a software that is called SimuleauTri and used to study a motorway portions from real data. The simulation results are close to the measurements on the ground and show the pertinence of Triangular BPN.
169

Calcul de probabilités d'événements rares liés aux maxima en horizon fini de processus stochastiques / Calculation of probabilities of rare events related to the finite-horizon maxima of stochastic processes

Shao, Jun 12 December 2016 (has links)
Initiée dans le cadre d’un projet ANR (le projet MODNAT) ciblé sur la modélisation stochastique de phénomènes naturels et la quantification probabiliste de leurs effets dynamiques sur des systèmes mécaniques et structuraux, cette thèse a pour objet le calcul de probabilités d’événements rares liés aux maxima en horizon fini de processus stochastiques, avec prise en compte des quatre contraintes imposées suivantes : (1) l’ensemble des processus considérés doit contenir les quatre grandes catégories de processus rencontrés en dynamique aléatoire, à savoir les gaussiens stationnaires, les gaussiens non stationnaires, les non gaussiens stationnaires et les non gaussiens non stationnaires ; (2) ces processus doivent pouvoir être, soit décrits par leurs lois, soit fonctions de processus décrits par leurs lois, soit solutions d’équations différentielles stochastiques, soit même solutions d’inclusions différentielles stochastiques ; (3) les événements en question sont des dépassements de seuils très élevés par les maxima en horizon fini des processus considérés et ces événements sont de très faible occurrence, donc de très faible probabilité (de l’ordre de 10 −4 à 10 −8 ), du fait de la valeur élevée des seuils ; et enfin (4) le recours à une approche Monte-Carlo pour effectuer ce type de calcul doit être banni, car trop chronophage compte tenu des contraintes précédentes. Pour résoudre un tel problème, dont le domaine d’intérêt s’étend bien au delà de la mécanique probabiliste et de la fiabilité structurale (on le rencontre notamment dans tous les secteurs scientifiques en connexion avec la statistique des valeurs extrêmes, comme par exemple les mathématiques financières ou les sciences économiques) une méthode innovante est proposée, dont l’idée maîtresse est née de l’analyse des résultats d’une étude statistique de grande ampleur menée dans le cadre du projet MODNAT. Cette étude, qui porte sur l’analyse du comportement des valeurs extrêmes des éléments d’un vaste ensemble de processus, a en effet mis en évidence deux fonctions germes dépendant explicitement de la probabilité cible (la première en dépendant directement, la seconde indirectement via une probabilité conditionnelle auxiliaire elle-même fonction de la probabilité cible) et possédant des propriétés de régularité remarquables et récurrentes pour tous les processus de la base de données, et c’est sur l’exploitation conjointe de ces propriétés et d’un principe d’approximation bas niveau-extrapolation haut niveau que s’appuie la construction de la méthode. Deux versions de celle-ci en sont d’abord proposées, se distinguant par le choix de la fonction germe et dans chacune desquelles cette fonction est approximée par un polynôme. Une troisième version est également développée, basée sur le formalisme de la deuxième version mais utilisant pour la fonction germe une approximation de type "fonction de survie de Pareto". Les nombreux résultats numériques présentés attestent de la remarquable efficacité des deux premières versions. Ils montrent également que celles-ci sont de précision comparable. La troisième version, légèrement moins performante que les deux premières, présente quant à elle l’intérêt d’établir un lien direct avec la théorie des valeurs extrêmes. Dans chacune de ses trois versions, la méthode proposée constitue à l’évidence un progrès par rapport aux méthodes actuelles dédiées à ce type de problème. De par sa structure, elle offre en outre l’avantage de rester opérationnelle en contexte industriel. / Initiated within the framework of an ANR project (the MODNAT project) targeted on the stochastic modeling of natural hazards and the probabilistic quantification of their dynamic effects on mechanical and structural systems, this thesis aims at the calculation of probabilities of rare events related to the maxima of stochastic processes over a finite time interval, taking into account the following four constraints : (1) the set of considered processes must contain the four main categories of processes encountered in random dynamics, namely stationary Gaussian, non-stationary Gaussian, stationary non-Gaussian and non-stationary non-Gaussian ones ; (2) these processes can be either described by their distributions, or functions of processes described by their distributions, or solutions of stochastic differential equations, or solutions of stochastic differential inclusions ; (3) the events in question are crossings of high thresholds by the maxima of the considered processes over finite time intervals and these events are of very weak occurrence, hence of very small probability, due to the high size of thresholds ; and finally (4) the use of a Monte Carlo approach to perform this type of calculation must be proscribed because it is too time-consuming given the above constraints. To solve such a problem, whose field of interest extends well beyond probabilistic mechanics and structural reliability (it is found in all scientific domains in connection with the extreme values theory, such as financial mathematics or economical sciences), an innovative method is proposed, whose main idea emerged from the analysis of the results of a large-scale statistical study carried out within the MODNAT project. This study, which focuses on analyzing the behavior of the extreme values of elements of a large set of processes, has indeed revealed two germ functions explicitly related to the target probability (the first directly related, the second indirectly via a conditional auxiliary probability which itself depend on the target probability) which possess remarkable and recurring regularity properties for all the processes of the database, and the method is based on the joint exploitation of these properties and a "low level approximation-high level extrapolation" principle. Two versions of this method are first proposed, which are distinguished by the choice of the germ function and in each of which the latter is approximated by a polynomial. A third version has also been developed. It is based on the formalism of the second version but which uses as germ function an approximation of "Pareto survival function" type. The numerous presented numerical results attest to the remarkable effectiveness of the first two versions. They also show that they are of comparable precision. The third version, slightly less efficient than the first two, presents the interest of establishing a direct link with the extreme values theory. In each of its three versions, the proposed method is clearly an improvement compared to current methods dedicated to this type of problem. Thanks to its structure, it also offers the advantage of remaining operational in industrial context.
170

Interactions climatiques et hydrologiques du système Méditerranée/Atlantique au Quaternaire

Penaud, Aurélie 04 December 2009 (has links)
Tandis que la variabilité climatique à long terme du Quaternaire terminal (oscillations glaciaire/interglaciaire) est relativement bien appréhendée aujourd’hui, l'origine et la modalité des variations climatiques haute-fréquence séculaires à millénaires, depuis la très haute fréquence des cycles de Dansgaard-Oeschger (D/O) jusqu'à la plus grande périodicité des événements d'Heinrich, restent toujours matière à débat. Parmi les éléments encore équivoques se trouvent notamment les modalités de transferts de chaleur méridiens et latitudinaux. A ce titre, la connexion hydrologique entre l’Atlantique et la Méditerranée apparaît comme un exemple d’étude particulièrement approprié vu qu’elle illustre le couplage de phénomènes jouant selon un double gradient Est-Ouest et Nord-Sud, reliant ainsi processus subtropicaux et nord atlantiques. Nous avons ainsi ciblé nos analyses sur des séquences prélevées autour du détroit de Gibraltar, avec pour objectif d’étendre les connaissances spatiales et temporelles de la variabilité climatique haute fréquence des derniers 50 000 ans dans le secteur de l’Atlantique Est subtropical et de la Méditerranée occidentale. La méthodologie de cette thèse est ainsi basée sur une comparaison multi-proxies qui inclut des analyses micropaléontologiques (dinokystes et foraminifères planctoniques) et géochimiques (isotopes stables et alkénones). Nous avons ainsi pu tester la cohérence des changements hydrologiques de surface inter- et intra-bassins et tenter de caractériser la migration des fronts hydrologiques associés. Grâce aux sites des marges marocaine et portugaise, notamment, nous avons pu vérifier l’impact des cycles de D/O sur la variabilité de l’intensité des cellules d’upwelling côtières dans ce secteur et sur la dynamique de la veine d’eau méditerranéenne profonde (MOW), couplant signaux des masses d’eau superficielles (température, salinité et productivité) aux paléo-intensités de la MOW. / While the long-term climatic variability of the Quaternary is relatively well understood today, the causes and processes at the origin of the rapid and brutal climatic variability that characterized the last glacial period (Dansgaard-Oeschger cycles), including meridional and latitudinal heat transfer mechanisms, are still subject to debate. As such, studying the hydrological connection between the Atlantic and the Mediterranean Sea appears particularly appropriate since it illustrates the coupling acting on a double East-West and North-South gradient. It furthermore links subtropical processes and North Atlantic ones. We focused our analysis on sedimentary sequences retrieved around the Strait of Gibraltar, in order to extend the spatial and temporal knowledges about the impact of the high frequency climatic variability of the last 50 000 years in the sector of the eastern subtropical Atlantic and of the western Mediterranean Sea. The methodology of this thesis is based on a multi-proxy compilation coupling micropaleontological (dinocysts and planktonic foraminifera) and geochemical (stable isotopes and alkenones) approaches. We have tested the consistency of the sea-surface paleohydrological changes at inter-and intra-basins scales and tried to characterize the associated migration of the hydrological fronts. Sites of the Portuguese and Moroccan margins, in particular, allowed us to document the impact of the D/O cycles on the intensity of coastal upwelling cells as well as on the dynamics of the MOW, by coupling sea surface signals (temperature, salinity and productivity) to paleointensity of the MOW.

Page generated in 0.0774 seconds