• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 798
  • 252
  • 84
  • 13
  • 4
  • 4
  • 3
  • 2
  • 1
  • Tagged with
  • 1162
  • 252
  • 200
  • 162
  • 123
  • 93
  • 87
  • 85
  • 76
  • 70
  • 66
  • 65
  • 64
  • 62
  • 59
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
461

La pertinence d'utiliser les modèles complexes de la théorie des réponses aux items dans les évaluations internationales selon un devis d'échantillonnage d'items complet ou matriciel /

Frenette, Éric. January 2004 (has links)
Thèse (Ph. D.)--Université Laval, 2004. / Bibliogr.: f. [127-151]. Publié aussi en version électronique.
462

Graphène synthétisé par dépôt chimique en phase vapeur : du contrôle et de la compréhension des défauts à l'échelle atomique jusqu'à la production de dispositifs fonctionnels macroscopiques / Graphene produced by chemical vapor deposition : from control and understanding of atomic scale defects to production of macroscale functional devices

Kalita, Dipankar 25 June 2015 (has links)
Si le graphène est un candidat prometteur pour de nombreuses applications, il reste des questions fondamentales à résoudre. Les objectifs de cette thèse visent à obtenir une crois- sance de graphène de haute qualité, à développer de nouveaux concepts de transfert pour réaliser de nouveaux dispositifs tout en contrôlant la formation de défauts dans sa struc- ture. Nous avons été en mesure d'augmenter la surface d'une monocouche polycristalline de graphène d'une échelle de quelques centimètres à celle d'une plaquette de silicium sans changer de chambre CVD. D'autre part, nous avons démontré une méthode permettant de diminuer la densité de nucléation et ainsi d'obtenir du graphène monocristallin de quelques centaines de microns. Concernant la réalisation de nouveaux dispositifs, nous avons obtenu des circuits à base de graphène polycristallin empilés par transferts successifs où la région de bicouche artificielle se comporte comme un bicouche intrinsèque. Nous avons également développé une nouvelle méthode pour suspendre le graphène à l'échelle macroscopique sur des supports en piliers. Dans un tel système, les contraintes dans le graphène restent in- férieures à 0,2%. Par la suite une méthode de dépôt d'électrodes par voie sèche a été développée pour éviter toute dégradation du graphène. Ce processus de transfert a été amélioré pour atteindre des tailles de substrats allant jusqu'à 4 pouces pour le silicium et le saphir. Il a été enfin utilisé comme électrode transparente d'une LED à puits quantiques pour remplacer des électrodes Ni / Au . Nous avons mis au point des procédés de création sélective de défauts sur le graphène. Tout d'abord des défauts ont été induits chimiquement de façon contrôlable et ont été analysés par spectroscopie Raman et microscopie électronique en transmission qui ont révélé un mécanisme en deux étapes de formation de défauts dans la structure de graphène. Nous avons également étudié l'effet des défauts chargés adsorbés sur la surface du graphène sans former de liaisons avec lui. Contrairement à la littérature où les particules chargées sont déposées a posteriori, les nanoparticules chargées étaient présentes pendant la croissance sur cuivre. Nous interprétons l'existence d'une bande de phonons D' très intense devant celle de la D, et encore jamais signalée avec la présence de ces nanoparticules / Though graphene is strong candidate to make various applications, still there are issues that need to be resolved. The purpose of this thesis is to grow high quality graphene and transfer it to make new graphene based devices and to engineer defects into graphene structure. We have been able to increase the growth polycrystalline monolayer graphene from few centimeter scale to wafer scale without changing the CVD chamber. At the same time, we have demonstrated a method to decrease the nucleation density which allows us to grow large single crystal graphene from few to hundreds of micrometer. Concerning new design of graphene based devices, the polycrystalline graphene was trans- ferred to create artificial bilayer crossbars where the bilayer region behaved like naturally grown bilayer graphene. We have also developed a novel method of suspending graphene in macroscopic scale in pillared surface. In such a system, the strain in graphene is found to be less than 0.2%. Thereafter a completely dry method of depositing electrodes was developed which prevents damaging of graphene. The scale and process of transferring graphene was improved to different substrates such as 4 inch Si and sapphire substrates. It was used as transparent electrode to in a quantum well LED to replace the Ni/Au electrodes. We have been able to engineer defects into graphene. Firstly defects were induced in a controllable way using chemical method and were analyzed using Raman spectroscopy and Transmission Electron Microscopy which revealed a two step mechanism of defect formation in the graphene structure. We have also studied the effect of charged defects which adsorb onto the graphene surface without forming bonds with it. Unlike in literature where charged particles were deposited onto graphene, here the charged nano particles were present dur- ing the growth process in the copper foil. We believe that due to these nano particles, the intensity of D' phonon is greatly enhanced. Such anomalously higher intensity of D' band compared to D band has not been reported before
463

Refined predictions for cosmic rays and indirect dark matter searches / Raffinement des prédictions théoriques pour la physique du rayonnement cosmique

Genolini, Yoann 10 July 2017 (has links)
Il y a tout juste cent ans que les premières mesures du taux d'ionisation de l'air ont dévoilé que la terre est sans cesse bombardée par une pluie de particules énergétiques provenant du Cosmos. D'un point de vue astrophysique, l'origine de ces particules hautement relativistes, appelés rayons cosmiques (CRs), ainsi que leur mécanisme d'accélération restent très peu connus. Le paradigme actuel suppose une injection sporadique des CRs accélérés par la propagation d'ondes de choc au cours de la mort de certaines étoiles (SNRs).Les mesures récentes des flux de CRs (par les expériences PAMELA et AMS-02 par exemple) inaugurent une nouvelle ère de précision dans la mesure où les incertitudes statistiques sont désormais considérablement réduites. Dans ce mémoire de thèse, nous proposons et approfondissons de nouvelles pistes théoriques de manière à maximiser l'information extraite de ces nouvelles données.Après une introduction générale sur la physique des CRs, nous nous concentrons sur les espèces dites primaires, qui sont produites directement par les SNRs. De la nature discrète des SNRs et de la méconnaissance quasi-complète de leurs positions et de leurs ages résulte une incertitude théorique qui nécessite d'être estimée pour la prédiction des flux observés sur Terre. Jusqu'alors ces prédictions se contentent de calculer la moyenne d'ensemble de ce flux. Dans cette partie nous exposons la théorie statistique que nous avons élaborée, permettant de calculer la probabilité d'une déviation du flux mesuré par rapport à la moyenne d'ensemble. Nous sommes amenés à utiliser une version généralisée du théorème de la limite centrale, avec lequel nous montrons que la loi de probabilité est intimement reliée à la distribution des sources et qu'elle converge vers une loi stable. Cette dernière diffère de la loi gaussienne par sa queue lourde en loi de puissance. Le cadre théorique développé ici peut non seulement être étendu à d'autres observables du rayonnement cosmique, mais aussi enrichi en incluant une description plus complète des corrélations entre les sources. De plus, la méthode que nous avons développée peut être appliquée à d'autres problèmes de physique/astrophysique impliquant des distributions à queue lourde.Deuxièmement nous nous penchons sur les CRs dits secondaires (comme le bore), qui sont produits par les collisions des espèces primaires avec le milieu interstellaire. Plus précisément nous nous concentrons sur le rapport du flux du bore sur celui du carbone qui est traditionnellement utilisé pour comprendre la propagation des CRs. Ainsi, tout porte à croire que les mesures extrêmement précises de ce rapport nous donneraient de fortes contraintes sur les scénarios de propagation. Malheureusement il n'en est rien et nous montrons que le calcul théorique dépend fortement de certaines hypothèses telles que le lieu de production des secondaires et le choix du jeux de sections efficaces d’interaction. Nous estimons à au moins 20 % les incertitudes sur les paramètres de propagation dérivés jusqu'à maintenant. Grâce aux nouvelles données de l'expérience AMS-02, nous présentons les points de départ de notre nouvelle analyse pour laquelle nous utilisons le code semi-analytique USINE.Finalement, dans une troisième partie, nous utilisons ces données de précision pour réactualiser les analyses portant sur la recherche indirecte de matière noire. En effet, les CRs d'antimatière seraient -au même titre que le bore- des particules secondaires. La prédiction de leur fond astrophysique repose sur une connaissance précise de la propagation des CRs et de leurs interactions dans la Galaxy. Nous les traitons ici sous les hypothèses habituelles et réévaluons les flux de positrons et d'antiprotons à la lumière des nouvelles données d'AMS-02. Nous discutons ensuite les conséquences pour la matière noire et les possibles explications astrophysiques d'éventuels excès observés. / A hundred years ago, pioneering observations of air ionization revealed that the Earth is showered with particles coming from the Galaxy and beyond. Because of their high energies, these particles coined cosmic-rays are still a crucial tool in the field of particle physics, complementary to man-made accelerators. From an astrophysical point of view, the origin of cosmic-rays and the mechanisms which accelerate them are still very poorly known. The present paradigm involves sporadic production associated with the expanding shock waves from dying stars (SNRs).Recent experiments (notably PAMELA and, more recently, AMS-02) are ushering us into a new era of measurements of cosmic-ray fluxes with greatly reduced statistical uncertainties. In this dissertation, we propose and investigate new theoretical refinements of our predictions to fully benefit from these advances.After a general introduction on cosmic-ray physics, we first focus on the so-called primary species which are directly produced by SNRs. In this context of precision measurements, the discreteness of the sources in space and time, together with a substantial ignorance of their precise epochs and locations (with the possible exception of the most recent and close ones) may lead to significant uncertainties in the predictions of the fluxes at the Earth. So far, the conventional approach just relied on average trends. Here, we elaborate a statistical theory in order to compute the probability for the actual flux to depart from its ensemble average. Using the generalized version of the central limit theorem, we demonstrate that the probability distribution function of the flux is intimately related to the source distribution and follows a stable law with a heavier tail than the Gaussian distribution. Our theoretical framework can not only be extended to other cosmic-ray observables, such as the lepton flux, but also can be enriched to include a more comprehensive description of the correlations between the sources. Moreover the method which we have developed may be applied to a variety of problems in physics/astrophysics involving heavy tail distributions.Secondly, we concentrate on secondary CRs, like the boron nuclei, which are thought to be produced only by the collisions of cosmic-rays on the interstellar medium. More precisely, the ratio of the boron to carbon fluxes is a traditional tool used to understand and gauge the propagation of cosmic-rays in the Galaxy. Hence a very precise measurement of this ratio should imply stringent constraints on the propagation scenario. However we show that its theoretical derivation strongly depends on where these secondary species are produced as well as on the chosen set of nuclear cross-sections. Hence we assess at the 20% level the theoretical uncertainties on the so far derived propagation parameters. As new data from AMS-02 were freshly released, we present the starting points of a comprehensive new analysis for which we use the semi-analytical code USINE.Finally these high precision measurements offer new opportunities for a number of astroparticle problems, such as indirect dark matter searches which is the main thrust of the third part of the thesis. Antimatter cosmic rays are thought to be secondary species and their relatively low fluxes make them a channel of choice to look for rare processes such as dark matter annihilation. Nonetheless, the predictions of the expected backgrounds rely on a precise modeling of cosmic-ray propagation and interactions in the Galaxy. We treat them under commonly used simplified assumptions and discuss two studies where we re-evaluate the anti-proton and the positron fluxes in the light of the new AMS-02 data. Then we discuss the implications for dark matter and astrophysical explanations.
464

Analyse et modélisation de la qualité perçue des applications de visiophonie / Analysis and modeling of the perceived quality for videophone applications

Saidi, Inès 28 February 2018 (has links)
Dans un contexte fortement concurrentiel, l'un des principaux enjeux pour les opérateurs et les fournisseurs de services de visiophonie est de garantir aux utilisateurs une qualité d'expérience (QoE) optimale. Il existe un fort besoin d'une mesure qui reflète la satisfaction et la perception des utilisateurs de ces services. La qualité audiovisuelle d'un appel vidéo doit être contrôlée pour répondre à deux besoins principaux. Le premier concerne la planification de nouvelles technologies en cours de développement. Le second est axé sur le contrôle des communications existantes en évaluant la qualité des services offerts. Aujourd'hui, deux approches sont utilisées pour évaluer la qualité audiovisuelle : les tests subjectifs en collectant des notes données par des participants sur des échelles de qualité, après visualisation et écoute de séquences audiovisuelles et les métriques objectives basées sur des algorithmes automatiques d'évaluation de la qualité d'un signal audio, vidéo ou audiovisuel. Concernant les services de téléphonie, des décennies de recherche, de standardisation et d'exploitation des réseaux ont permis aux opérateurs de maîtriser les outils de diagnostic et de déterminer les métriques représentatives de la qualité vocale. Cependant, les méthodes de mesure de la qualité audiovisuelle des services conversationnels ne sont pas encore matures et peu exploitées par les opérateurs de télécommunication. Le présent travail est centré sur la recherche de métriques représentatives de la perception de la qualité des nux associés aux services de visiophonie et de visioconférence. Ces métriques objectives sont calculées à partir du signal audio et vidéo. Des tests subjectifs sont menés afin de collecter le jugement des utilisateurs du service sur la qualité perçue en fonction de différents niveaux de dégradations. Nous avons étudié l'impact des conditions réseau (perte de paquet, gigue et désynchronisation) sur la QoE d'un appel vidéo. Le principe général est ensuite d'établir une corrélation forte entre les métriques objectives sélectionnées et la qualité perçue telle qu'elle est exprimée par les utilisateurs. Les résultats ont montré que les nouvelles métriques de qualité globale audiovisuelle qui prennent en compte l'aspect temporel de la vidéo sont plus performantes que les métriques basées qualité d'images. D'autre part l'utilisation d'une approche machine learning représente une solution pour générer un modèle de prédiction de la qualité globale à partir des métriques de dégradation (flou, pixellisation, gel d'images, ... ) / In a highly competitive environment, one of the key challenges for operators and providers of video telephony services is to ensure the highest quality of experience (QoE). There is a strong need for a measure that reflects users satisfaction and perception of these services. The audio-visual quality of a video call must be controlled to meet two main needs. The first concerns the planning of new technologies under development. The second is focused on the control of existing communications by assessing the quality of the services offered and evaluating them. Two approaches are used to evaluate audio-visual quality: subjective tests by collecting scores given by participants on quality scales, after viewing and listening to audiovisual sequences and objective metrics based on automatic audio/ video or audiovisual quality evaluation algorithms. Concerning telephony services, decades of research, standardization work and network exploitation, have allowed operators to master the automatic monitoring tools and to determine the representative metrics of voice quality. However, the metrics for measuring the audiovisual quality of a conversational services are not yet mature and not exploited by telecommunication operators. The present work focuses on finding representative metrics of the perception of the video telephony anc videoconferencing services quality. These objective metrics are calculated from the audio and video signals. Subjective tests are conducted to collect the judgment of service users on the perceived quality according to different levels of degradation. We studied the impact of network conditions (packet loss, jitter and desynchronization) on the QoE of a video call. The general principle is then to establish a correlation between the selected objective metrics and the perceived quality as expressed by the users. The results showed that new metric of overall audiovisual quality that take into account the temporal aspect of video are more powerful than image quality based metrics. On the other hand, the use of a machine learning approach represents a solution to generat a global quality prediction model from the degradation metrics (blur, pixelization, image freezing, ... )
465

Optimisation des mesures d'interrogation neutronique active par couplage d'une méthode de correction des effets de matrice / Optimization of active neutron interrogation measurement by coupling with a method for correcting matrix effects

Antoni, Rodolphe 21 March 2014 (has links)
La masse fissile dans les fûts de déchets radioactifs remplis de résidus métalliques compactés (coques et embouts des combustibles usés) produits à l'usine de retraitement de La Hague est mesurée par interrogation neutronique active, sut l'atelier de compactage de coques et embouts (ACC). Dans le futur, des déchets anciens de cette nature mélangés à des résines échangeuses d'ions seront traités dans cette installation. Ces résines ont pour effet d'augmenter la propriété de modération des neutrons dans la matrice du fût, en comparaison des déchets mesurés actuellement. Dans ce contexte, une méthode de correction des effets de matrice basée sur l'utilisation de la mesure associée d'un moniteur de fût (compteur proportionnel à 3He) a été étudiée. La faisabilité de la méthode a dans un premier temps été étudiée sur la maquette R&D PROMETHEE 6, permettant de mettre en évidence d'une part une bonne corrélation entre le signal du moniteur et les effets de matrice et d'autre part une capacité du code de transport de particule MCNP a reproduire les performances expérimentales de la méthode. Par la suite, les performances finales de l'implantation de cette méthode sur le poste industriel 0-2 en entrée d'ACC ont été évaluées par simulation numérique. Les résultats des calculs concluent à une estimation de la masse fissile résiduelle avec une erreur d'environ un facteur 2, alors que celle-ci pourrait atteindre 2 décades sans la méthode de correction. Par ailleurs, l'analyse des résultats expérimentaux sur la mesure des fûts de la production courante en présence d'un moniteur de fût, établit une corrélation satisfaisante entre des propriétés physiques connues de la matrice pour ce type de déchets (modération et absorption) et le signal du moniteur, démontrant ainsi la fiabilité de l'approche proposée. En conséquence, cette méthode de correction sera implantée sur le poste industriel peut être préconisée pour d'autres dispositifs d'interrogation neutronique active. / The fissile mass in radioactive waste drums filled with compacted metallic residues (spent fuel hulls and nozzles) produced at AREVA La Hague reprocessing plant is measured by neutron interrogation with the Differential Die-away measurement Technique, on the waste compaction facility (ACC). In the future, old hulls and nozzles mixed with ion-exchange resins will be measured. The ion-exchange resins increase neutron moderation in the matrix, compared to the waste measured in the current process. In this context, a matrix effect correction method based on a drum monitor (3He proportional counter) has been studied. The feasibility of the method was first performed with the R&D measurement cell PROMETHEE 6, showing a good correlation between the monitor signal and the matrix effect correction, and the capability of MCNP simulations to reproduce experiments and to estimate the performances of the proposed correction. Therefore, the industrial implementation of the method and the assessment of its final performances have been studied by numerical simulation. Calculations demonstrate that the method allows keeping the highest error on the measured fissile mass below roughly a factor of 2, while the matrix effect without correction ranges on 2 orders of magnitude. In addition, the analysis of experimental data from the current process shows a good correlation between known physical properties of the matrix (moderation and absorption) and the monitor signal, demonstrating the reliability of the proposed approach. According to these satisfactory results, this correction method will be implemented on the industrial station. More generally, this method could be applied to similar waste measurement systems.
466

Etude qualitative de modèles dispersifs / Qualitative study of dispersive models

Darwich, Mohamad 25 June 2013 (has links)
Dans cette thèse nous nous intéressons aux propriétés qualitatives des solutions de quelques équations d’ondes en milieux dispersifs ou dispersifs-dissipatifs. Dans le premier chapitre, nous étudions l’explosion de solutions dans le régime log-log et l’existence globale pour le problème de Cauchy de l’équation de Schrödinger L2-critique amortie. Dans un second chapitre, nous considérons l’équation de Schrödinger L2-critique avec un amortissement non linéaire. Selon la puissance du terme d’amortissement, nous montrons l’existence globale ou l’explosion en régime log-log. Dans le troisième chapitre, nous étudions le problème de Cauchy pour l’équation de Kadomtsev-Petviashvili-Burgers-I (KPBI) en deux dimensions,nous montrons que le problème est localement bien posé dans Hs(R2) pour tout s > -½, et que l’existence est globale dans L2(R2) sans aucune condition sur la donnée initiale. Dans le dernier chapitre, nous considèrons l’équation d’Ostrovsky sur le cercle, et nous construisons des mesures invariantes par le flot selon les quantitées conservées par cette équation. / This thesis deals with the qualitative properties of solutions to some wave equations in dispersive or dispersive-dissipative media. In the first chapter, we study the blowup in the log-log regime and global existence of solutions to the Cauchy problem for the L2-critical damped nonlinear Schrödinger equation. In the second chapter, we consider the Cauchy problem for the L2-critical nonlinear Schrödinger equation with a nonlinear damping. According to the power of the damping term, we prove the global existence or the existence of finite time blowup dynamics with a log-log blow-up law. In the third chapter, we study the Cauchy problem for the Kadomtsev-Petviashvili-Burgers-I (KPBI) equations in two dimensions. We show that the problem is locally and globally well posed in Hs(R2) for any s > -½ , and that the existence is global in L2(R2) without any condition on the initial data. In the last chapter, we consider the Ostrovsky equation on the circle. We construct invariant measures under the flow for the conserved quantities of the equation.
467

Stress, uncertainty and multimodality of risk measures / Stress, incertitude et multimodalité des mesures de risque

Li, Kehan 06 June 2017 (has links)
Dans cette thèse, nous discutons du stress, de l'incertitude et de la multimodalité des mesures de risque en accordant une attention particulière à deux parties. Les résultats ont une influence directe sur le calcul du capital économique et réglementaire des banques. Tout d'abord, nous fournissons une nouvelle mesure de risque - la VaR du stress du spectre (SSVaR) - pour quantifier et intégrer l'incertitude de la valeur à risque. C'est un modèle de mise en œuvre de la VaR stressée proposée par Bâle III. La SSVaR est basée sur l'intervalle de confiance de la VaR. Nous étudions la distribution asymptotique de la statistique de l'ordre, qui est un estimateur non paramétrique de la VaR, afin de construire l'intervalle de confiance. Deux intervalles de confiance sont obtenus soit par le résultat gaussien asymptotique, soit par l'approche saddlepoint. Nous les comparons avec l'intervalle de confiance en bootstrapping par des simulations, montrant que l'intervalle de confiance construit à partir de l'approche saddlepoint est robuste pour différentes tailles d'échantillons, distributions sous-jacentes et niveaux de confiance. Les applications de test de stress utilisant SSVaR sont effectuées avec des rendements historiques de l'indice boursier lors d'une crise financière, pour identifier les violations potentielles de la VaR pendant les périodes de turbulences sur les marchés financiers. Deuxièmement, nous étudions l'impact de la multimodalité des distributions sur les calculs de la VaR et de l'ES. Les distributions de probabilité unimodales ont été largement utilisées pour le calcul paramétrique de la VaR par les investisseurs, les gestionnaires de risques et les régulateurs. Cependant, les données financières peuvent être caractérisées par des distributions ayant plus d'un mode. Avec ces données nous montrons que les distributions multimodales peuvent surpasser la distribution unimodale au sens de la qualité de l'ajustement. Deux catégories de distributions multimodales sont considérées: la famille de Cobb et la famille Distortion. Nous développons un algorithme d'échantillonnage de rejet adapté, permettant de générer efficacement des échantillons aléatoires à partir de la fonction de densité de probabilité de la famille de Cobb. Pour une étude empirique, deux ensembles de données sont considérés: un ensemble de données quotidiennes concernant le risque opérationnel et un scénario de trois mois de rendement du portefeuille de marché construit avec cinq minutes de données intraday. Avec un éventail complet de niveaux de confiance, la VaR et l'ES à la fois des distributions unimodales et des distributions multimodales sont calculés. Nous analysons les résultats pour voir l'intérêt d'utiliser la distribution multimodale au lieu de la distribution unimodale en pratique. / In this thesis, we focus on discussing the stress, uncertainty and multimodality of risk measures with special attention on two parts. The results have direct influence on the computation of bank economic and regulatory capital. First, we provide a novel risk measure - the Spectrum Stress VaR (SSVaR) - to quantify and integrate the uncertainty of the Value-at-Risk. It is an implementation model of stressed VaR proposed in Basel III. The SSVaR is based on the confidence interval of the VaR. We investigate the asymptotic distribution of the order statistic, which is a nonparametric estimator of the VaR, in order to build the confidence interval. Two confidence intervals are derived from either the asymptotic Gaussian result, or the saddlepoint approach. We compare them with the bootstrapping confidence interval by simulations, showing that the confidence interval built from the saddlepoint approach is robust for different sample sizes, underlying distributions and confidence levels. Stress testing applications using SSVaR are performed with historical stock index returns during financial crisis, for identifying potential violations of the VaR during turmoil periods on financial markets. Second, we investigate the impact of multimodality of distributions on VaR and ES calculations. Unimodal probability distributions have been widely used for parametric VaR computation by investors, risk managers and regulators. However, financial data may be characterized by distributions having more than one modes. For these data, we show that multimodal distributions may outperform unimodal distribution in the sense of goodness-of-fit. Two classes of multimodal distributions are considered: Cobb's family and Distortion family. We develop an adapted rejection sampling algorithm, permitting to generate random samples efficiently from the probability density function of Cobb's family. For empirical study, two data sets are considered: a daily data set concerning operational risk and a three month scenario of market portfolio return built with five minutes intraday data. With a complete spectrum of confidence levels, the VaR and the ES from both unimodal distributions and multimodal distributions are calculated. We analyze the results to see the interest of using multimodal distribution instead of unimodal distribution in practice.
468

Algorithmes automatiques pour la fouille visuelle de données et la visualisation de règles d’association : application aux données aéronautiques / Automatic algorithms for visual data mining and association rules visualization : application to aeronautical data

Bothorel, Gwenael 18 November 2014 (has links)
Depuis quelques années, nous assistons à une véritable explosion de la production de données dans de nombreux domaines, comme les réseaux sociaux ou le commerce en ligne. Ce phénomène récent est renforcé par la généralisation des périphériques connectés, dont l'utilisation est devenue aujourd'hui quasi-permanente. Le domaine aéronautique n'échappe pas à cette tendance. En effet, le besoin croissant de données, dicté par l'évolution des systèmes de gestion du trafic aérien et par les événements, donne lieu à une prise de conscience sur leur importance et sur une nouvelle manière de les appréhender, qu'il s'agisse de stockage, de mise à disposition et de valorisation. Les capacités d'hébergement ont été adaptées, et ne constituent pas une difficulté majeure. Celle-ci réside plutôt dans le traitement de l'information et dans l'extraction de connaissances. Dans le cadre du Visual Analytics, discipline émergente née des conséquences des attentats de 2001, cette extraction combine des approches algorithmiques et visuelles, afin de bénéficier simultanément de la flexibilité, de la créativité et de la connaissance humaine, et des capacités de calculs des systèmes informatiques. Ce travail de thèse a porté sur la réalisation de cette combinaison, en laissant à l'homme une position centrale et décisionnelle. D'une part, l'exploration visuelle des données, par l'utilisateur, pilote la génération des règles d'association, qui établissent des relations entre elles. D'autre part, ces règles sont exploitées en configurant automatiquement la visualisation des données concernées par celles-ci, afin de les mettre en valeur. Pour cela, ce processus bidirectionnel entre les données et les règles a été formalisé, puis illustré, à l'aide d'enregistrements de trafic aérien récent, sur la plate-forme Videam que nous avons développée. Celle-ci intègre, dans un environnement modulaire et évolutif, plusieurs briques IHM et algorithmiques, permettant l'exploration interactive des données et des règles d'association, tout en laissant à l'utilisateur la maîtrise globale du processus, notamment en paramétrant et en pilotant les algorithmes. / In the past few years, we have seen a large scale data production in many areas, such as social networks and e-business. This recent phenomenon is enhanced by the widespread use of devices, which are permanently connected. The aeronautical field is also involved in this trend. Indeed, its growing need for data, which is driven by air trafic management systems evolution and by events, leads to a widescale focus on its key role and on new ways to manage it. It deals with storage, availability and exploitation. Data hosting capacity, that has been adapted, is not a major challenge. The issue is now in data processing and knowledge extraction from it. Visual Analytics is an emerging field, stemming from the September 2001 events. It combines automatic and visual approaches, in order to benefit simultaneously from human flexibility, creativity and knowledge, and also from processing capacities of computers. This PhD thesis has focused on this combination, by giving to the operator a centered and decisionmaking role. On the one hand, the visual data exploration drives association rules extraction. They correspond to links between the data. On the other hand, these rules are exploited by automatically con_gurating the visualization of the concerned data, in order to highlight it. To achieve this, a bidirectional process has been formalized, between data and rules. It has been illustrated by air trafic recordings, thanks to the Videam platform, that we have developed. By integrating several HMI and algorithmic applications in a modular and upgradeable environment, it allows interactive exploration of both data and association rules. This is done by giving to human the mastering of the global process, especially by setting and driving algorithms.
469

Compréhension de scènes urbaines par combinaison d'information 2D/3D / Urban scenes understanding by combining 2D/3D information

Bauda, Marie-Anne 13 June 2016 (has links)
Cette thèse traite du problème de segmentation sémantique d'une séquence d'images calibrées acquises dans un environnement urbain. Ce problème consiste, plus précisément, à partitionner chaque image en régions représentant les objets de la scène (façades, routes, etc.). Ainsi, à chaque région est associée une étiquette sémantique. Dans notre approche, l'étiquetage s'opère via des primitives visuelles de niveau intermédiaire appelés super-pixels, lesquels regroupent des pixels similaires au sens de différents critères proposés dans la littérature, qu'ils soient photométriques (s'appuyant sur les couleurs) ou géométriques (limitant la taille des super-pixels formés). Contrairement à l'état de l'art, où les travaux récents traitant le même problème s'appuient en entrée sur une sur-segmentation initiale sans la remettre en cause, notre idée est de proposer, dans un contexte multi-vues, une nouvelle approche de constructeur de superpixels s'appuyant sur une analyse tridimensionnelle de la scène et, en particulier, de ses structures planes. Pour construire de «meilleurs» superpixels, une mesure de planéité locale, qui quantifie à quel point la zone traitée de l'image correspond à une surface plane de la scène, est introduite. Cette mesure est évaluée à partir d'une rectification homographique entre deux images proches, induites par un plan candidat au support des points 3D associés à la zone traitée. Nous analysons l'apport de la mesure UQI (Universal Quality Image) et montrons qu'elle se compare favorablement aux autres métriques qui ont le potentiel de détecter des structures planes. On introduit ensuite un nouvel algorithme de construction de super-pixels, fondé sur l'algorithme SLIC (Simple Linear Iterative Clustering) dont le principe est de regrouper les plus proches voisins au sens d'une distance fusionnant similarités en couleur et en distance, et qui intègre cette mesure de planéité. Ainsi la sur-segmentation obtenue, couplée à la cohérence interimages provenant de la validation de la contrainte de planéité locale de la scène, permet d'attribuer une étiquette à chaque entité et d'obtenir ainsi une segmentation sémantique qui partitionne l'image en objets plans. / This thesis deals with the semantic segmentation problem of a calibrated sequence of images acquired in an urban environment. The problem is, specifically, to partition each image into regions representing the objects in the scene such as facades, roads, etc. Thus, each region is associated with a semantic tag. In our approach, the labelling is done through mid-level visual features called super-pixels, which are groups of similar pixels within the meaning of some criteria proposed in research such as photometric criteria (based on colour) or geometrical criteria thus limiting the size of super-pixel formed. Unlike the state of the art, where recent work addressing the same problem are based on an initial over-segmentation input without calling it into question, our idea is to offer, in a multi-view environment, another super-pixel constructor approach based on a three-dimensional scene analysis and, in particular, an analysis of its planar structures. In order to construct "better" super-pixels, a local flatness measure is introduced which quantifies at which point the zone of the image in question corresponds to a planar surface of the scene. This measure is assessed from the homographic correction between two close images, induced by a candidate plan as support to the 3D points associated with the area concerned. We analyze the contribution of the UQI measure (Universal Image Quality) and demonstrate that it compares favorably with other metrics which have the potential to detect planar structures. Subsequently we introduce a new superpixel construction algorithm based on the SLIC (Simple Linear Iterative Clustering) algorithm whose principle is to group the nearest neighbors in terms of a distance merging similarities in colour and distance, and which includes this local planarity measure. Hence the over-segmentation obtained, coupled with the inter-image coherence as a result of the validation of the local flatness constraint related to the scene, allows assigning a label to each entity and obtaining in this way a semantic segmentation which divides the image into planar objects.
470

Etude des précipitations en Antarctique par télédétection radar, mesures in-situ, et intercomparaison de modèles de climat / Study of Antarctic precipitation by radar remote sensing, in-situ measurements, and intercomparison of climate models

Palerme, Cyril 21 November 2014 (has links)
Au cours du XXIème siècle, une augmentation des précipitations est attendue dans les régions polaires. En Antarctique, cette augmentation devrait se traduire par une accumulation de neige sur le continent, contribuant ainsi positivement au bilan de masse de la calotte polaire, et par conséquent négativement au niveau des mers. Les modèles utilisés pour simuler le climat du XXIème siècle prédisent presque tous une augmentation des précipitations en Antarctique, mais l'importance de ce changement diffère fortement d'un modèle à l'autre. De plus, les taux de précipitation actuels reproduits par ces mêmes modèles divergent également beaucoup. Cependant, faute d'observation fiable de précipitation en Antarctique, il était jusqu'à présent difficile de vérifier la capacité des modèles à simuler ces dernières. Dans cette étude, les données issues du radar météorologique embarqué à bord du satellite CloudSat ont été utilisées afin de produire la première climatologie de précipitation en Antarctique à partir d'observations. Cette climatologie couvre la période août 2006 - avril 2011, et a montré de très bons accords avec les réanalyses ERA Interim qui n'utilisent pas d'observations issues de CloudSat. Le taux de chute de neige obtenu avec CloudSat sur le continent Antarctique jusqu'à 82°S est en moyenne de 171 mm/an. L'automne austral est la saison avec les chutes de neige les plus importantes, et le printemps austral, la saison avec les chutes de neige les plus faibles. Par ailleurs, une expérience de mesure in-situ des précipitations a été développée sur la base de Dumont d'Urville en Antarctique, des observations in-situ étant nécessaires à la validation des algorithmes de télédétection. Un système de profilage utilisant des capteurs optiques a été installé sur un mât de 73 m afin d'identifier les chutes de neige et les évènements de transport de neige par le vent. Les flux de neige mesurés à différentes hauteurs devraient être similaires lors de chute de neige sans transport de neige, alors qu'un gradient devrait apparaître si de la neige est transportée depuis la surface. Le système a été évalué et comparé aux analyses opérationnelles d'ECMWF. Enfin, les simulations des modèles de climat utilisés pour la production du rapport du GIEC ont été comparées aux observations satellites obtenues. Tous les modèles simulent un taux de chute de neige supérieur à celui observé avec CloudSat. Le changement de précipitation en Antarctique durant le XXIème siècle simulé varie de -6.0 % à +39.4 % en fonction des modèles et des scénarios d'émission de gaz à effet de serre. Les modèles de climat simulant des taux de chute de neige proches de ceux observés par satellite pour la période actuelle prédisent en moyenne un changement plus important de précipitation au cours du XXIème siècle, et donc un impact sur le niveau des mers plus conséquent. / During the 21st century, precipitation is expected to increase in polar regions. In Antarctica, this would lead to an increase in snow accumulation over the continent, which would represent a positive contribution to the ice sheet mass balance, and thus a negative contribution to sea level. Almost all the climate models predict a precipitation increase in Antarctica during the 21st century, but this change differs widely according to the models. Moreover, the current precipitation rate simulated by these models diverge greatly. However, because no reliable observation of Antarctic precipitation was available so far, it was not possible to benchmark climate models. In this study, data from the cloud profiling radar onboard CloudSat satellite have been used to produce the first climatology of Antarctic precipitation from observations. This climatology agrees well with ERA Interim reanalysis, the production of which is constrained by various in situ and satellite observations, but does not use any data from CloudSat. The mean snowfall rate from CloudSat observations is 171 mm/an over the Antarctic ice sheet, north of 82°S. The maximum snowfall rate is observed during the fall, while the minimum snowfall rate occurs in spring. Because in-situ measurements are necessary to evaluate remote sensing observations, a field experiment has been developed at Dumont d'Urville station in Antarctica for measuring precipitation. Optical sensors have been set up at different levels on a 73-meter tower in order to separate snowfall from blowing snow events. Snow flux measured at different heights should be similar during snowfall without blowing snow, whereas a gradient shoud be observed if blowing snow occurs. The system has been evaluated and compared to the ECMWF operational analysis. Finally, simulations from the climate models used for the last IPCC report have been compared to the new satellite climatology. All the models produce a higher snowfall rate than the snowfall observed with CloudSat. Precipitation increase predicted in Antarctica varies from -6.0 % to +39.4 % according to the models and the greenhouse gas emissions scenarios.Climate models which reproduce a current snowfall rate close to the snowfall rate observed by satellite predict on average a larger increase in Antarctic precipitation during the 21st century, and thus a stronger impact on sea level.

Page generated in 0.0515 seconds