• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 37
  • 20
  • 2
  • Tagged with
  • 57
  • 24
  • 16
  • 15
  • 10
  • 9
  • 8
  • 8
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Équation d’état de la matière à densité supranucléaire et application à l’émission thermique des étoiles compactes / Equation of state of matter at supra-nuclear density and application to the thermal emission of neutron stars

Baillot d'Étivaux, Nicolas 04 October 2018 (has links)
Cette thèse porte sur la modélisation théorique de l'équation d’état (EE) décrivant la matière nucléaire présente dans le coeur des étoiles à neutrons (EN), sous l'hypothèse qu'aucune transition de phase ne s'y produise. Nous utilisons un méta-modèle permettant i) d’incorporer directement les connaissances en physique nucléaire sous la forme de paramètres empiriques tels que la densité de saturation nucléaire, l’incompressibilité, l’énergie de symétrie; ii) de reproduire la plupart des modèles nucléoniques existants; et iii) d’explorer les régions inconnues à haute densité de façon la plus large possible. Pour chaque EE, nous déterminons un ensemble de solutions pour la masse et le rayon des EN, et nous effectuons une première sélection des EE compatibles avec la stabilité et la causalité de la matière nucléaire, ainsi que la masse maximale connues des EN. Nous confrontons ensuite ces EE aux observations d’émission thermique dans la gamme des rayons-X pour 7 EN soigneusement choisies. Pour la première fois, la modélisation théorique des EE est directement introduite dans l’analyse des données. Nous utilisons les dernières mesures effectuées par GAIA II pour fixer la distance des EN. Les paramètres du modèle d’émission thermique et de l’EE sont déterminés selon une méthode Bayésienne basée sur un algorithme Monte-Carlo par Chaîne de Markov. Nous déterminons ainsi la température de surface, la masse et le rayon des EN, ainsi que sur la valeur de certains paramètres empiriques tels que la dépendance en densité de l'énergie de symétrie (Lsym), la contribution isovectorielle au module d’incompressibilité (Ksym) ou encore le paramètre de distorsion isoscalaire (Qsat) / This thesis concerns theoretical modeling of the equation of state (EoS) describing nuclear matter in the core of neutron stars (NS), under the hypothesis that no phase transition occurs. We use a meta-model which is able to i) directly incorporate nuclear physics knowledge on the form of empirical parameters such as the nuclear saturation density, the incompressibility or the symmetry energy; ii) reproduce most of the existing models; iii) explore new behaviors at high densities in a very flexible way. For each EoS, we determine a set of solutions for the masses and radii of NS, and we make a first selection of the EoS that are compatible with the stability and causality constraints, as well as the maximum observed mass of NS. Then we confront these EoS to observational data coming from thermal emission in the soft X-ray domain, for 7 NS carefully chosen. For the first time, the theoretical modeling of the EoS is directly implemented in the data analysis. We use the recent measurments of GAIA II to constrain the distance to the NS. The parameters of the modeling of thermal emission as well as the empirical parameters entering in the EoS are determined by Bayesian methods using a Monte-Carlo by Morkov Chain algorithm. Therefore, we determine the surface effective tempreature, the masses and radii of NS, as well as some empirical nuclear parameters such as the density dependance of the symmetry energy (Lsym), the isovector incompressibility (Ksym), or the isoscalar squewness (Qsat)
42

De nouveaux résultats sur la géométrie des mosaïques de Poisson-Voronoi et des mosaïques poissoniennes d'hyperplans. Etude du modèle de fissuration de Rényi-Widom

Calka, Pierre 05 December 2002 (has links) (PDF)
Cette thèse traite de trois modèles de géométrie aléatoire: les mosaïques de Poisson-Voronoi, les mosaïques poissoniennes d'hyperplans et le modèle de fissuration unidirectionnel de Rényi-Widom. Nous montrons tout d'abord l'équivalence entre les deux approches historiques pour l'étude statistique des mosaïques: la convergence des moyennes ergodiques et la définition au sens de Palm de la cellule typique. Nous donnons ensuite en dimension deux la loi du nombre de sommets de la cellule typique et conditionnellement à ce nombre, les lois des positions des frontières, de l'aire et du périmètre. De plus, nous explicitons la loi conjointe des rayons des disques centrés en l'origine inscrit dans (resp. circonscrit à) la cellule typique et nous en déduisons le caractère circulaire des "grandes cellules". Dans le cas Poisson-Voronoi, nous relions en toute dimension la fonction spectrale de la cellule typique au pont brownien, ce qui permet en particulier d'estimer asymptotiquement la loi de la première valeur propre en dimension deux. Dans le cas des mosaïques poissoniennes d'hyperplans, nous exploitons les techniques de Palm pour en déduire une construction explicite en toute dimension de la cellule typique à partir de sa boule inscrite et de son simplexe circonscrit. Une preuve rigoureuse d'un résultat de R. E. Miles lorsqu'on épaissit les hyperplans est également donnée. Par ailleurs, nous modélisons un phénomène de fissuration par un processus unidimensionnel stationnaire dont nous calculons la loi de la distance inter-fissures typique. Nous montrons en outre que les points successifs sont ceux d'un processus de renouvellement conditionné explicite.
43

Comportements Asymptotiques des Processus Stationnaires et des Processus Empiriques dans des Systèmes Dynamiques

Durieu, Olivier 01 December 2008 (has links) (PDF)
Cette thèse se consacre à l'étude de théorèmes limites pour des suites de variables aléatoires stationnaires (en particulier issues d'un système dynamique). Nous nous concentrons sur deux résultats importants, notamment par leurs applications en statistiques. Nous étudions tout d'abord le comportement limite des sommes de variables aléatoires, plus précisément le théorème limite central et son principe d'invariance. Ensuite nous considérons le principe d'invariance pour les processus empiriques.<br />Dans le cadre du principe d'invariance faible de Donsker, plusieurs résultats s'obtiennent au travers d'approximations par des martingales et plus généralement par des critères projectifs. Nous comparons quatre de ces critères et montrons leur indépendance mutuelle. Les critères étudiés sont la décomposition martingale-cobord (Gordin, 1969), la condition de Hannan (1979), le critère de Dedecker et Rio (2000) et<br />la condition de Maxwell et Woodroofe (2000).<br />En ce qui concerne le comportement asymptotique des processus empiriques, nous établissons un principe d'invariance dans le cas des automorphismes du tore. Cela permet de sortir du cadre hyperbolique connu et d'obtenir un premier résultat pour une transformation partiellement hyperbolique.<br />Nous proposons également une nouvelle approche, basée sur des méthodes d'opérateurs, permettant d'établir un principe d'invariance empirique. Cette méthode s'applique en particulier aux cas où l'on a de bonnes propriétés pour une classe de fonctions ne contenant pas les fonctions indicatrices. C'est en particulier le cas de certains systèmes dynamiques dont l'opérateur de transfert admet un trou spectral.<br />En dernier lieu, suivant une question de Burton et Denker (1987), nous nous intéressons à la classe des processus pour lesquels le théorème limite central a lieu. En référence au cadre des processus empiriques, nous étudions en particulier les suites de sommes partielles des itérées d'une fonction indicatrice.
44

Nanostructuration d'objets métalliques sur surfaces à défauts

Picaud, Fabien 09 May 2001 (has links) (PDF)
Ce travail de thèse concerne l'étude théorique de la croissance auto-organisée d'atomes métalliques ou de gaz rares adsorbés sur des substrats contenant des défauts. Le but est de prévoir les conditions de fabrication de nanostructures de taille et de géométrie données, en axant tout particulièrement nos recherches sur la formation des nanofils. La croissance est essentiellement guidée par des processus hors équilibres comme le dépôt ou la diffusion d'atomes sur la surface. Nous avons donc volontairement scindé cette analyse en trois parties. La première partie permet d'appréhender les phénomènes de diffusion, la seconde présente dans son intégralité le modèle numérique utilisé pour simuler la croissance et la troisième et dernière partie traite des applications que nous avons abordées. Dans la première partie, nous avons passé en revue les différentes approches théoriques de la diffusion. Cette analyse nous a montré que l'équation de Langevin permet de décrire la diffusion de la particule comme un mouvement frictionnel avec les atomes de la surface. Finalement, nous donnons les expressions des différents coefficients de diffusion en fonction de la force de friction. Le moteur de la croissance est géré par des phénomènes de nature aléatoires (dépôt, diffusion). Par conséquent, un programme numérique de Monte Carlo Cinétique (KMC) a été mis au point. Il a permis de traiter rigoureusement la nanostructuration au voisinage des défauts. Le dépôt est gouverné par le flux d'atomes arrivant sur la surface par unité de temps et la diffusion suit une loi d'Arrhénius proportionnelle à la hauteur du puits de potentiel à franchir et inversement proportionnelle à l'énergie thermique. L'originalité du programme provient du calcul explicite de l'ensemble des barrières de diffusion à partir de potentiels semi-empiriques et cela pour tous les processus recensés susceptibles d'intervenir sur la surface. Les applications utilisant le programme de KMC ont abouti aux résultats principaux suivants : Construction d'un commutateur de nanofils de xénon modulé par la température sur la surface de cuivre (110) anisotrope. Influence du confinement sur l'auto-organisation spatiale des atomes d'argent. Ce confinement engendre notamment lorsqu'il est fort (surface vicinale de Pt(997)) la disparition de l'habillage fractal des marches à basses températures et la formation à plus hautes températures d'un réseau de nanofils parfait. En fonction de la puissance du confinement (distance de séparation des marches) , symétrique ou antisymétrique, la modification de l'organisation structurelle de la croissance de surface apparaît avec notamment, la formation d'un nanoréseau dont le pas évolue avec le confinement. Ce travail de thèse ouvre naturellement la voie à l'étude de la croissance d'adsorbats moléculaires en présence de défauts et également, à la croissance d'alliages bimétalliques.
45

Modelling software quality : a multidimensional approach

Vaucher, Stéphane 11 1900 (has links)
Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis. / As society becomes ever more dependent on computer systems, there is more and more pressure on development teams to produce high-quality software. Many companies therefore rely on quality models, program suites that analyse and evaluate the quality of other programs, but building good quality models is hard as there are many questions concerning quality modelling that have yet to be adequately addressed in the literature. We analysed quality modelling practices in a large organisation and identified three dimensions where research is needed: proper support of the subjective notion of quality, techniques to track the quality of evolving software, and the composition of quality judgments from different abstraction levels. To tackle subjectivity, we propose using Bayesian models as these can deal with uncertain data. We applied our models to the problem of anti-pattern detection. In a study of two open-source systems, we found that our approach was superior to state of the art rule-based techniques. To support software evolution, we consider scores produced by quality models as signals and the use of signal data-mining techniques to identify patterns in the evolution of quality. We studied how anti-patterns are introduced and removed from systems. Software is typically written using a hierarchy of components, yet quality models do not explicitly consider this hierarchy. As the last part of our dissertation, we present two level quality models. These are composed of three parts: a component-level model, a second model to evaluate the importance of each component, and a container-level model to combine the contribution of components with container attributes. This approach was tested on the prediction of class-level changes based on the quality and importance of its components: methods. It was shown to be more useful than single-level, traditional approaches. To finish, we reapplied this two-level methodology to the problem of assessing web site navigability. Our models could successfully distinguish award-winning sites from average sites picked at random. Throughout the dissertation, we present not only theoretical problems and solutions, but we performed experiments to illustrate the pros and cons of our solutions. Our results show that there are considerable improvements to be had in all three proposed dimensions. In particular, our work on quality composition and importance modelling is the first that focuses on this particular problem. We believe that our general two-level models are only a starting point for more in-depth research.
46

Estimation utilisant les polynômes de Bernstein

Tchouake Tchuiguep, Hervé 03 1900 (has links)
Ce mémoire porte sur la présentation des estimateurs de Bernstein qui sont des alternatives récentes aux différents estimateurs classiques de fonctions de répartition et de densité. Plus précisément, nous étudions leurs différentes propriétés et les comparons à celles de la fonction de répartition empirique et à celles de l'estimateur par la méthode du noyau. Nous déterminons une expression asymptotique des deux premiers moments de l'estimateur de Bernstein pour la fonction de répartition. Comme pour les estimateurs classiques, nous montrons que cet estimateur vérifie la propriété de Chung-Smirnov sous certaines conditions. Nous montrons ensuite que l'estimateur de Bernstein est meilleur que la fonction de répartition empirique en terme d'erreur quadratique moyenne. En s'intéressant au comportement asymptotique des estimateurs de Bernstein, pour un choix convenable du degré du polynôme, nous montrons que ces estimateurs sont asymptotiquement normaux. Des études numériques sur quelques distributions classiques nous permettent de confirmer que les estimateurs de Bernstein peuvent être préférables aux estimateurs classiques. / This thesis focuses on the presentation of the Bernstein estimators which are recent alternatives to conventional estimators of the distribution function and density. More precisely, we study their various properties and compare them with the empirical distribution function and the kernel method estimators. We determine an asymptotic expression of the first two moments of the Bernstein estimator for the distribution function. As the conventional estimators, we show that this estimator satisfies the Chung-Smirnov property under conditions. We then show that the Bernstein estimator is better than the empirical distribution function in terms of mean squared error. We are interested in the asymptotic behavior of Bernstein estimators, for a suitable choice of the degree of the polynomial, we show that the Bernstein estimators are asymptotically normal. Numerical studies on some classical distributions confirm that the Bernstein estimators may be preferable to conventional estimators.
47

Définition des mouvements sismiques "au rocher / Definition of "rock" motion

Laurendeau, Aurore 16 July 2013 (has links)
L'objectif de cette thèse vise à améliorer la définition des vibrations (« mouvement sismique ») sur des sites « durs » (sédiments raides ou rochers) liés à des scénarios (séismes de magnitude entre 5 et 6.5, distances inférieures à 50 kilomètres) représentatifs du contexte métropolitain français. Afin de contraindre ces mouvements sismiques sur sites « durs », une base de données accélérométriques a été construite, à partir des enregistrements accélérométriques japonais K-NET et KiK-net qui ont l'avantage d'être publiques, nombreux et de grande qualité. Un modèle de prédiction des mouvements sismiques (spectre de réponse en accélération) a été conçu à partir de cette nouvelle base. La comparaison entre modèles théoriques et observations montre la dépendance des vibrations sur sites rocheux à la fois aux caractéristiques de vitesse du site (paramètre classique décrivant la vitesse des ondes S dans les 30 derniers mètres) et aux mécanismes d'atténuation hautes fréquences (un phénomène très peu étudié jusque-là). Ces résultats confirment une corrélation entre ces deux mécanismes (les sites rocheux les plus mous atténuent plus le mouvement sismique à hautes fréquences) et nous proposons un modèle de prédiction du mouvement sismique prenant en compte l'ensemble des propriétés du site (atténuation et vitesse). Les méthodes nouvelles de dimensionnement dynamiques non linéaires (à la fois géotechniques et structurelles) ne se satisfont pas des spectres de réponse mais requièrent des traces temporelles. Dans le but de générer de telles traces temporelles, la méthode stochastique non stationnaire développée antérieurement par Pousse et al. 2006 a été revisitée. Cette méthode semi-empirique nécessite de définir au préalable les distributions des indicateurs clés du mouvement sismique. Nous avons ainsi développé des modèles de prédiction empiriques pour la durée de phase forte, l'intensité d'Arias et la fréquence centrale, paramètre décrivant la variation du contenu fréquentiel au cours du temps. Les nouveaux développements de la méthode stochastique permettent de reproduire des traces temporelles sur une large bande de fréquences (0.1-50 Hz), de reproduire la non stationnarité en temps et en fréquence et la variabilité naturelle des vibrations sismiques. Cette méthode présente l'avantage d'être simple, rapide d'exécution et de considérer les bases théoriques de la sismologie (source de Brune, une enveloppe temporelle réaliste, non stationnarité et variabilité du mouvement sismique). Dans les études de génie parasismique, un nombre réduit de traces temporelles est sélectionné, et nous analysons dans une dernière partie l'impact de cette sélection sur la conservation de la variabilité naturelle des mouvements sismiques. / The aim of this thesis is to improve the definition of vibrations ("seismic motion") on "hard" sites (hard soils or rocks) related to scenarios (earthquakes of magnitude between 5 and 6.5, distances less than 50 km) representative of the French metropolitan context.In order to constrain the seismic motions on "hard" sites, an accelerometric database was built, from the K-NET and KiK-net Japanese recordings which have the benefit of being public, numerous and high quality. A ground motion prediction equation for the acceleration response spectra was developed from this new database. The comparison between theoretical models and observations shows the dependence of vibration on rock sites in both the velocity characteristics of the site (classical parameter describing the S-wave velocity in the last 30 meters) and the high frequency attenuation mechanisms (a phenomenon little studied up to now). These results confirm a correlation between these two mechanisms (the high frequency seismic motion is more attenuated in the case of softer rock sites) and we propose a ground motion prediction equation taking into account all the properties of the site (attenuation and velocity).New methods of nonlinear dynamic analysis (both geotechnical and structural) are not satisfied with the response spectra but require time histories. To generate such time histories, the non-stationary stochastic method previously developed by Pousse et al. (2006) has been revisited. This semi-empirical method requires first to define the distributions of key indicators of seismic motion. We have developed empirical models for predicting the duration, the Arias intensity and the central frequency, parameter describing the frequency content variation over time. New developments of the stochastic method allow to reproduce time histories over a wide frequency band (0.1-50 Hz), to reproduce the non-stationarity in time and frequency and to reproduce the natural variability of seismic vibrations. This method has the advantage of being simple, fast and taking into account basic concepts of seismology (Brune's source, a realistic envelope function, non-stationarity and variability of seismic motion). In earthquake engineering studies, a small number of time histories is selected, and we analyze in the last part the impact of this selection on the conservation of the ground motion natural variability.
48

Prédiction des mouvements du sol dus à un séisme : différences de décroissance entre petits et gros séismes et simulations large bande par fonctions de Green empiriques / Prediction of ground motion generated by an earthquake : differences of decay between small and large earthquakes and broadband simulations using empirical Green’s functions

Dujardin, Alain 16 October 2015 (has links)
La prédiction des mouvements du sol générés par un séisme est un enjeu majeur pour la prise en compte du risque sismique. C’est l’un des objectifs du projet SIGMA dans le cadre duquel j’ai réalisé ma thèse. Celle-ci se compose de deux parties. La première se concentre sur la dépendance à la magnitude de la décroissance des paramètres des mouvements du sol avec la distance. Celle-ci est un sujet de préoccupation aussi bien pour l’utilisation des relations d’atténuation (GMPEs), que pour les méthodes basées sur l’utilisation de petits évènements en tant que fonctions de Green empiriques. Nous avons démontré qu’aux distances les plus faibles (inférieures à la longueur de la faille), l'effet de saturation dû aux dimensions de la faille est prépondérant. Aux distances plus importantes, l'effet de l’atténuation anélastique devient prépondérant. Nous avons donc montré qu’il pouvait être délicat de mélanger des données de différentes régions dans les GMPEs, et validé l’utilisation des fonctions de Green empiriques à toutes les distances. Dans la deuxième partie sont testées 3 différentes méthodes de simulations dans un contexte complexe : un code combinant une source étendue en k2 et des EGFs, un code point-source EGFs et un code stochastique. Nous avons choisi de travailler sur le séisme de magnitude Mw 5.9 (29 mai 2012) situé dans un bassin sédimentaire profond (la plaine du Po), et qui a engendré des sismogrammes souvent dominés par les ondes de surface. On y démontre que sans connaissance à priori du milieu de propagation, les méthodes basées sur des EGF permettent de reproduire les ondes de surface, les valeurs de PGA, de PGV, ainsi que les durées des signaux générés. / The prediction of ground motion generated by an earthquake is a major issue for the consideration of seismic risk. This is one of the objectives of SIGMA project in which I realized my thesis. It consists of two parts. The first focuses on the magnitude dependence of the ground motion parameters decay with distance. This is a concern both for the use of relation of attenuation (GMPEs) than methods based on the use of small events as empirical Green functions. We have shown that as the shorter distances (less than the length of the fault), the saturation effect due to the fault size is preponderant. For larger distances, it’s the eanelastic attenuation effect which becomes predominant. So we have shown that it can be tricky to mix data from different regions in GMPEs and we validated the use of empirical Green functions at every distance. In the second part are tested three different simulation methods in a complex context: a code combining finite fault source in k2 and EGFs, a point-source code with EGFs and a stochastic code. We chose to work on the Mw 5.9 earthquake (May 29, 2012) which occurs in a deep sedimentary basin (the Po plain), and which has generated seismograms often dominated by surface waves. We show that without a priori knowledge of the propagation medium, methods based on EGFs can reproduce surface waves, the values of PGA, PGV, and the durations of the signals generated.
49

Modélisation de la dépendance et estimation du risque agrégé / Dependence modelling and risk aggregation estimation

Cuberos, Andres 18 December 2015 (has links)
Cette thèse porte sur l'étude de la modélisation et estimation de la dépendance des portefeuilles de risques et l'estimation du risque agrégé. Dans le Chapitre 2, nous proposons une nouvelle méthode pour estimer les quantiles de haut niveau pour une somme de risques. Elle est basée sur l'estimation du rapport entre la VaR de la somme et la VaR du maximum des risques. Nous utilisons des résultats sur les fonctions à variation régulière. Nous comparons l'efficacité de notre méthode avec quelques estimations basées sur la théorie des valeurs extrêmes, sur plusieurs modèles. Notre méthode donne de bons résultats lors de l'approximation de la VaR à des niveaux élevés lorsque les risques sont fortement dépendants et au moins l'un des risques est à queue épaisse. Dans le Chapitre 3, nous proposons une procédure d'estimation pour la distribution d'un risque agrégé basée sur la copule échiquier. Elle permet d'obtenir de bonnes estimations à partir d'un petit échantillon de la loi multivariée et une connaissance complète des lois marginales. Cette situation est réaliste pour de nombreuses applications. Les estimations peuvent être améliorées en incluant dans la copule échiquier des informations supplémentaires (sur la loi d'un sous-vecteur ou sur des probabilités extrêmes). Notre approche est illustrée par des exemples numériques. Finalement, dans le Chapitre 4, nous proposons un estimateur de la mesure spectrale basé sur l'estimation à noyau de la densité de la mesure spectrale d'une distribution à variation régulière bivariée. Une extension de notre méthode permet d'estimer la mesure spectrale discrète. Certaines propriétés de convergence sont obtenues / This thesis comprises three essays on estimation methods for the dependence between risks and its aggregation. In the first essay we propose a new method to estimate high level quantiles of sums of risks. It is based on the estimation of the ratio between the VaR (or TVaR) of the sum and the VaR (or TVaR) of the maximum of the risks. We use results on regularly varying functions. We compare the efficiency of our method with classical ones, on several models. Our method gives good results when approximating the VaR or TVaR in high levels on strongly dependent risks where at least one of the risks is heavy tailed. In the second essay we propose an estimation procedure for the distribution of an aggregated risk based on the checkerboard copula. It allows to get good estimations from a (quite) small sample of the multivariate law and a full knowledge of the marginal laws. This situation is realistic for many applications. Estimations may be improved by including in the checkerboard copula some additional information (on the law of a sub-vector or on extreme probabilities). Our approach is illustrated by numerical examples. In the third essay we propose a kernel based estimator for the spectral measure density of a bivariate distribution with regular variation. An extension of our method allows to estimate discrete spectral measures. Some convergence properties are obtained
50

Algorithmes de poursuite stochastiques et inégalités de concentration empiriques pour l'apprentissage statistique / Stochastic pursuit algorithms and empirical concentration inequalities for machine learning

Peel, Thomas 29 November 2013 (has links)
La première partie de cette thèse introduit de nouveaux algorithmes de décomposition parcimonieuse de signaux. Basés sur Matching Pursuit (MP) ils répondent au problème suivant : comment réduire le temps de calcul de l'étape de sélection de MP, souvent très coûteuse. En réponse, nous sous-échantillonnons le dictionnaire à chaque itération, en lignes et en colonnes. Nous montrons que cette approche fondée théoriquement affiche de bons résultats en pratique. Nous proposons ensuite un algorithme itératif de descente de gradient par blocs de coordonnées pour sélectionner des caractéristiques en classification multi-classes. Celui-ci s'appuie sur l'utilisation de codes correcteurs d'erreurs transformant le problème en un problème de représentation parcimonieuse simultanée de signaux. La deuxième partie expose de nouvelles inégalités de concentration empiriques de type Bernstein. En premier, elles concernent la théorie des U-statistiques et sont utilisées pour élaborer des bornes en généralisation dans le cadre d'algorithmes de ranking. Ces bornes tirent parti d'un estimateur de variance pour lequel nous proposons un algorithme de calcul efficace. Ensuite, nous présentons une version empirique de l'inégalité de type Bernstein proposée par Freedman [1975] pour les martingales. Ici encore, la force de notre borne réside dans l'introduction d'un estimateur de variance calculable à partir des données. Cela nous permet de proposer des bornes en généralisation pour l'ensemble des algorithmes d'apprentissage en ligne améliorant l'état de l'art et ouvrant la porte à une nouvelle famille d'algorithmes d'apprentissage tirant parti de cette information empirique. / The first part of this thesis introduces new algorithms for the sparse encoding of signals. Based on Matching Pursuit (MP) they focus on the following problem : how to reduce the computation time of the selection step of MP. As an answer, we sub-sample the dictionary in line and column at each iteration. We show that this theoretically grounded approach has good empirical performances. We then propose a bloc coordinate gradient descent algorithm for feature selection problems in the multiclass classification setting. Thanks to the use of error-correcting output codes, this task can be seen as a simultaneous sparse encoding of signals problem. The second part exposes new empirical Bernstein inequalities. Firstly, they concern the theory of the U-Statistics and are applied in order to design generalization bounds for ranking algorithms. These bounds take advantage of a variance estimator and we propose an efficient algorithm to compute it. Then, we present an empirical version of the Bernstein type inequality for martingales by Freedman [1975]. Again, the strength of our result lies in the variance estimator computable from the data. This allows us to propose generalization bounds for online learning algorithms which improve the state of the art and pave the way to a new family of learning algorithms taking advantage of this empirical information.

Page generated in 0.0638 seconds