• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 100
  • 37
  • 14
  • Tagged with
  • 150
  • 46
  • 25
  • 23
  • 19
  • 18
  • 18
  • 16
  • 16
  • 16
  • 15
  • 15
  • 14
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Three essays in empirical asset pricing

Tédongap, Roméo January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
102

Adaptation des paramètres temporels en imagerie par résonance magnétique en fonction des variations physiologiques du rythme cardiaque. Application à la cartograhie T2 / Temporal parameters adaptation in Magnetic Resonance Imaging according to physiological Heart Rate variations. Application to T2 mapping

Soumoy de Roquefeuil, Marion 07 June 2013 (has links)
L'imagerie par Résonance Magnétique (IRM) cardiaque est un domaine qui nécessite d'adapter la séquence au rythme du coeur, afin d'éviter le flou causé par un temps d'acquisition long devant les constantes de temps du mouvement. Ainsi, les temps séparant les impulsions radio-fréquence (RF) de la séquence sont aussi variables que les durées des cycles cardiaques sur lesquels on synchronise l'acquisition. Cela est cause d'imprécision sur l'image résultante, en particulier dans son caractère quantitatif. L'aimantation des spins n'est effectivement pas dans un état d'équilibre sur toute l'acquisition. La thèse présente deux axes principaux de recherche explorés ; le premier est une étude de l'impact de la variation du rythme cardiaque (présentée en outre dans le manuscrit) sur la mesure quantitative du temps de relaxation transversal T2. L'étude a été menée sur des objets fantômes et sur des volontaires sains. Deux méthodes de correction de la variation du rythme sont proposées, l'une basée sur la correction du signal au centre de l'espace de Fourier, l'autre basée sur une approche de reconstruction généralisée. Les résultats préliminaires sont encourageants, et des travaux ultérieurs seraient à entreprendre pour confirmer l'efficacité de ces méthodes. Ensuite, les variations temporelles du cycle cardiaque sont traitées à l'échelle d'un cycle, et nous proposons une méthode de mise en coïncidence des différents segments de l'électrocardiogramme (ECG) basée sur la déformation de l'ECG dans l'IRM probablement par effet magnétohydrodynamique. Cette méthode est mise au service de l'imagerie dans le cadre d'une séquence cinétique CINE dans laquelle une meilleure mise en correspondance des segments de cycles cardiaques successifs devrait permettre de gagner en qualité d'image, à condition d'avoir des résolutions spatiale et temporelle suffisamment fines. Les résultats apportés au cours de cette thèse sont préliminaires à de futures recherches nécessaires dans le domaine temporel de la séquence, beaucoup moins traité que le mouvement des organes / Cardiac Magnetic Resonance Imaging (MRI) requires to adapt the sequence to heart rate, so as to avoid the blur caused by the acquisition time longer than motion time constants. Thus, times between sequence radiofrequency pulses are as much variable as synchronization cardiac cycles durations. It causes imprecision on the resulting image, particularly for quantification. In fact, spins magnetization is not in a steady state during the acquisition. Two main research axis are presented in this thesis; the first one is a study of the impact of heart rate variation (described in the manuscript) on the transversal relaxation time T2 quantitative measurement. The study was lead on both phantom objects and on healthy volunteers. Two correction methods for heart rate variation are proposed, one based on the correction of the signal of the central line of the k-space, the other one based on a generalized reconstruction approach. First results are encouraging, and further works should be lead to confirm the methods efficacity. Then, heart rate variations are treated inside the cardiac cycle, and we propose a method to match the different segments of the electrocardiogram (ECG), based on the ECG deformation in the MR scanner probably due to by magnetohydrodynamic effect. This method is applied on imaging with a CINE kinetic sequence in which a better successive cardiac cycles segments matching should enable to improve image quality, at the condition to have sharp enough spatial and temporal resolutions. Results brought in this thesis are preliminary to necessary future researches in the sequence time domain, largely less addressed than organ motion
103

Développement de méthodes d'analyse de données en ligne / Development of methods to analyze data steams

Bar, Romain 29 November 2013 (has links)
On suppose que des vecteurs de données de grande dimension arrivant en ligne sont des observations indépendantes d'un vecteur aléatoire. Dans le second chapitre, ce dernier, noté Z, est partitionné en deux vecteurs R et S et les observations sont supposées identiquement distribuées. On définit alors une méthode récursive d'estimation séquentielle des r premiers facteurs de l'ACP projetée de R par rapport à S. On étudie ensuite le cas particulier de l'analyse canonique, puis de l'analyse factorielle discriminante et enfin de l'analyse factorielle des correspondances. Dans chacun de ces cas, on définit plusieurs processus spécifiques à l'analyse envisagée. Dans le troisième chapitre, on suppose que l'espérance En du vecteur aléatoire Zn dont sont issues les observations varie dans le temps. On note Rn = Zn - En et on suppose que les vecteurs Rn forment un échantillon indépendant et identiquement distribué d'un vecteur aléatoire R. On définit plusieurs processus d'approximation stochastique pour estimer des vecteurs directeurs des axes principaux d'une analyse en composantes principales (ACP) partielle de R. On applique ensuite ce résultat au cas particulier de l'analyse canonique généralisée (ACG) partielle après avoir défini un processus d'approximation stochastique de type Robbins-Monro de l'inverse d'une matrice de covariance. Dans le quatrième chapitre, on considère le cas où à la fois l'espérance et la matrice de covariance de Zn varient dans le temps. On donne finalement des résultats de simulation dans le chapitre 5 / High dimensional data are supposed to be independent on-line observations of a random vector. In the second chapter, the latter is denoted by Z and sliced into two random vectors R et S and data are supposed to be identically distributed. A recursive method of sequential estimation of the factors of the projected PCA of R with respect to S is defined. Next, some particular cases are investigated : canonical correlation analysis, canonical discriminant analysis and canonical correspondence analysis ; in each case, several specific methods for the estimation of the factors are proposed. In the third chapter, data are observations of the random vector Zn whose expectation En varies with time. Let Rn = Zn - En be and suppose that the vectors Rn form an independent and identically distributed sample of a random vector R. Stochastic approximation processes are used to estimate on-line direction vectors of the principal axes of a partial principal components analysis (PCA) of ~Z. This is applied next to the particular case of a partial generalized canonical correlation analysis (gCCA) after defining a stochastic approximation process of the Robbins-Monro type to estimate recursively the inverse of a covariance matrix. In the fourth chapter, the case when both expectation and covariance matrix of Zn vary with time n is considered. Finally, simulation results are given in chapter 5
104

Habiter les territoires ruraux. Comprendre les dynamiques spatiales et sociales à l'oeuvre, évaluer les perspectives d'évolution des pratiques de mobilité des ménages / Living in rural areas. Understanding the spatial and social households'practices, evaluating the potential for change in their mobility practices

Huyghe, Marie 16 November 2015 (has links)
« Le rural n’existe plus », annoncent certains chercheurs au vu de l’urbanisation généralisée des territoires ou de la disparition des spécificités sociologique ou économique des campagnes. Pourtant, le « rural » est encore présent dans les discours politiques, dans les représentations des ménages, dans la littérature scientifique actuelle. Qu’est-ce que le rural aujourd’hui ? A partir d’une approche compréhensive et inductive, notre recherche analyse les déterminants permettant de comprendre les pratiques spatiales, les relations sociales ou les formes d’appartenance territoriale des ménages ; elle met en évidence l’influence sur les modes d’habiter ruraux du territoire et du profil des ménages. La thèse aborde également la question de l’évolution du dynamisme démographique et économique des territoires ruraux dans un contexte de durcissement probable des conditions de mobilité des ménages. Elle s’intéresse aux marges de manoeuvre des populations rurales, au potentiel d’évolution de leurs pratiques de mobilité vers des pratiques moins dépendantes de la voiture. A partir d’une expérimentation de recherche-action elle met en évidence le rôle du levier « accompagnement personnalisé » et apporte des éléments prescriptifs en faveur de politiques globales de mobilité. / What is rural today? Based on a comprehensive and inductive approach of the rural households’ ways of living, our research shows the influence of the rural area’s features and of the households’ profile (in particular their spatial origin, their seniority in the area and their life project) on their daily practices. They are underlain by easy and cheap car-mobility, which could evolve as a result of three phenomena (rarefaction of fossil energy; stronger injunctions to sustainable development; public policies that incite to develop only the territories that are served by public transport). Our research evaluates the households’ leeway in terms of mobility practices and their potential for transition towards more sustainable practices. Thanks to the analysis of an action-research project we highlight the role of a lever of “personalized accompaniment” in terms of behavioral evolution and propose some prescriptive elements in favor of global mobility policies.
105

Developments in statistics applied to hydrometeorology : imputation of streamflow data and semiparametric precipitation modeling / Développements en statistiques appliquées à l'hydrométéorologie : imputation de données de débit et modélisation semi-paramétrique de la précipitation

Tencaliec, Patricia 01 February 2017 (has links)
Les précipitations et les débits des cours d'eau constituent les deux variables hydrométéorologiques les plus importantes pour l'analyse des bassins versants. Ils fournissent des informations fondamentales pour la gestion intégrée des ressources en eau, telles que l’approvisionnement en eau potable, l'hydroélectricité, les prévisions d'inondations ou de sécheresses ou les systèmes d'irrigation.Dans cette thèse de doctorat sont abordés deux problèmes distincts. Le premier prend sa source dans l’étude des débits des cours d’eau. Dans le but de bien caractériser le comportement global d'un bassin versant, de longues séries temporelles de débit couvrant plusieurs dizaines d'années sont nécessaires. Cependant les données manquantes constatées dans les séries représentent une perte d'information et de fiabilité, et peuvent entraîner une interprétation erronée des caractéristiques statistiques des données. La méthode que nous proposons pour aborder le problème de l'imputation des débits se base sur des modèles de régression dynamique (DRM), plus spécifiquement, une régression linéaire multiple couplée à une modélisation des résidus de type ARIMA. Contrairement aux études antérieures portant sur l'inclusion de variables explicatives multiples ou la modélisation des résidus à partir d'une régression linéaire simple, l'utilisation des DRMs permet de prendre en compte les deux aspects. Nous appliquons cette méthode pour reconstruire les données journalières de débit à huit stations situées dans le bassin versant de la Durance (France), sur une période de 107 ans. En appliquant la méthode proposée, nous parvenons à reconstituer les débits sans utiliser d'autres variables explicatives. Nous comparons les résultats de notre modèle avec ceux obtenus à partir d'un modèle complexe basé sur les analogues et la modélisation hydrologique et d'une approche basée sur le plus proche voisin. Dans la majorité des cas, les DRMs montrent une meilleure performance lors de la reconstitution de périodes de données manquantes de tailles différentes, dans certains cas pouvant allant jusqu'à 20 ans.Le deuxième problème que nous considérons dans cette thèse concerne la modélisation statistique des quantités de précipitations. La recherche dans ce domaine est actuellement très active car la distribution des précipitations exhibe une queue supérieure lourde et, au début de cette thèse, il n'existait aucune méthode satisfaisante permettant de modéliser toute la gamme des précipitations. Récemment, une nouvelle classe de distribution paramétrique, appelée distribution généralisée de Pareto étendue (EGPD), a été développée dans ce but. Cette distribution exhibe une meilleure performance, mais elle manque de flexibilité pour modéliser la partie centrale de la distribution. Dans le but d’améliorer la flexibilité, nous développons, deux nouveaux modèles reposant sur des méthodes semiparamétriques.Le premier estimateur développé transforme d'abord les données avec la distribution cumulative EGPD puis estime la densité des données transformées en appliquant un estimateur nonparamétrique par noyau. Nous comparons les résultats de la méthode proposée avec ceux obtenus en appliquant la distribution EGPD paramétrique sur plusieurs simulations, ainsi que sur deux séries de précipitations au sud-est de la France. Les résultats montrent que la méthode proposée se comporte mieux que l'EGPD, l’erreur absolue moyenne intégrée (MIAE) de la densité étant dans tous les cas presque deux fois inférieure.Le deuxième modèle considère une distribution EGPD semiparamétrique basée sur les polynômes de Bernstein. Plus précisément, nous utilisons un mélange creuse de densités béta. De même, nous comparons nos résultats avec ceux obtenus par la distribution EGPD paramétrique sur des jeux de données simulés et réels. Comme précédemment, le MIAE de la densité est considérablement réduit, cet effet étant encore plus évident à mesure que la taille de l'échantillon augmente. / Precipitation and streamflow are the two most important meteorological and hydrological variables when analyzing river watersheds. They provide fundamental insights for water resources management, design, or planning, such as urban water supplies, hydropower, forecast of flood or droughts events, or irrigation systems for agriculture.In this PhD thesis we approach two different problems. The first one originates from the study of observed streamflow data. In order to properly characterize the overall behavior of a watershed, long datasets spanning tens of years are needed. However, the quality of the measurement dataset decreases the further we go back in time, and blocks of data of different lengths are missing from the dataset. These missing intervals represent a loss of information and can cause erroneous summary data interpretation or unreliable scientific analysis.The method that we propose for approaching the problem of streamflow imputation is based on dynamic regression models (DRMs), more specifically, a multiple linear regression with ARIMA residual modeling. Unlike previous studies that address either the inclusion of multiple explanatory variables or the modeling of the residuals from a simple linear regression, the use of DRMs allows to take into account both aspects. We apply this method for reconstructing the data of eight stations situated in the Durance watershed in the south-east of France, each containing daily streamflow measurements over a period of 107 years. By applying the proposed method, we manage to reconstruct the data without making use of additional variables, like other models require. We compare the results of our model with the ones obtained from a complex approach based on analogs coupled to a hydrological model and a nearest-neighbor approach, respectively. In the majority of cases, DRMs show an increased performance when reconstructing missing values blocks of various lengths, in some of the cases ranging up to 20 years.The second problem that we approach in this PhD thesis addresses the statistical modeling of precipitation amounts. The research area regarding this topic is currently very active as the distribution of precipitation is a heavy-tailed one, and at the moment, there is no general method for modeling the entire range of data with high performance. Recently, in order to propose a method that models the full-range precipitation amounts, a new class of distribution called extended generalized Pareto distribution (EGPD) was introduced, specifically with focus on the EGPD models based on parametric families. These models provide an improved performance when compared to previously proposed distributions, however, they lack flexibility in modeling the bulk of the distribution. We want to improve, through, this aspect by proposing in the second part of the thesis, two new models relying on semiparametric methods.The first method that we develop is the transformed kernel estimator based on the EGPD transformation. That is, we propose an estimator obtained by, first, transforming the data with the EGPD cdf, and then, estimating the density of the transformed data by applying a nonparametric kernel density estimator. We compare the results of the proposed method with the ones obtained by applying EGPD on several simulated scenarios, as well as on two precipitation datasets from south-east of France. The results show that the proposed method behaves better than parametric EGPD, the MIAE of the density being in all the cases almost twice as small.A second approach consists of a new model from the general EGPD class, i.e., we consider a semiparametric EGPD based on Bernstein polynomials, more specifically, we use a sparse mixture of beta densities. Once again, we compare our results with the ones obtained by EGPD on both simulated and real datasets. As before, the MIAE of the density is considerably reduced, this effect being even more obvious as the sample size increases.
106

Développement de modèles réduits adaptatifs pour le contrôle optimal des écoulements / Development of adaptive reduced order models for optimal flow control

Oulghelou, Mourad 26 June 2018 (has links)
La résolution des problèmes de contrôle optimal nécessite des temps de calcul et des capacités de stockage très élevés. Pour s’affranchir de ces contraintes, il est possible d’utiliser les méthodes de réduction de modèles comme la POD (Proper Orthogonal Decomposition). L’inconvénient de cette approche est que la base POD n’est valable que pour des paramètres situés dans un voisinage proche des paramètres pour lesquels elle a été construite. Par conséquent, en contrôle optimal, cette base peut ne pas être représentative de tous les paramètres qui seront proposés par l’algorithme de contrôle. Pour s’affranchir de cet handicap, une méthodologie de contrôle optimal utilisant des modèles réduits adaptatifs a été proposée dans ce manuscrit. Les bases réduites adaptées sont obtenues à l’aide de la méthode d’interpolation ITSGM (Interpolation on Tangent Subspace of Grassman Manifold) ou de la méthode d’enrichissement PGD (Proper Generalized Decomposition). La robustesse de cette approche en termes de précision et de temps de calcul a été démontrée pour le contrôle optimal (basé sur les équations adjointes) des équations 2D de réaction-diffusion et de Burgers. L’approche basée sur l’interpolation ITSGM a également été appliquée avec succès pour contrôler l’écoulement autour d’un cylindre 2D. Deux méthodes de réduction non intrusives, ne nécessitant pas la connaissance des équations du modèle étudié, ont également été proposées. Ces méthodes appelées NIMR (Non Intrusive Model Reduction) et HNIMR (Hyper Non Intrusive Model Reduction) ont été couplées à un algorithme génétique pour résoudre rapidement un problème de contrôle optimal. Le problème du contrôle optimal de l’écoulement autour d’un cylindre 2D a été étudié et les résultats ont montré l’efficacité de cette approche. En effet, l’algorithme génétique couplé avec la méthode HNIMR a permis d’obtenir les solutions avec une bonne précision en moins de 40 secondes. / The numerical resolution of adjoint based optimal control problems requires high computational time and storage capacities. In order to get over these high requirement, it is possible to use model reduction techniques such as POD (Proper Orthogonal Decomposition). The disadvantage of this approach is that the POD basis is valid only for parameters located in a small neighborhood to the parameters for which it was built. Therefore, this basis may not be representative for all parameters in the optimizer’s path eventually suggested by the optimal control loop. To overcome this issue, a reduced optimal control methodology using adaptive reduced order models obtained by the ITSGM (Interpolation on a Tangent Subspace of the Grassman Manifold) method or by the PGD (Proper Generalized Decomposition) method, has been proposed in this work. The robustness of this approach in terms of precision and computation time has been demonstrated for the optimal control (based on adjoint equations) of the 2D reaction-diffusion and Burgers equations. The interpolation method ITSGM has also been validated in the control of flow around a 2D cylinder. In the context of non intrusive model reduction, two non intrusive reduction methods, which do not require knowledge of the equations of the studied model, have also been proposed. These methods called NIMR (Non-Intrusive Model Reduction) and HNIMR (Hyper Non-Intrusive Model Reduction) were developed and then coupled to a genetic algorithm in order to solve an optimal control problem in quasi-real time. The problem of optimal control of the flow around a 2D cylinder has been studied and the results have shown the effectiveness of this approach. Indeed, the genetic algorithm coupled with the HNIMR method allowed to obtain the solutions with a good accuracy in less than 40 seconds.
107

Hinf-Linear Parameter Varying Controllers Order Reduction : Application to semi-active suspension control / Réduction d'ordre de correcteurs Hinf-linéaires à paramètre variant : Application à la commande d'une suspension semi-active

Zebiri, Hossni 03 October 2016 (has links)
L'amélioration permanente de la qualité et des performances des systèmes automatiques constitue un défi majeur dans la théorie du contrôle. La théorieHinf a permis d'améliorer considérablement les performances des correcteurs. Ces derniers reposent sur des modèles mathématiques qui sont potentiellement d'ordre élevé (c.-à-d. comprenant un nombre élevé d'équations différentielles). De plus, l'ajout de poids de pondérations spécifiant les performances à respecter accroit encore plus leur ordre. La complexité algorithmique résultante peut alors rendre leur implantation difficile voire même impossible pour un fonctionnement en temps réel.Les travaux présentés visent à réduire l'ordre de correcteurs Hinf dans le but de faciliter leur intégration tout en respectant les performances imposées d'une part et proposent une majoration de l'erreur introduite par l'étape de réduction d'autre part.Dans la littérature, de nombreuses méthodes pour la réduction d'ordre de modèles et de correcteurs des systèmes LTI ont été développées. Ces techniques ont été étudiées, comparées et testées sur un ensemble de benchmarks. S'appuyant sur ces travaux, nous proposons une extension aux systèmes linéaires à paramètres variants (LPV). Pour valider leurs performances, une application sur une commande d'une suspension semi-active a montré l'efficacité des algorithmes de réduction développés. / The work presented in this dissertation is related to the Hinf-LPV-controller orderReduction. This latter consists of the design of a robust reduced-order LPV-controller for LPV-systems. The order reduction issue has been very fairly investigated. However, the case of LPV-control design is slightly discussed. This thesis focuses primarily on two topics: How to obtain an LPV-reduced-order controller even the high order generated by the classical synthesis and how this reduced order controller can deal with a practical engineering problem (semi-active suspension control). In view of this, the order-reduction topic and the Hinf-synthesis theory have been widely studied in this thesis. This study, has allowed the development of a new method forH1-LPV-controller order reduction.
108

Contributions à la quantification et à la propagation des incertitudes en mécanique numérique

Nouy, Anthony 10 December 2008 (has links) (PDF)
La quantification et la propagation des incertitudes dans les modèles physiques apparaissent comme des voies essentielles vers l'amélioration de la prédiction de leur réponse. Le développement d'outils de modélisation des incertitudes et d'estimation de leur impact sur la réponse d'un modèle a constitué un axe de recherche privilégié dans de nombreux domaines scientifiques. Cette dernière décennie, un intérêt croissant a été porté à des méthodes numériques basées sur une vision fonctionnelle des incertitudes. Ces méthodes, couramment baptisées ``méthodes spectrales stochastiques'', sont issues d'un mariage fructueux de l'analyse fonctionnelle et de la théorie des probabilités.<br /><br />Reposant sur des bases mathématiques fortes, les méthodes spectrales de type Galerkin semblent constituer une voie prometteuse pour l'obtention de prédictions numériques fiables de la réponse de modèles régis par des équations aux dérivées partielles stochastiques (EDPS). Plusieurs inconvénients freinent cependant l'utilisation de ces techniques et leur transfert vers des applications de grande taille : le temps de calcul, les capacités de stockage mémoire requises et le caractère ``intrusif'', nécessitant une bonne connaissance des équations régissant le modèle et l'élaboration de solveurs spécifiques à une classe de problèmes donnée. Un premier volet de mes travaux de recherche a consisté à proposer une stratégie de résolution alternative tentant de lever ces inconvénients. L'approche proposée, baptisée méthode de décomposition spectrale généralisée, s'apparente à une technique de réduction de modèle a priori. Elle consiste à rechercher une décomposition spectrale optimale de la solution sur une base réduite de fonctions, sans connaître la solution a priori. <br /><br />Un deuxième volet de mes activités a porté sur le développement d'une méthode de résolution d'EDPS pour le cas où l'aléa porte sur la géométrie. Dans le cadre des approches spectrales stochastiques, le traitement d'aléa sur l'opérateur et le second membre est en effet un aspect aujourd'hui bien maîtrisé. Par contre, le traitement de géométrie aléatoire reste un point encore très peu abordé mais qui peut susciter un intérêt majeur dans de nombreuses applications. Mes travaux ont consisté à proposer une extension de la méthode éléments finis étendus (X-FEM) au cadre stochastique. L'avantage principal de cette approche est qu'elle permet de traiter le cas de géométries aléatoires complexes, tout en évitant les problèmes liés au maillage et à la construction d'espaces d'approximation conformes.<br /><br />Ces deux premiers volets ne concernent que l'étape de prédiction numérique, ou de propagation des incertitudes. Mes activités de recherche apportent également quelques contributions à l'étape amont de quantification des incertitudes à partir de mesures ou d'observations. Elles s'insèrent dans le cadre de récentes techniques de représentation fonctionnelle des incertitudes. Mes contributions ont notamment porté sur le développement d'algorithmes efficaces pour le calcul de ces représentations. En particulier, ces travaux ont permis la mise au point d'une méthode d'identification de géométrie aléatoire à partir d'images, fournissant une description des aléas géométriques adaptée à la simulation numérique. Une autre contribution porte sur l'identification de lois multi-modales par une technique de représentation fonctionnelle adaptée.
109

Voronoi diagrams of semi-algebraic sets

Anton, François 11 December 2003 (has links) (PDF)
La majorité des courbes et surfaces rencontrées dans la modélisation géométrique sont définies comme l'ensemble des solutions d'un système d'équations et d'inéquations algébriques (ensemble semi-algébrique). De nombreux problèmes dans différentes disciplines scientifiques font appel à des requètes de proximité telles que la recherche du ou des voisins les plus proches ou la quantification du voisinage de deux objets.<br /><br />Le diagramme de Voronoï d'un ensemble d'objets est une décomposition de l'espace en zones de proximité. La zone de proximité d'un objet est l'ensemble des points plus proches de cet objet que de tout autre objet. Les diagrammes de Voronoï permettent de répondre aux requètes de proximité après avoir identifié la zone de proximité à laquelle le point objet de la requète appartient. Le graphe dual du diagramme de Voronoï est appelé le graphe de Delaunay. Seules les approximations par des coniques peuvent garantir un ordre de continuité approprié au niveau des points de contact, ce qui est nécessaire pour garantir l'exactitude du graphe de Delaunay.<br /><br />L'objectif théorique de cette thèse est la mise en évidence des propriétés algébriques et géométriques élémentaires de la courbe déplacée d'une courbe algébrique et de réduire le calcul semi-algébrique du graphe de Delaunay à des calculs de valeurs propres. L'objectif pratique de cette thèse est le calcul certifié du graphe de Delaunay pour des ensembles semi-algébriques de faible degré dans le plan euclidien.<br /><br />La méthodologie associe l'analyse par intervalles et la géométrie algébrique algorithmique. L'idée centrale de cette thèse est qu'un pré-traitement symbolique unique peut accélérer l'évaluation numérique certifiée du détecteur de conflits dans le graphe de Delaunay. Le pré-traitement symbolique est le calcul de l'équation implicite de la courbe déplacée généralisée d'une conique. La réduction du problème semi-algébrique de la détection de conflits dans le graphe de Delaunay à un problème d'algèbre linéaire a été possible grâce à la considération du sommet de Voronoï généralisé (un concept introduit dans cette thèse).<br /><br />Le calcul numérique certifié du graphe de Delaunay a été éffectué avec une librairie de résolution de systèmes zéro-dimensionnels d'équations et d'inéquations algébriques basée sur l'analyse d'intervalles (ALIAS). Le calcul certifié du graphe de Delaunay repose sur des théorèmes sur l'unicité de racines dans des intervalles donnés (Kantorovitch et Moore-Krawczyk). Pour les coniques, les calculs sont accélérés lorsque l'on ne considère que les équations implicites des courbes déplacées.
110

Méthodes analytiques pour le Risque des Portefeuilles Financiers

SADEFO KAMDEM, Jules 15 December 2004 (has links) (PDF)
Dans cette thèse, on propose des méthodes analytiques ou numériques pour l'estimation de la VaR ou l'Expected Shortfall des portefeuilles linéaires, quadratiques, lorsque le vecteur des facteurs de risques suit un mélange convexe de distributions elliptiques. Aussi, on introduit pour la prémière fois la notion de "portefeuille quadratique" d'actifs de bases (ie. actions).

Page generated in 0.04 seconds