• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 21
  • 4
  • Tagged with
  • 55
  • 22
  • 21
  • 16
  • 14
  • 13
  • 13
  • 11
  • 11
  • 10
  • 10
  • 10
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Sur une approche de l'analyse en composantes indépendantes à la compression des images multi composantes

Akam Bita, Isidore Paul 12 February 2007 (has links) (PDF)
Dans une première partie, nous définissons plusieurs schémas de compression en partant de l'état de l'art qu'est JPEG 2000 aujourd'hui. Les schémas de compressions que nous avons définis proposent d'utiliser une transformation pour la réduction de la redondance spatiale transformée en ondelette discrète (TOD) et une autre transformation pour réduire la redondance spectrale. Les transformations optimales sous les hypothèses faible distortion, permettant de réduire la redondance spectrale, s'obtiennent dans certains cas en minimisant un critère qui peut être interprété comme le critère de l'analyse en composantes indépendantes (ACI) (minimisation de l'information mutuelle) additionné d'un terme toujours positif ou nul qui est une certaine mesure à l'orthogonalité de la transformation obtenue. Les performances obtenues en intégrant ces transformations dans nos schémas de compression montrent une amélioration des performances en comparaison à la transformation de Karhunen Loève (TKL). Dans la deuxième partie, nous proposons un modèle de mélange convolutif pour rechercher une transformation unique réduisant à la fois les redondances spatiales et spectrales. Nous définissons le critère à minimiser sous les hypothèses faibles distortions et nous montrons que ce critère peut s'interprété comme celui de l'ACI pour la séparation et déconvolution lorsque le critère à minimiser est l'information mutuelle auquel s'additionne un terme toujours positif ou nul. Puis nous proposons deux algorithmes permettant d'obtenir d'une part la transformation minimisant le critère dans le cas général, et d'autre part celle qui minimise le critère sous la contrainte que la distorsion dans le domaine transformée est la même que celle du domaine de l'image.
52

Approximations polynomiales rigoureuses et applications

Joldes, Mioara Maria 26 September 2011 (has links) (PDF)
Quand on veut évaluer ou manipuler une fonction mathématique f, il est fréquent de la remplacer par une approximation polynomiale p. On le fait, par exemple, pour implanter des fonctions élémentaires en machine, pour la quadrature ou la résolution d'équations différentielles ordinaires (ODE). De nombreuses méthodes numériques existent pour l'ensemble de ces questions et nous nous proposons de les aborder dans le cadre du calcul rigoureux, au sein duquel on exige des garanties sur la précision des résultats, tant pour l'erreur de méthode que l'erreur d'arrondi.Une approximation polynomiale rigoureuse (RPA) pour une fonction f définie sur un intervalle [a,b], est un couple (P, Delta) formé par un polynôme P et un intervalle Delta, tel que f(x)-P(x) appartienne à Delta pour tout x dans [a,b].Dans ce travail, nous analysons et introduisons plusieurs procédés de calcul de RPAs dans le cas de fonctions univariées. Nous analysons et raffinons une approche existante à base de développements de Taylor.Puis nous les remplaçons par des approximants plus fins, tels que les polynômes minimax, les séries tronquées de Chebyshev ou les interpolants de Chebyshev.Nous présentons aussi plusieurs applications: une relative à l'implantation de fonctions standard dans une bibliothèque mathématique (libm), une portant sur le calcul de développements tronqués en séries de Chebyshev de solutions d'ODE linéaires à coefficients polynômiaux et, enfin, un processus automatique d'évaluation de fonction à précision garantie sur une puce reconfigurable.
53

Approximations polynomiales rigoureuses et applications / Rigorous Polynomial Approximations and Applications

Joldes, Mioara Maria 26 September 2011 (has links)
Quand on veut évaluer ou manipuler une fonction mathématique f, il est fréquent de la remplacer par une approximation polynomiale p. On le fait, par exemple, pour implanter des fonctions élémentaires en machine, pour la quadrature ou la résolution d'équations différentielles ordinaires (ODE). De nombreuses méthodes numériques existent pour l'ensemble de ces questions et nous nous proposons de les aborder dans le cadre du calcul rigoureux, au sein duquel on exige des garanties sur la précision des résultats, tant pour l'erreur de méthode que l'erreur d'arrondi.Une approximation polynomiale rigoureuse (RPA) pour une fonction f définie sur un intervalle [a,b], est un couple (P, Delta) formé par un polynôme P et un intervalle Delta, tel que f(x)-P(x) appartienne à Delta pour tout x dans [a,b].Dans ce travail, nous analysons et introduisons plusieurs procédés de calcul de RPAs dans le cas de fonctions univariées. Nous analysons et raffinons une approche existante à base de développements de Taylor.Puis nous les remplaçons par des approximants plus fins, tels que les polynômes minimax, les séries tronquées de Chebyshev ou les interpolants de Chebyshev.Nous présentons aussi plusieurs applications: une relative à l'implantation de fonctions standard dans une bibliothèque mathématique (libm), une portant sur le calcul de développements tronqués en séries de Chebyshev de solutions d'ODE linéaires à coefficients polynômiaux et, enfin, un processus automatique d'évaluation de fonction à précision garantie sur une puce reconfigurable. / For purposes of evaluation and manipulation, mathematical functions f are commonly replaced by approximation polynomials p. Examples include floating-point implementations of elementary functions, integration, ordinary differential equations (ODE) solving. For that, a wide range of numerical methods exists. We consider the application of such methods in the context of rigorous computing, where we need guarantees on the accuracy of the result, with respect to both the truncation and rounding errors.A rigorous polynomial approximation (RPA) for a function f defined over an interval [a,b] is a couple (P, Delta) where P is a polynomial and Delta is an interval such that f(x)-P(x) belongs to Delta, for all x in [a,b]. In this work we analyse and bring forth several ways of obtaining RPAs for univariate functions. Firstly, we analyse and refine an existing approach based on Taylor expansions. Secondly, we replace them with better approximations such as minimax approximations, Chebyshev truncated series or interpolation polynomials.Several applications are presented: one from standard functions implementation in mathematical libraries (libm), another regarding the computation of Chebyshev series expansions solutions of linear ODEs with polynomial coefficients, and finally an automatic process for function evaluation with guaranteed accuracy in reconfigurable hardware.
54

Approximations polynomiales de densités de probabilité et applications en assurance / Polynomial approximtions of probabilitty density function with applications to insurance

Goffard, Pierre-Olivier 29 June 2015 (has links)
Cette thèse a pour objet d'étude les méthodes numériques d'approximation de la densité de probabilité associée à des variables aléatoires admettant des distributions composées. Ces variables aléatoires sont couramment utilisées en actuariat pour modéliser le risque supporté par un portefeuille de contrats. En théorie de la ruine, la probabilité de ruine ultime dans le modèle de Poisson composé est égale à la fonction de survie d'une distribution géométrique composée. La méthode numérique proposée consiste en une projection orthogonale de la densité sur une base de polynômes orthogonaux. Ces polynômes sont orthogonaux par rapport à une mesure de probabilité de référence appartenant aux Familles Exponentielles Naturelles Quadratiques. La méthode d'approximation polynomiale est comparée à d'autres méthodes d'approximation de la densité basées sur les moments et la transformée de Laplace de la distribution. L'extension de la méthode en dimension supérieure à $1$ est présentée, ainsi que l'obtention d'un estimateur de la densité à partir de la formule d'approximation. Cette thèse comprend aussi la description d'une méthode d'agrégation adaptée aux portefeuilles de contrats d'assurance vie de type épargne individuelle. La procédure d'agrégation conduit à la construction de model points pour permettre l'évaluation des provisions best estimate dans des temps raisonnables et conformément à la directive européenne Solvabilité II. / This PhD thesis studies numerical methods to approximate the probability density function of random variables governed by compound distributions. These random variables are useful in actuarial science to model the risk of a portfolio of contracts. In ruin theory, the probability of ultimate ruin within the compound Poisson ruin model is the survival function of a geometric compound distribution. The proposed method consists in a projection of the probability density function onto an orthogonal polynomial system. These polynomials are orthogonal with respect to a probability measure that belongs to Natural Exponential Families with Quadratic Variance Function. The polynomiam approximation is compared to other numerical methods that recover the probability density function from the knowledge of the moments or the Laplace transform of the distribution. The polynomial method is then extended in a multidimensional setting, along with the probability density estimator derived from the approximation formula. An aggregation procedure adapted to life insurance portfolios is also described. The method aims at building a portfolio of model points in order to compute the best estimate liabilities in a timely manner and in a way that is compliant with the European directive Solvency II.
55

Vehicle Sharing Systems Pricing Optimization (Optimisation des systèmes de véhicules en libre service par la tarification)

Waserhole, Ariel 18 November 2013 (has links) (PDF)
Nous étudions les systèmes de véhicules en libre service en aller-simple : avec emprunt et restitution dans des lieux éventuellement différents. La publicité promeut l'image de flexibilité et d'accessibilité (tarifaire) de tels systèmes, mais en réalité il arrive qu'il n'y ait pas de véhicule disponible au départ, voire pire, pas de place à l'arrivée. Il est envisageable (et pratiqué pour Vélib' à Paris) de relocaliser les véhicules pour éviter que certaines stations soient vides ou pleines à cause des marées ou de la gravitation. Notre parti-pris est cependant de ne pas considérer de "relocalisation physique" (à base de tournées de camions) en raison du coût, du trafic et de la pollution occasionnées (surtout pour des systèmes de voitures, comme Autolib' à Paris). La question à laquelle nous désirons répondre dans cette thèse est la suivante : Une gestion via des tarifs incitatifs permet-elle d'améliorer significativement les performances des systèmes de véhicules en libre service ?

Page generated in 0.1151 seconds