• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 2
  • Tagged with
  • 5
  • 5
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Etude des dispersions et incertitudes en optimisation et dans l'analyse des valeurs propres / Dispersions and uncertainties in optimization and eigenvalues analysis

Croquet, Rémi 22 June 2012 (has links)
Après une première présentation des outils de modélisation des incertitudes, la question de leur quantification est abordée. Deux problèmes particuliers seront l'occasion de développer une nouvelle méthodologie : la caractérisation de la dispersion affectant la solution d'un problème d'optimisation comportant des paramètres aléatoires et le calcul des valeurs propres généralisées de matrices à coefficients aléatoires. De nouvelles méthodes basées sur l'adaptation au cadre stochastique d'approches déterministes sont proposées. Par ailleurs, les outils de l'optimisation fiabiliste permettent de trouver un compromis entre un coût minimum et une fiabilité accrue. Pour pallier les temps de calcul prohibitif, nous proposons une stratégie permettant de déterminer une solution approchée du problème. En fonction des contraintes en temps de calcul ou de précision, l'utilisation de différentes mesures de fiabilité est possible. / After an introduction concerning the techniques used to model uncertainties, the question of quantifying the latter is adressed. Focusing on two particular issues will make it possible to develop a new methodology on that purpose. First, we will tackle the issue of characterizing the dispersion affecting the solution ofan optimization problem whose objective or constraints are random. Afterwards, we will deal with computation of random matrices eigenelements. Original strategies based on transposing standard deterministic numerical schemes into stochastic framework are introduced. Besides, tools provided by reliability-based optimization turn out to be usefulto reach a balance between a lowest cost and a satisfying reliability. However, useof such approaches can lead to prohibitive computational effort. To overcome this difficulty, a new strategy is proposed to derive an approximated solution of initial problem. Depending on requirements on computational time or accuracy, it is shownthat several measurements of reliability can be used.
2

Analyse en composantes principales et interpolation de processus en vue d'applications en hydrométéorologie : méthodes et simulation

Bouhaddou, Omar 01 March 1984 (has links) (PDF)
Nous étudions une méthode d'interpolation de processus fondée sur l'analyse en composantes principales. Nous la situons par rapport à des techniques courantes telles le krigeage. Afin de cerner ses possibilités d'utilisation pratiques (en particulier en vue d'applications en hydrometeorologie) nous proposons un plan d'expérimentation de la méthode par simulation.
3

Méthode de Dandelin-Graeffe et méthode de Baker

Diouf, Ismaïla 12 June 2007 (has links) (PDF)
L'objet général de ce travail est l'étude de la convergence des méthodes classiques<br />de calcul approché des racines d'un polynôme à coefficients complexes. Les méthodes<br />considérées sont celles de Bernoulli et de Graeffe-Dandelin. On montre que ces <br />questions de convergence sont liées à des problèmes diophantiens et que les<br />théorèmes d'aapproximation de Dirichlet et surtout la méthode de Baker fournissent<br />des résultats de convergence nouveaux qui s'appliquent aux polynômes à coefficients<br />entiers. De nombreux exemples calculés en MAPLE, y sont présentés et analysés.
4

Etude des dispersions et incertitudes en optimisation et dans l'analyse des valeurs propres

Croquet, Rémi 22 June 2012 (has links) (PDF)
Après une première présentation des outils de modélisation des incertitudes, la question de leur quantification est abordée. Deux problèmes particuliers seront l'occasion de développer une nouvelle méthodologie : la caractérisation de la dispersion affectant la solution d'un problème d'optimisation comportant des paramètres aléatoires et le calcul des valeurs propres généralisées de matrices à coefficients aléatoires. De nouvelles méthodes basées sur l'adaptation au cadre stochastique d'approches déterministes sont proposées. Par ailleurs, les outils de l'optimisation fiabiliste permettent de trouver un compromis entre un coût minimum et une fiabilité accrue. Pour pallier les temps de calcul prohibitif, nous proposons une stratégie permettant de déterminer une solution approchée du problème. En fonction des contraintes en temps de calcul ou de précision, l'utilisation de différentes mesures de fiabilité est possible.
5

Apprentissage statistique avec le processus ponctuel déterminantal

Vicente, Sergio 02 1900 (has links)
Cette thèse aborde le processus ponctuel déterminantal, un modèle probabiliste qui capture la répulsion entre les points d’un certain espace. Celle-ci est déterminée par une matrice de similarité, la matrice noyau du processus, qui spécifie quels points sont les plus similaires et donc moins susceptibles de figurer dans un même sous-ensemble. Contrairement à la sélection aléatoire uniforme, ce processus ponctuel privilégie les sous-ensembles qui contiennent des points diversifiés et hétérogènes. La notion de diversité acquiert une importante grandissante au sein de sciences comme la médecine, la sociologie, les sciences forensiques et les sciences comportementales. Le processus ponctuel déterminantal offre donc une alternative aux traditionnelles méthodes d’échantillonnage en tenant compte de la diversité des éléments choisis. Actuellement, il est déjà très utilisé en apprentissage automatique comme modèle de sélection de sous-ensembles. Son application en statistique est illustrée par trois articles. Le premier article aborde le partitionnement de données effectué par un algorithme répété un grand nombre de fois sur les mêmes données, le partitionnement par consensus. On montre qu’en utilisant le processus ponctuel déterminantal pour sélectionner les points initiaux de l’algorithme, la partition de données finale a une qualité supérieure à celle que l’on obtient en sélectionnant les points de façon uniforme. Le deuxième article étend la méthodologie du premier article aux données ayant un grand nombre d’observations. Ce cas impose un effort computationnel additionnel, étant donné que la sélection de points par le processus ponctuel déterminantal passe par la décomposition spectrale de la matrice de similarité qui, dans ce cas-ci, est de grande taille. On présente deux approches différentes pour résoudre ce problème. On montre que les résultats obtenus par ces deux approches sont meilleurs que ceux obtenus avec un partitionnement de données basé sur une sélection uniforme de points. Le troisième article présente le problème de sélection de variables en régression linéaire et logistique face à un nombre élevé de covariables par une approche bayésienne. La sélection de variables est faite en recourant aux méthodes de Monte Carlo par chaînes de Markov, en utilisant l’algorithme de Metropolis-Hastings. On montre qu’en choisissant le processus ponctuel déterminantal comme loi a priori de l’espace des modèles, le sous-ensemble final de variables est meilleur que celui que l’on obtient avec une loi a priori uniforme. / This thesis presents the determinantal point process, a probabilistic model that captures repulsion between points of a certain space. This repulsion is encompassed by a similarity matrix, the kernel matrix, which selects which points are more similar and then less likely to appear in the same subset. This point process gives more weight to subsets characterized by a larger diversity of its elements, which is not the case with the traditional uniform random sampling. Diversity has become a key concept in domains such as medicine, sociology, forensic sciences and behavioral sciences. The determinantal point process is considered a promising alternative to traditional sampling methods, since it takes into account the diversity of selected elements. It is already actively used in machine learning as a subset selection method. Its application in statistics is illustrated with three papers. The first paper presents the consensus clustering, which consists in running a clustering algorithm on the same data, a large number of times. To sample the initials points of the algorithm, we propose the determinantal point process as a sampling method instead of a uniform random sampling and show that the former option produces better clustering results. The second paper extends the methodology developed in the first paper to large-data. Such datasets impose a computational burden since sampling with the determinantal point process is based on the spectral decomposition of the large kernel matrix. We introduce two methods to deal with this issue. These methods also produce better clustering results than consensus clustering based on a uniform sampling of initial points. The third paper addresses the problem of variable selection for the linear model and the logistic regression, when the number of predictors is large. A Bayesian approach is adopted, using Markov Chain Monte Carlo methods with Metropolis-Hasting algorithm. We show that setting the determinantal point process as the prior distribution for the model space selects a better final model than the model selected by a uniform prior on the model space.

Page generated in 0.0725 seconds