• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 34
  • 30
  • 29
  • Tagged with
  • 93
  • 93
  • 93
  • 93
  • 93
  • 54
  • 54
  • 52
  • 21
  • 21
  • 20
  • 18
  • 15
  • 15
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

De l'analyse structurale à la modélisation des ressources naturelles : contributions géostatistiques

Rivoirard, Jacques 11 January 2012 (has links) (PDF)
Mes travaux de recherche s'inscrivent dans le développement d'outils géostatistiques pour mieux décrire, comprendre et modéliser la distribution spatiale de ressources naturelles : ressources minières, pétrolières, halieutiques. J'ai parcouru, chemin faisant, les grands secteurs de la géostatistique que sont l'analyse structurale, l'estimation linéaire par krigeage ou cokrigeage, les méthodes non-linéaires, et enfin les simulations. Toute étude géostatistique commence par l'analyse structurale, dans laquelle on cherche à mettre en évidence la structure spatiale des variables en jeu, à l'aide d'outils structuraux tel le variogramme. J'ai étudié de façon empirique l'influence déterminante que pouvait avoir le choix du support de travail (surface ou volume élémentaire sur lequel est mesurée la variable), ainsi que l'émergence difficile d'une structure variographique. En halieutique, l'approche transitive (basée sur un échantillonnage à maille régulière ignorant les frontières), et certaines statistiques apparentées, se révèlent appropriées pour décrire des populations spatiales possédant quelques valeurs très fortes et des frontières diffuses. L'analyse structurale est naturellement cruciale lorsqu'il s'agit de mettre en évidence des liens structuraux entre variables, notamment hiérarchiques. Ainsi la taille des harengs plutôt que leur age, au Nord de l'Ecosse, ou la proportion de minerai plutôt que le métal, dans un gisement d'uranium en petites veines, apparaissent-elles comme pré-éminentes. Le croisement de variables, et les méthodes d'estimation associées (cokrigeage, analyse krigeante), se révèlent particulièrement adaptés pour filtrer des séries de données, sismiques par exemple. Les techniques de cartographie que sont krigeage et cokrigeage posent en pratique un problème majeur, celui du choix du voisinage utilisé pour faire l'estimation, c'est-à-dire le sous-ensemble des données qui est utilisé pour estimer la valeur inconnue en un point. Un voisinage trop petit dans l'estimation de blocs miniers s'accompagne d'un biais conditionnel, responsable d'une surestimation des blocs considérés comme riches. J'ai proposé des outils permettant de mieux choisir le voisinage. Par ailleurs, l'utilisation d'un voisinage glissant peut générer des discontinuités indésirables : une solution générale a été proposée. Enfin je me suis intéressé aux conditions dans lesquelles certaines versions simplifiées de cokrigeage, par exemple le cokrigeage collocalisé, ne s'accompagnent pas de perte d'information. Les problèmes de dépassement de seuils nécessitent, pour le moins, le recours à la géostatistique non-linéaire, basée sur des transformations de la variable en gaussienne ou indicatrices, par exemple. Dans certaines circonstances, le cokrigeage d'indicatrices s'obtient par krigeage de résidus d'indicatrices. Un modèle d'écrêtage permet une estimation adaptée à la présence de valeurs extrêmes, comme dans les gisements d'or. Par ailleurs, une méthode d'ajustement d'histogramme a été développée, permettant en particulier de combler de manière controlée les queues de distribution insuffisamment informées. En mine, la technique dite de conditionnement uniforme permet de prédire la distribution des valeurs de blocs à l'intérieur d'un panneau minier à partir de la seule teneur de ce panneau : la méthode a été étendue au cas multivariable. Les simulations géostatistiques permettent de représenter des phénomènes dans leur variabilité spatiale, et donc d'estimer des quantités complexes. Ainsi a-t-on pu évaluer les ressources récupérables en nodules polymétalliques dans le pacifique Nord, compte tenu de contraintes de pente. De même, l'incertitude sur l'estimation de l'abondance du hareng au Nord de l'Ecosse a pu être chiffrée en combinant différentes sources d'incertitude. Il a fallu pour cela adapter la lassique méthode de simulation transformée gaussienne aux problèmes de valeurs nulles en grand nombre. Quant au modèle résultant du seuillage d'une gaussienne, il permet la simulation de faciès de réservoirs hétérogènes, conditionnée par des données de faciès aux puits. Une technique a été imaginée afin de rendre une telle simulation cohérente avec les fluides observés aux puits. Avec le modèle booléen, les corps sableux sont considérés comme des objets implantés aléatoirement et indépendamment : contraignant dans le cas stationnaire, le modèle est beaucoup plus souple en présence de non-stationnarités, comme c'est généralement le cas des réservoirs hétérogènes. Cependant les simulations génétiques, simulant la genèse des formations géologiques, sont plus adaptées lorsqu'on cherche à reproduire par exemple la géométrie et l'agencement des corps sédimentaires complexes liés aux réservoirs chenalisés méandriformes. Des méthodes de conditionnement ad hoc et l'usage de formules heuristiques s'avèrent alors fort utiles.
2

Etude de Quelques Problèmes d'Estimation Statistique en Finance

Rosenbaum, Mathieu 07 December 2007 (has links) (PDF)
Cette thèse traite plusieurs problèmes de finance statistique et se compose de quatre parties. Dans la première partie, on étudie la question de l'estimation de la persistance de la volatilité à partir d'observations discrètes d'un modèle de diffusion sur un intervalle [0,T], où T est un temps objectif fixé. Pour cela, on introduit un mouvement brownien fractionnaire d'indice de Hurst H dans la dynamique de la volatilité. On construit une procédure d'estimation du paramètre H à partir des données haute fréquence de la diffusion. On montre que la précision de notre estimateur est n^{-1/(4H+2)}, où n est la fréquence d'observation et on prouve son optimalité au sens minimax. Ces considérations théoriques sont suivies d'une étude numérique sur données simulées et données financières. La seconde partie de la thèse traite de la problématique du bruit de microstructure. Pour cela, on considère les observations à la fréquence n$et avec erreur d'arrondi a_n tendant vers zéro, d'un modèle de diffusion sur un intervalle [0,T], où T est un temps objectif fixé. On propose dans ce cadre des estimateurs de la volatilité intégrée de l'actif dont on montre que la précision est max(a_n, n^{-1/2}). On obtient par ailleurs des théorèmes centraux limites dans le cas de diffusions homogènes. Cette étude théorique est ici aussi suivie d'une étude numérique sur données simulées et données financières. On établit dans la troisième partie de cette thèse une caractérisation simple des espaces de Besov et on l'utilise pour démontrer de nouvelles propriétés de régularité pour certains processus stochastiques. Cette partie peut paraître déconnectée des problèmes de finance statistique mais a été inspiratrice pour la partie 4 de la thèse. On construit dans la dernière partie de la thèse un nouvel indice de bruit de microstructure et on l'étudie sur des données financières. Cet indice, dont le calcul se base sur les p-variations de l'actif considéré à différentes échelles de temps, peut être interprété en terme d'espaces de Besov. Comparé aux autres indices, il semble posséder plusieurs avantages. En particulier, il permet de mettre en évidence des phénomènes originaux comme une certaine forme de régularité additionnelle dans les échelles les plus fines. On montre que ces phénomènes peuvent être partiellement reproduits par des modèles de bruit de microstructure additif ou de diffusion avec erreur d'arrondi. Néanmoins, une reproduction fidèle semble nécessiter soit une combinaison de deux formes d'erreur, soit une forme sophistiquée d'erreur d'arrondi.
3

Liaisons entre plusieurs ensembles de variables et codage de données qualitatives

Saporta, Gilbert 15 May 1975 (has links) (PDF)
Nous étudions des généralisations de l'analyse canonique à plusieurs ensembles de variables. On présente également des techniques d'analyse discriminante sur variables qualitatives via un codage optimal des catégories, ainsi qu'une technique directe de représentation des proximités entre tableaux avec les opérateurs d'Escoufier.
4

PAC-Bayesian aggregation and multi-armed bandits

Audibert, Jean-Yves 14 October 2010 (has links) (PDF)
This habilitation thesis presents several contributions to (1) the PAC-Bayesian analysis of statistical learning, (2) the three aggregation problems: given d functions, how to predict as well as (i) the best of these d functions (model selection type aggregation), (ii) the best convex combination of these d functions, (iii) the best linear combination of these d functions, (3) the multi-armed bandit problems.
5

De l' echantillonnage optimal en grande et petite dimension

Carpentier, Alexandra 05 October 2012 (has links) (PDF)
Pendant ma th ese, j'ai eu la chance d'apprendre et de travailler sous la supervision de mon directeur de th ese R emi, et ce dans deux domaines qui me sont particuli erement chers. Je veux parler de la Th eorie des Bandits et du Compressed Sensing. Je les vois comme intimement li es non par les m ethodes mais par leur objectif commun: l' echantillonnage optimal de l'espace. Tous deux sont centr es sur les mani eres d' echantillonner l'espace e cacement : la Th eorie des Bandits en petite dimension et le Compressed Sensing en grande dimension. Dans cette dissertation, je pr esente la plupart des travaux que mes co-auteurs et moi-m^eme avons ecrit durant les trois ann ees qu'a dur e ma th ese.
6

PAC-Bayesian aggregation and multi-armed bandits

Audibert, Jean-Yves 14 October 2010 (has links) (PDF)
This habilitation thesis presents several contributions to (1) the PAC-Bayesian analysis of statistical learning, (2) the three aggregation problems: given d functions, how to predict as well as (i) the best of these d functions (model selection type aggregation), (ii) the best convex combination of these d functions, (iii) the best linear combination of these d functions, (3) the multi-armed bandit problems.
7

Développements statistiques et algorithmiques pour l'analyse des cancers du sein de type triple négatif

Rigaill, Guillem 17 November 2010 (has links) (PDF)
Dans le monde, le cancer du sein est le cancer le plus fréquent de la femme. Plusieurs types de cancer du sein ont été mis en évidence. Les carcinomes infiltrants triple négatif (TNBC) sont l'un de ces types. Les TNBC sont parmi les plus agressifs cancers du sein et sont associés à un mauvais pronostique. Il n'y a pas encore de traitement dédié pour ces cancers. Cette thèse avait pour but d'identifier des gènes et des voies de signalisation dérégulés dans les cancers de types TNBC en s'appuyant sur les profiles transcriptomiques et génomiques de tumeurs TNBC bien caractérisées, obtenues par la technique des biopuces. Mon travail comporte deux volets. D'abord, j'ai développé des méthodes pour l'analyse des données génomiques. J'ai proposé une méthode (ITALICS) pour la normalisation des données Affymetrix SNP 100K et 500K. J'ai travaillé sur la segmentation des profils génomiques. J'ai développé de nouveaux outils statistiques pour étudier la stabilité de la segmentation et j'ai obtenu des formules exactes pour des critères de sélection de modèle. Enfin, j'ai propose un algorithme de programmation dynamique rapide qui retrouve la meilleure segmentation au sens de la norme euclidienne. Dans un second temps, j'ai analysé les données omiques du projet. J'ai conçu le plan d'expérience. J'ai analysé les données transcriptomiques avec des méthodes déjà disponibles. J'ai comparé les classifications transcriptomique et immunohistochimique des TNBC. L'analyse des données transcriptomiques m'a permis d'identifier des gènes et des voies de signalisation dérégulés dans les TNBC. Enfin, j'ai analysé les données génomiques avec les outils que j'ai développés.
8

Méthodes statistiques pour la mise en correspondance de descripteurs

Collier, Olivier 02 October 2013 (has links) (PDF)
De nombreuses applications, en vision par ordinateur ou en médecine notamment,ont pour but d'identifier des similarités entre plusieurs images ou signaux. On peut alors détecter des objets, les suivre, ou recouper des prises de vue. Dans tous les cas, les procédures algorithmiques qui traitent les images utilisent une sélection de points-clefs qu'elles essayent ensuite de mettre en correspondance par paire. Elles calculent pour chaque point un descripteur qui le caractérise, le discrimine des autres. Parmi toutes les procédures possibles,la plus utilisée aujourd'hui est SIFT, qui sélectionne les points-clefs, calcule des descripteurs et propose un critère de mise en correspondance globale. Dans une première partie, nous tentons d'améliorer cet algorithme en changeant le descripteur original qui nécessite de trouver l'argument du maximum d'un histogramme : en effet, son calcul est statistiquement instable. Nous devons alors également changer le critère de mise en correspondance de deux descripteurs. Il en résulte un problème de test non paramétrique dans lequel à la fois l'hypothèse nulle et alternative sont composites, et même non paramétriques. Nous utilisons le test du rapport de vraisemblance généralisé afin d'exhiber des procédures de test consistantes, et proposons une étude minimax du problème. Dans une seconde partie, nous nous intéressons à l'optimalité d'une procédure globale de mise en correspondance. Nous énonçons un modèle statistique dans lequel des descripteurs sont présents dans un certain ordre dans une première image, et dans un autre dans une seconde image. La mise en correspondance revient alors à l'estimation d'une permutation. Nous donnons un critère d'optimalité au sens minimax pour les estimateurs. Nous utilisons en particulier la vraisemblance afin de trouver plusieurs estimateurs consistants, et même optimaux sous certaines conditions. Enfin, nous nous sommes intéressés à des aspects pratiques en montrant que nos estimateurs étaient calculables en temps raisonnable, ce qui nous a permis ensuite d'illustrer la hiérarchie de nos estimateurs par des simulations
9

Analyse des séries chronologiques à mémoire longue dans le domaine des ondelettes

Kouamo, Olaf 28 January 2011 (has links) (PDF)
Le thème de nos travaux porte sur la statistique des processus à longue mémoire, pour lesquels nous proposons et validons des outils statistiques issus de l'analyse par ondelettes. Ces dernières années ces méthodes pour estimer le paramètre de mémoire sont devenues très populaires. Cependant, les résultats théoriques validant rigoureusement les estimateurs pour les modèles semi paramétriques classiques à longue mémoire sont récents (cf. les articles de E. Moulines, F. Roueff et M. Taqqu depuis 2007). Les résultats que nous proposons dans cette thèse s'inscrivent directement dans le prolongement de ces travaux. Nous avons proposé une procédure de test pour détecter des ruptures sur la densité spectrale généralisée. Dans le domaine des ondelettes, le test devient un test de ruptures sur la variance des coefficients d'ondelettes. Nous avons ensuite développé un algorithme de calcul rapide de la matrice de covariance des coefficients d'ondelettes. Deux applications de cet algorithme sont proposées , d'une part pour l'estimation de d et d'autre part pour améliorer le test proposé dans le chapitre précédent. Pour finir, nous avons étudié les estimateurs robustes robustes du paramètre de mémoire d dans le domaine des ondelettes. en se basant sur trois estimateurs de la variance des coefficients d'ondelettes à une échelle. La contribution majeure de ce chapitre est le théorème central limite obtenu pour les trois estimateurs de d dans le cadre des processus gaussiens M(d).
10

Construction de bases d'ondelettes de $L^2[0,1]$ et estimation du paramètre de longue mémoire par la méthode des ondelettes.

Bibi, Hatem 04 November 2011 (has links) (PDF)
Cette thèse est consacrée à l'utilisation des ondelettes dans deux domaines à savoir la construction de bases sur l'intervalle et l'estimation du paramètre de longue mémoire par transformée (discrète) d'ondelettes. Dans un premier volet Nous présentons des constructions générales d'analyses multirésolution orthogonales (par une méthode directe) et biorthogonale sur l'intervalle (par la méthode d'intégration et de dérivation) .Comme applications, on étudie les espaces de Sobolev $H^{s}([0,1])$ et $H^{s}_{0}([0,1])$ pour $s\in\mathbb{N}$ . Le second volet est consacré à l'estimation du paramètre de longues ondelettes (non issues d'une analyse multirésolution) dans un cadre semi paramétrique. Les processus stationnaires à longue mémoire considérés sont du type gaussien puis linéaire. Pour chaque type de processus, on construit un estimateur adaptatif vérifiant un théorème limite central à vitesse de convergence au sens du minimax (à un logarithme prés). Les qualités statistiques de ces estimateurs (robustesses et consistances) sont vérifiées par des simulations et enfin un test d'adéquation est établi (considéré comme un test de longue mémoire dans le cas linéaire).

Page generated in 0.1086 seconds