• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 57
  • 34
  • 13
  • Tagged with
  • 105
  • 45
  • 45
  • 21
  • 19
  • 18
  • 18
  • 17
  • 15
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Simulations gaussiennes séquentielles en facteurs de ressources minérales en éléments des terres rares

Raymond, Michaël 27 January 2024 (has links)
Ce mémoire présente les résultats d’estimation de ressources minérales en éléments des terres rares (ETR) réalisés à l’aide de simulations géostatistiques gaussiennes séquentielles (SGS) en facteurs spatialement décorrélés par la méthode MAF (Minimum/Maximum Autocorrelation Factors). Cette étude s’inscrit dans le cadre du projet de recherche « Caractérisation des gîtes de terres rares d’intrusions alcalines : géologie, métallogénie et géométallurgie du complexe syénitique de Kipawa » (FRQNT, 2017, p. 59). Les SGS se proposent comme une méthode alternative à la technique reconnue du krigeage ordinaire ayant été utilisée pour l’estimation des ressources minérales d’ETR du gisement de Kipawa, site à l’étude. Ce mémoire compare les résultats d’estimation des ressources minérales d’ETR des SGS à ceux du krigeage ordinaire. À cette fin, le site à l’étude est d’abord présenté en compagnie de la base de données conjointement utilisées par les deux méthodes. Ensuite, une revue de littérature aborde les notions et concepts nécessaires à la réalisation des SGS de cette étude. Une fois ces connaissances acquises, la méthode de recherche est développée. Son aboutissement permet de présenter les résultats et d’en discuter. Globalement, les résultats démontrent que les SGS en facteurs offrent l’avantage de procéder à l’estimation de ressources minérales d’ETR de façon multivariée, de limiter le lissage des résultats tout en fournissant une évaluation de leur incertitude. Les SGS proposent une distribution normale des ressources minérales en ETR totaux allant d’un minimum de 91 035 t à un maximum de 103 118 t. D’autre part, le krigeage ordinaire en estime, sans teneur de coupure, une valeur unique de 113 717 t. En conclusion, le tonnage évalué des ressources minérales en ETR du gisement Kipawa est moindre par la méthode des SGS que par le krigeage ordinaire. MOTS CLÉS : Simulations, géostatistique, simulations gaussiennes séquentielles (SGS), facteurs d’autocorrélation minimum/maximum (MAF), éléments des terres rares (ETR), ressources minérales. / This thesis presents the results of rare earth elements (REE) mineral resources estimate using Sequential Gaussian Simulations (SGS) of spatially decorrelated factors calculated from the Minimum/Maximum Autocorrelation Factors (MAF) method. This study is part of the research project "Characterization of REE deposits of alkaline intrusions: geology, metallogeny and geometallurgy of the Kipawa syenite complex" (FRQNT, 2017, p. 59). SGS are proposed as an alternative method to the acknowledge ordinary kriging technic which was used for the REE mineral resources estimation of the Kipawa deposit, site under study. This report compares the results of the SGS mineral resources estimate to those of ordinary kriging. To this end, the study site is first presented along with the database jointly used by the two methods. Then, a literature review discusses the notions and concepts required to carry out the SGS of this study. Once this knowledge acquired, the research method is developed. Afterward, the results are presented and discussed. Overall, results demonstrate that SGS of MAF factors offer the advantage of estimating REE mineral resources in a multivariate manner, limiting the smoothing of the results while providing an assessment of their uncertainty. The SGS propose a normal distribution of the total REE ranging from a minimum of 91 035 t to a maximum of 103 118 t. On the other hand, the ordinary kriging estimates a single value of 113 717 t in total REE with no cut-off grade. In conclusion, the SGS method evaluates a lesser tonnage of REE mineral ressources at the Kipawa deposit than the ordinary kriging technic. KEYWORDS: Simulations, Geostatistic, Sequential Gaussian Simulations (SGS), Min/Max Autocorrelation Factors (MAF), Rare Earth Elements (REE), Mineral resources.
12

Inégalités géométriques et fonctionnelles

Lehec, Joseph 03 December 2008 (has links) (PDF)
La majeure partie de cette thèse est consacrée à l'inégalité de Blaschke-Santaló, qui s'énonce ainsi : parmi les ensembles symétriques, la boule euclidienne maximise le produit vol(K) vol(K°), K° désignant le polaire de K. Il existe des versions fonctionnelles de cette inégalité, découvertes par plusieurs auteurs (Ball, Artstein, Klartag, Milman, Fradelizi, Meyer. . .), mais elles sont toutes dérivées de l'inégalité ensembliste. L'objet de cette thèse est de proposer des démonstrations directes de ces inégalités fonctionnelles. On obtient ainsi de nouvelles preuves de l'inégalité de Santaló, parfois très simples. La dernière partie est un peu à part et concerne le chaos gaussien : on démontre une majoration précise des moments du chaos gaussien due à Lataªa par des arguments de chaînage à la Talagrand
13

Inégalités géométriques et fonctionnelles / Geometric and Functional Inequalities

Lehec, Joseph 03 December 2008 (has links)
La majeure partie de cette thèse est consacrée à l'inégalité de Blaschke-Santaló, qui s'énonce ainsi : parmi les ensembles symétriques, la boule euclidienne maximise le produit vol(K) vol(K°), K° désignant le polaire de K. Il existe des versions fonctionnelles de cette inégalité, découvertes par plusieurs auteurs (Ball, Artstein, Klartag, Milman, Fradelizi, Meyer. . .), mais elles sont toutes dérivées de l'inégalité ensembliste. L'objet de cette thèse est de proposer des démonstrations directes de ces inégalités fonctionnelles. On obtient ainsi de nouvelles preuves de l'inégalité de Santaló, parfois très simples. La dernière partie est un peu à part et concerne le chaos gaussien : on démontre une majoration précise des moments du chaos gaussien due à Lataªa par des arguments de chaînage à la Talagrand / This thesis is mostly about the Blaschke-Santaló inequality, which states that among symmetric sets, the Euclidean ball maximises the product vol(K) vol(K°), where K° is the polar body of K. Several authors (Ball, Artstein, Klartag, Milman, Fradelizi, Meyer. . .) were able to derive functional inequalities from this inequality. The purpose of this thesis is to give direct proofs of these functional Santaló inequalities. This provides new proofs of Santaló, some of which are very simple. The last chapter is about Gaussian chaoses. We obtain a sharp bound for moments of Gaussian chaoses due to Lataªa, using the generic chaining of Talagrand
14

Application de méthodes de classification supervisée et intégration de données hétérogènes pour des données transcriptomiques à haut-débit

Guillemot, Vincent 29 March 2010 (has links) (PDF)
Les méthodes d'apprentissage supervisé sont appliquées depuis récemment à des jeux de données de puces à ADN, afin d'une part d'extraire des gènes impliqués dans les différences entre les classes d'individus étudiés et d'autre part de construire une fonction de classification permettant de prédire la classe d'un nouvel individu. Ces données de puces à ADN peuvent être accompagnées d'une information précieuse décrivant les interactions entre les variables (les gènes). Cette information est regroupée sous la forme de réseaux de régulations génétiques (RRG). L'objectif de la thèse est de réaliser l'intégration de l'information contenue dans ces RRGs dans une méthode de classification supervisée binaire. Nous proposons une nouvelle méthode, graph Constrained Discriminant Analysis (gCDA), basée sur l'analyse discriminante de Fisher. Les méthodes de la littérature se proposent d'implémenter la contrainte suivante : les gènes qui sont voisins dans le RRG doivent avoir des poids proches, voire identiques, dans la fonction de classification. À contrepoint de ces méthodes, gCDA est basée sur l'estimation régularisée des matrices de variance covariance qui sont utilisées dans l'analyse discriminante de Fisher. Les estimateurs utilisés dans gCDA prennent en compte l'information contenue dans les RRGs disponibles a priori grâce aux propriétés des modèles graphiques gaussiens. gCDA est comparée aux méthodes de la littérature sur des données simulées, données pour lesquelles le graphe sous-jacent est parfaitement connu. Dans le cas de données réelles, le graphe sous-jacent décrivant les interactions entre variables n'est pas connu. Nous nous sommes donc également intéressés à des méthodes permettant d'inférer de tels graphes à partir de données transcriptomiques. Enfin, des résultats sont obtenus sur trois jeux de données réelles. Les RRG ont été inférés soit sur des jeux de données de même nature mais indépendants (c'est-à-dire concernant des individus qui ne sont pas utilisés pour en classification), soit sur une partie indépendante du jeu de données étudié. Nous montrons une amélioration notable des performances de classification sur ces jeux de données lorsque gCDA est utilisée par rapport à l'utilisation des méthodes de la littérature décrites dans la deuxième partie.
15

Étude de classes de noyaux adaptées à la simplification et à l'interprétation des modèles d'approximation. Une approche fonctionnelle et probabiliste.

Durrande, Nicolas 09 November 2011 (has links) (PDF)
Le thème général de cette thèse est celui de la construction de modèles permettantd'approximer une fonction f lorsque la valeur de f(x) est connue pour un certainnombre de points x. Les modèles considérés ici, souvent appelés modèles de krigeage,peuvent être abordés suivant deux points de vue : celui de l'approximation dans les espacesde Hilbert à noyaux reproduisants ou celui du conditionnement de processus gaussiens.Lorsque l'on souhaite modéliser une fonction dépendant d'une dizaine de variables, lenombre de points nécessaires pour la construction du modèle devient très important etles modèles obtenus sont difficilement interprétables. A partir de ce constat, nous avonscherché à construire des modèles simplifié en travaillant sur un objet clef des modèles dekrigeage : le noyau. Plus précisement, les approches suivantes sont étudiées : l'utilisation denoyaux additifs pour la construction de modèles additifs et la décomposition des noyauxusuels en sous-noyaux pour la construction de modèles parcimonieux. Pour finir, nousproposons une classe de noyaux qui est naturellement adaptée à la représentation ANOVAdes modèles associés et à l'analyse de sensibilité globale.
16

Théorèmes limites pour des processus à longue mémoire saisonnière

Ould Mohamed Abdel Haye, Mohamedou Viano, Marie-Claude January 2001 (has links)
Thèse de doctorat : Mathématiques : Lille 1 : 2001. / N° d'ordre (Lille) : 3085. Résumé en français et en anglais. Bibliogr. p. 115-119.
17

Étude de classes de noyaux adaptées à la simplification et à l'interprétation des modèles d'approximation. Une approche fonctionnelle et probabiliste.

Durrande, Nicolas 09 November 2001 (has links) (PDF)
Le thème général de cette thèse est celui de la construction de modèles permettant d'approximer une fonction f lorsque la valeur de f(x) est connue pour un certain nombre de points x. Les modèles considérés ici, souvent appelés modèles de krigeage, peuvent être abordés suivant deux points de vue : celui de l'approximation dans les espaces de Hilbert à noyaux reproduisants ou celui du conditionnement de processus gaussiens. Lorsque l'on souhaite modéliser une fonction dépendant d'une dizaine de variables, le nombre de points nécessaires pour la construction du modèle devient très important et les modèles obtenus sont difficilement interprétables. A partir de ce constat, nous avons cherché à construire des modèles simplifiés en travaillant sur un objet clef des modèles de krigeage : le noyau. Plus précisement, les approches suivantes sont étudiées : l'utilisation de noyaux additifs pour la construction de modèles additifs et la décomposition des noyaux usuels en sous-noyaux pour la construction de modèles parcimonieux. Pour finir, nous proposons une classe de noyaux qui est naturellement adaptée à la représentation ANOVA des modèles associés et à l'analyse de sensibilité globale.
18

Kriging-based black-box global optimization : analysis and new algorithms / Optimisation Globale et processus Gaussiens : analyse et nouveaux algorithmes

Mohammadi, Hossein 11 April 2016 (has links)
L’«Efficient Global Optimization» (EGO) est une méthode de référence pour l’optimisation globale de fonctions «boites noires» coûteuses. Elle peut cependant rencontrer quelques difficultés, comme le mauvais conditionnement des matrices de covariance des processus Gaussiens (GP) qu’elle utilise, ou encore la lenteur de sa convergence vers l’optimum global. De plus, le choix des paramètres du GP, crucial car il contrôle la famille des fonctions d’approximation utilisées, mériterait une étude plus poussée que celle qui en a été faite jusqu’à présent. Enfin, on peut se demander si l’évaluation classique des paramètres du GP est la plus appropriée à des fins d’optimisation. \\Ce travail est consacré à l'analyse et au traitement des différentes questions soulevées ci-dessus.La première partie de cette thèse contribue à une meilleure compréhension théorique et pratique de l’impact des stratégies de régularisation des processus Gaussiens, développe une nouvelle technique de régularisation, et propose des règles pratiques. Une seconde partie présente un nouvel algorithme combinant EGO et CMA-ES (ce dernier étant un algorithme d’optimisation globale et convergeant). Le nouvel algorithme, nommé EGO-CMA, utilise EGO pour une exploration initiale, puis CMA-ES pour une convergence finale. EGO-CMA améliore les performances des deux algorithmes pris séparément. Dans une troisième partie, l’effet des paramètres du processus Gaussien sur les performances de EGO est soigneusement analysé. Finalement, un nouvel algorithme EGO auto-adaptatif est présenté, dans une nouvelle approche où ces paramètres sont estimés à partir de leur influence sur l’efficacité de l’optimisation elle-même. / The Efficient Global Optimization (EGO) is regarded as the state-of-the-art algorithm for global optimization of costly black-box functions. Nevertheless, the method has some difficulties such as the ill-conditioning of the GP covariance matrix and the slow convergence to the global optimum. The choice of the parameters of the GP is critical as it controls the functional family of surrogates used by EGO. The effect of different parameters on the performance of EGO needs further investigation. Finally, it is not clear that the way the GP is learned from data points in EGO is the most appropriate in the context of optimization. This work deals with the analysis and the treatment of these different issues. Firstly, this dissertation contributes to a better theoretical and practical understanding of the impact of regularization strategies on GPs and presents a new regularization approach based on distribution-wise GP. Moreover, practical guidelines for choosing a regularization strategy in GP regression are given. Secondly, a new optimization algorithm is introduced that combines EGO and CMA-ES which is a global but converging search. The new algorithm, called EGO-CMA, uses EGO for early exploration and then CMA-ES for final convergence. EGO-CMA improves the performance of both EGO and CMA-ES. Thirdly, the effect of GP parameters on the EGO performance is carefully analyzed. This analysis allows a deeper understanding of the influence of these parameters on the EGO iterates. Finally, a new self-adaptive EGO is presented. With the self-adaptive EGO, we introduce a novel approach for learning parameters directly from their contribution to the optimization.
19

Quand le bruit nous éclaire : une étude sur les mécanismes de la perception et de la mémoire à long-terme pour des stimuli auditifs sans signification / When noise enlightens : an investigation into the mechanisms of perception and long-term memory for meaningless auditory stimuli

Viswanathan, Jayalakshmi 20 December 2016 (has links)
L'homme peut discriminer les caractéristiques acoustiques de bruits Gaussiens. Les mécanismes de la mémoire sensorielle à long terme ont récemment été étudiés en utilisant des segments de bruit répétés en continu, ou bruits cycliques (CNs) (Agus et al., 2010). Les sujets devaient discriminer des CNs d'autres bruits aléatoires, certains CNs cibles étant présentés plusieurs fois à l'insu des sujets. Une mémorisation à long terme de ces CNs cibles a été démontrée, soulevant des questions quant aux mécanismes mnésiques sous-jacents. Ici, nous avons étudié la robustesse de cette mémoire, en testant la reconnaissance implicite à long terme (1 mois) de CNs cibles transformés : son enroulé sur lui-même (CNs " looped "), ou brouillé (CNs " scrambled ", 10 ou 20 ms). Nous montrons que de très courts segments de bruit peuvent être stockés en mémoire à long terme (10 ms). Le rôle des structures (sous-corticales) dans cette reconnaissance à long terme a ensuite été étudié par IRMf. Nous observons une trace mnésique des CNs cibles impliquant les premiers relais de la voie auditive, en particulier le corps genouillé médian, ainsi que l'hippocampe. Enfin, nous avons exploré les limites de cette mémoire en présentant des CNs cibles de différentes durées dans une oreille, et des bruits purement aléatoires dans l'autre oreille ; les sujets devant localiser le CN. Un mois après, les sujets ont une reconnaissance implicite de CNs cibles aussi brefs que 10 ms, avec seulement 8 répétitions (80ms). Nous démontrons ainsi : 1) la capacité d'apprendre et de conserver en mémoire des segments de bruit aussi courts que 10 ms, 2) une trace mnésique sous-corticale, dans les régions impliqués dans la perception des sons, 3) ces résultats sont en accord avec les performances de reconnaissance prédites par un modèle d'apprentissage STDP. / Humans are able to detect acoustic features in Gaussian noise. Researchers recently used repeating noise segments [cyclic noises (CNs), presenting a segment of noise several times back to back] to investigate long-term sensory memory (Agus et al., 2010). They asked participants to discriminate CNs from plain noise, while implicitly presenting them with a few target CNs several times. The results demonstrated long-term memory for such sounds, which have raised several further questions. First, the robustness of memory for implicitly learned Gaussian sounds was tested using a similar paradigm. Participants' recognition memory was tested by presenting them with looped and scrambled (10 or 20-ms bin size) versions of target CNs 4 weeks post-learning. Our results suggest that neurons might code for very small bits of acoustic information (10 ms). Next, the spatial correlates of memory, specifically, the role of subcortical areas in storing auditory patterns was investigated. Using the same paradigm, participants performed the testing session during fMRI scanning. Implicit memory for target CNs was demonstrated and functional contrasts implicate the Medial Geniculate body and hippocampus. Lastly, we explored the mechanisms and resolution limits of this memory. Participants were presented with CNs in one ear and plain noise in the other ear, and had to localize the CN. Implicit and explicit memory for target CNs was tested 4 weeks later. Although participants lacked conscious memory, they were better at localizing target 10-ms CNs than novel CNs, even with 8 repeats (80 ms). Altogether we demonstrate: 1) the ability to learn and store short acoustic patterns (10 ms); 2) this memory is sub-cortical, in regions implicated in perception of sounds; and 3) these results are compatible with an STDP model of learning.
20

Apprentissage Statistique en Domaine Circulaire Pour la Planification de Contrôles en Microélectronique / Statistical Learning on Circular Domains For Advanced Process Control in Microelectronics

Padonou, Esperan 13 May 2016 (has links)
Motivés par des besoins en industrie microélectronique, ces travaux apportent des contributions en modélisation probabiliste de données spatiales, et en maîtrise statistique de procédés.Le problème spatial a pour spécificité d’être posé sur un domaine circulaire. Il se représente par un modèle de krigeage dont la partie déterministe est constituée de polynômes orthogonaux et la partie stochastique de processus gaussiens. Traditionnellement définis avec la norme euclidienne et la mesure uniforme sur le disque, ces choix n’exploitent pas les informations a priori sur les procédés d’usinage.Pour tenir compte des mécanismes de rotation ou de diffusion à partir du centre, nous formalisons les processus gaussiens polaires sur le disque. Ces processus intègrent les corrélations radiales et angulaires dans le modèle de krigeage, et en améliorent les performances dans les situations considérées. Ils sont ensuite interprétés par décomposition de Sobol et généralisés en dimension supérieure. Des plans d’expériences sont proposés dans le cadre de leur utilisation. Au premier rang figurent les cylindres latins qui reproduisent en coordonnées polaires les caractéristiques des hypercubes latins.Pour intégrer à la fois les aspects spatiaux et temporels du problème industriel, la maîtrise statistique de procédé est abordée en termes d’application de cartes de contrôle aux paramètres des modèles spatiaux. Les séries temporelles suivies ont aussi la particularité de comporter des données atypiques et des changements structurels, sources de biais en prévision, et de fausses alarmes en suivi de risque. Ce problème est traité par lissage robuste et adaptatif. / Driven by industrial needs in microelectronics, this thesis is focused on probabilistic models for spatial data and Statistical Process Control. The spatial problem has the specificity of being defined on circular domains. It is addressed through a Kriging model where the deterministic part is made of orthogonal polynomials and the stochastic term represented by a Gaussian process. Defined with the Euclidean distance and the uniform measure over the disk, traditional Kriging models do not exploit knowledge on manufacturing processes. To take rotations or diffusions from the center into account, we introduce polar Gaussian processes over the disk. They embed radial and angular correlations in Kriging predictions, leading to significant improvements in the considered situations. Polar Gaussian processes are then interpreted via Sobol decomposition and generalized in higher dimensions. Different designs of experiments are developed for the proposed models. Among them, Latin cylinders reproduce in the space of polar coordinates the properties of Latin hypercubes. To model spatial and temporal data, Statistical Process Control is addressed by monitoring Kriging parameters, based on standard control charts. Furthermore, the monitored time – series contain outliers and structural changes, which cause bias in prediction and false alarms in risk management. These issues are simultaneously tackled with a robust and adaptive smoothing.

Page generated in 0.0556 seconds