• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 76
  • 42
  • 5
  • Tagged with
  • 124
  • 66
  • 39
  • 39
  • 30
  • 28
  • 25
  • 19
  • 18
  • 18
  • 17
  • 16
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Simulation and optimization of steam-cracking processes / Simulation et optimisation des procédés de craquage thermique

Campet, Robin 17 January 2019 (has links)
Le procédé de craquage thermique est un procédé industriel sensible aux conditions de température et de pression. L’utilisation de réacteurs aux parois nervurées est une méthode permettant d’améliorer la sélectivité chimique du procédé en augmentant considérablement les transferts de chaleur. Cependant, cette méthode induit une augmentation des pertes de charge dans le réacteur, ce qui est dommageable pour le rendement chimique et doit être quantifié. En raison de la complexité de l’écoulement turbulent et de la cinétique chimique, le gain réel offert par ces géométries en termes de sélectivité chimique est toutefois mal connu et difficile à estimer, d’autant plus que des mesures expérimentales détaillées sont très rares et difficiles à mener. L’objectif de ce travail est double: d’une part évaluer le gain réel des parois nervurées sur le rendement chimique; d’autre part proposer de nouveaux designs de réacteurs offrant une sélectivité chimique optimale. Ceci est rendu possible par l’approche de simulation numérique aux grandes échelles (LES), qui est utilisée pour étudier l’écoulement réactif à l’intérieur de diverses géométries de réacteurs. Le code AVBP, qui résout les équations de Navier Stokes compressibles pour les écoulements turbulents, est utilisé pour simuler le procédé grâce à une méthodologie numérique adaptée. En particulier, les effets des pertes de charge et du transfert thermique sur la conversion chimique sont comparés pour un réacteur lisse et un réacteur nervuré afin de quantifier l’impact de la rugosité de paroi dans des conditions d’utilisation industrielles. Une méthodologie d’optimisation du design des réacteurs, basée sur plusieurs simulations numériques et les processus Gaussiens, est finalement mise au point et utilisée pour aboutir à un design de réacteur de craquage thermique innovant, maximisant le rendement chimique / Thermal cracking is an industrial process sensitive to both temperature and pressure operating conditions. The use of internally ribbed reactors is a passive method to enhance the chemical selectivity of the process, thanks to a significant increase of heat transfer. However, this method also induces an increase in pressure loss, which is damageable to the chemical yield and must be quantified. Because of the complexity of turbulence and chemical kinetics, and as detailed experimental measurements are difficult to conduct, the real advantage of such geometries in terms of selectivity is however poorly known and difficult to assess. This work aims both at evaluating the real benefits of internally ribbed reactors in terms of chemical yields and at proposing innovative and optimized reactor designs. This is made possible using the Large Eddy Simulation (LES) approach, which allows to study in detail the reactive flow inside several reactor geometries. The AVBP code, which solves the Navier-Stokes compressible equations for turbulent flows, is used in order to simulate thermal cracking thanks to a dedicated numerical methodology. In particular, the effect of pressure loss and heat transfer on chemical conversion is compared for both a smooth and a ribbed reactor in order to conclude about the impact of wall roughness in industrial operating conditions. An optimization methodology, based on series of LES and Gaussian process, is finally developed and an innovative reactor design for thermal cracking applications, which maximizes the chemical yield, is proposed
82

Sélection de variables pour la classification non supervisée en grande dimension / Variable selection in model-based clustering for high-dimensional data

Meynet, Caroline 09 November 2012 (has links)
Il existe des situations de modélisation statistique pour lesquelles le problème classique de classification non supervisée (c'est-à-dire sans information a priori sur la nature ou le nombre de classes à constituer) se double d'un problème d'identification des variables réellement pertinentes pour déterminer la classification. Cette problématique est d'autant plus essentielle que les données dites de grande dimension, comportant bien plus de variables que d'observations, se multiplient ces dernières années : données d'expression de gènes, classification de courbes... Nous proposons une procédure de sélection de variables pour la classification non supervisée adaptée aux problèmes de grande dimension. Nous envisageons une approche par modèles de mélange gaussien, ce qui nous permet de reformuler le problème de sélection des variables et du choix du nombre de classes en un problème global de sélection de modèle. Nous exploitons les propriétés de sélection de variables de la régularisation l1 pour construire efficacement, à partir des données, une collection de modèles qui reste de taille raisonnable même en grande dimension. Nous nous démarquons des procédures classiques de sélection de variables par régularisation l1 en ce qui concerne l'estimation des paramètres : dans chaque modèle, au lieu de considérer l'estimateur Lasso, nous calculons l'estimateur du maximum de vraisemblance. Ensuite, nous sélectionnons l'un des ces estimateurs du maximum de vraisemblance par un critère pénalisé non asymptotique basé sur l'heuristique de pente introduite par Birgé et Massart. D'un point de vue théorique, nous établissons un théorème de sélection de modèle pour l'estimation d'une densité par maximum de vraisemblance pour une collection aléatoire de modèles. Nous l'appliquons dans notre contexte pour trouver une forme de pénalité minimale pour notre critère pénalisé. D'un point de vue pratique, des simulations sont effectuées pour valider notre procédure, en particulier dans le cadre de la classification non supervisée de courbes. L'idée clé de notre procédure est de n'utiliser la régularisation l1 que pour constituer une collection restreinte de modèles et non pas aussi pour estimer les paramètres des modèles. Cette étape d'estimation est réalisée par maximum de vraisemblance. Cette procédure hybride nous est inspirée par une étude théorique menée dans une première partie dans laquelle nous établissons des inégalités oracle l1 pour le Lasso dans les cadres de régression gaussienne et de mélange de régressions gaussiennes, qui se démarquent des inégalités oracle l0 traditionnellement établies par leur absence totale d'hypothèse. / This thesis deals with variable selection for clustering. This problem has become all the more challenging since the recent increase in high-dimensional data where the number of variables can largely exceeds the number of observations (DNA analysis, functional data clustering...). We propose a variable selection procedure for clustering suited to high-dimensional contexts. We consider clustering based on finite Gaussian mixture models in order to recast both the variable selection and the choice of the number of clusters into a global model selection problem. We use the variable selection property of l1-regularization to build a data-driven model collection in a efficient way. Our procedure differs from classical procedures using l1-regularization as regards the estimation of the mixture parameters: in each model of the collection, rather than considering the Lasso estimator, we calculate the maximum likelihood estimator. Then, we select one of these maximum likelihood estimators by a non-asymptotic penalized criterion. From a theoretical viewpoint, we establish a model selection theorem for maximum likelihood estimators in a density estimation framework with a random model collection. We apply it in our context to determine a convenient penalty shape for our criterion. From a practical viewpoint, we carry out simulations to validate our procedure, for instance in the functional data clustering framework. The basic idea of our procedure, which consists in variable selection by l1-regularization but estimation by maximum likelihood estimators, comes from theoretical results we establish in the first part of this thesis: we provide l1-oracle inequalities for the Lasso in the regression framework, which are valid with no assumption at all contrary to the usual l0-oracle inequalities in the literature, thus suggesting a gap between l1-regularization and l0-regularization.
83

Autour les relations entre SLE, CLE, champ libre Gaussien, et les conséquences / On the relations between SLE, CLE, GFF and the consequences

Wu, Hao 26 June 2013 (has links)
Cette thèse porte sur les relations entre les processus SLE, les ensembles CLE et le champ libre Gaussien. Dans le chapitre 2, nous donnons une construction des processus SLE(k,r) à partir des boucles des CLE(k) et d'échantillons de restriction chordale. Sheffield et Werner ont prouvé que les CLE(k) peuvent être construits à partir des processus d'exploration symétriques des SLE(k,r).Nous montrons dans le chapitre 3 que la configuration des boucles construites à partir du processus d'exploration asymétrique des SLE(k,k-6) donne la même loi CLE(k). Le processus SLE(4) peut être considéré comme les lignes de niveau du champ libre Gaussien et l'ensemble CLE(4) correspond à la collection des lignes de niveau de ce champ libre Gaussien. Dans la deuxième partie du chapitre 3, nous définissons un paramètre de temps invariant conforme pour chaque boucle appartenant à CLE(4) et nous donnons ensuite dans le chapitre 4 un couplage entre le champ libre Gaussien et l'ensemble CLE(4) à l'aide du paramètre de temps. Les processus SLE(k) peuvent être considérés comme les lignes de flot du champ libre Gaussien. Nous explicitons la dimension de Hausdorff de l'intersection de deux lignes de flot du champ libre Gaussien. Cela nous permet d'obtenir la dimension de l'ensemble des points de coupure et des points doubles de la courbe SLE, voir le chapitre 5. Dans le chapitre 6, nous définissons la mesure de restriction radiale, prouvons la caractérisation de ces mesures, et montrons la condition nécessaire et suffisante de l'existence des mesures de restriction radiale. / This thesis focuses on various relations between SLE, CLE and GFF. In Chapter 2, we give a construction of SLE(k,r) processes from CLE(k) loop configuration and chordal restriction samples. Sheffield and Werner has proved that CLE(k) can be constructed from symmetric SLE(k,k-6) exploration processes. We prove in Chapter 3 that the loop configuration constructed from the asymmetric SLE(k,k-6) exploration processes also give the same law CLE(k). SLE(4) can be viewed as level lines of GFF and CLE(4) can be viewed as the collection of level lines of GFF. We define a conformally invariant time parameter for each loop in CLE(4) in the second part of Chapter 3 and then give a coupling between GFF and CLE(4) with time parameter in Chapter 4. SLE(k,r) can be viewed as flow lines of GFF. We derive the Hausdorff dimension of the intersection of two flow lines in GFF. Then, from there, we obtain the dimension of the cut and double point set of SLE curve in Chapter 5. In Chapter 6, we define the radial restriction measure, prove the characterization of these measures, and show the if and only if condition for the existence of radial restriction measure.
84

Ensembles poissoniens de boucles markoviennes / Poissonian ensembles of Markovian loops

Lupu, Titus 26 May 2015 (has links)
L'objet d'étude de cette thèse est une mesure infinie sur les boucles (lacets) naturellement associée à une large classe de processus de Markov et les processus ponctuels de Poisson d'intensité proportionnelle à cette mesure (paramètre d'intensité alpha>0). Ces processus ponctuels de Poisson portent le nom d'ensembles poissoniens de boucles markoviennes ou de soupes de boucles. La mesure sur les boucles est covariante par un certain nombre de transformations sur les processus de Markov, par exemple le changement de temps.Dans le cadre de soupe de boucles brownienne à l'intérieur d'un sous-domaine ouvert propre simplement connexe de C, il a été montré que les contours extérieurs des amas extérieurs de boucles sont, pour alpha<=1/2, des Conformal Loop Ensembles CLE(kappa), kappa dans (8/3,4]. D'autre part il a été montré pour une large classe de processus de Markov symétriques que lorsque alpha=1/2, le champ d'occupation d'une soupe de boucle (somme des temps passés par les boucles aux dessus des points) est le carré du champ libre gaussien. J'ai étudié d'abord les soupes de boucles associés aux processus de diffusion unidimensionnels, notamment leur champ d'occupation dont les zéros délimitent dans ce cas les amas de boucles. Puis j'ai étudié les soupes de boucles sur graphe discret ainsi que sur graphe métrique (arêtes remplacés par des fils continus). Sur graphe métrique on a d'une part une géométrie non triviale pour les boucles et d'autre part on a comme dans le cas unidimensionnel continu la propriété que les zéros du champ d'occupation délimitent les amas des boucles. En combinant les graphes métriques et l'isomorphisme avec le champ libre gaussien j'ai montré que alpha=1/2 est le paramètre d'intensité critique pour la percolation par soupe de boucles de marche aléatoire sur le demi plan discret Z*N (existence ou non d'un amas infini) et que pour alpha<=1/2 la limite d'échelle des contours extérieurs des amas extérieurs sur Z*N est un CLE(kappa) dans le demi-plan continu. / In this thesis I study an infinite measure on loops naturally associated to a wide range of Markovian processes and the Poisson point processes of intensity proportional to this measure (intensity parameter alpha>0). This Poissson point processes are called Poisson ensembles of Markov loops or loop soups. The measure on loops is covariant with some transformation on Markovian processes, for instance the change of time. In the setting of Brownian loop soups inside a proper open simply connected domain of C it was shown that the outer boundaries of outermost clusters of loops are, for alpha1/2, Conformal Loop Ensembles CLE(kappa), kappa in (8/3,4]. Besides, it was shown for a wide range of symmetric Markovian processes that for alpha=1/2 the occupation field of a loop soup (the sum of times spent by loops over points) is the square of the Gaussian free field. First I studied the loop soups associated to one-dimensional diffusions, and particularly the occupation field and its zeroes that delimit in this case the clusters of loops. Then I studied the loop soups on discrete graphs and metric graphs (edges replaced by continuous lines). On a metric graph on one hand the loops have a non-trivial geometry and on the other hand one has the same property as in the setting of one-dimensional diffusions that the zeroes of the occupation field delimit the clusters of loops. By combing metric graphs and the isomorphism with the Gaussian free field I have shown that alpha=1/2 is the critical parameter for random walk loop soup percolation on the discrete half-plane Z*N (existence or not of an infinite cluster of loops) and that for alpha<= 1/2 the scaling limit of outer boundaries of outermost clusters on Z*N is a CLE(kappa) on the continuum half plane.
85

Model-based clustering and model selection for binned data. / Classification automatique à base de modèle et choix de modèles pour les données discrétisées

Wu, Jingwen 28 January 2014 (has links)
Cette thèse étudie les approches de classification automatique basées sur les modèles de mélange gaussiens et les critères de choix de modèles pour la classification automatique de données discrétisées. Quatorze algorithmes binned-EM et quatorze algorithmes bin-EM-CEM sont développés pour quatorze modèles de mélange gaussiens parcimonieux. Ces nouveaux algorithmes combinent les avantages des données discrétisées en termes de réduction du temps d’exécution et les avantages des modèles de mélange gaussiens parcimonieux en termes de simplification de l'estimation des paramètres. Les complexités des algorithmes binned-EM et bin-EM-CEM sont calculées et comparées aux complexités des algorithmes EM et CEM respectivement. Afin de choisir le bon modèle qui s'adapte bien aux données et qui satisfait les exigences de précision en classification avec un temps de calcul raisonnable, les critères AIC, BIC, ICL, NEC et AWE sont étendus à la classification automatique de données discrétisées lorsque l'on utilise les algorithmes binned-EM et bin-EM-CEM proposés. Les avantages des différentes méthodes proposées sont illustrés par des études expérimentales. / This thesis studies the Gaussian mixture model-based clustering approaches and the criteria of model selection for binned data clustering. Fourteen binned-EM algorithms and fourteen bin-EM-CEM algorithms are developed for fourteen parsimonious Gaussian mixture models. These new algorithms combine the advantages in computation time reduction of binning data and the advantages in parameters estimation simplification of parsimonious Gaussian mixture models. The complexities of the binned-EM and the bin-EM-CEM algorithms are calculated and compared to the complexities of the EM and the CEM algorithms respectively. In order to select the right model which fits well the data and satisfies the clustering precision requirements with a reasonable computation time, AIC, BIC, ICL, NEC, and AWE criteria, are extended to binned data clustering when the proposed binned-EM and bin-EM-CEM algorithms are used. The advantages of the different proposed methods are illustrated through experimental studies.
86

Estimation des modèles à volatilité stochastique par l’entremise du modèle à chaîne de Markov cachée

Hounkpe, Jean 01 1900 (has links)
No description available.
87

Télédétection hyperspectrale : minéralogie et pétrologie, Application au volcan Syrtis Major (Mars) et à l'ophiolite d'Oman

Clenet, Harold 06 April 2009 (has links) (PDF)
Les roches mafiques à ultramafiques permettent de tracer les processus de formation et d'évolution des surfaces planétaires. Pour caractériser ces surfaces, la spectroscopie de réflectance visible-proche infrarouge est une technique adaptée de part sa sensibilité aux absorptions du fer présent dans les minéraux. L'objectif de cette thèse est de déterminer la composition modale des roches, ainsi que la composition chimique des minéraux constitutifs.<br />Nous avons développé une procédure basée sur la mise en oeuvre du Modèle Gaussien Modifié (MGM) qui permet de modéliser les spectres pour des assemblages minéralogiques complexes (olivine - orthopyroxène - clinopyroxène). Après validation de cette approche sur des données simples (poudres), la méthode a été appliquée à des roches naturelles complexes (météorites martiennes et roches d'Oman). Fort de l'expertise acquise dans cette étape intermédiaire, des cartographies minéralogiques ont alors pu être réalisées à partir de données spatiales et aéroportées, respectivement pour le volcan Syrtis Major sur Mars et le massif ophiolitique de Sumail (Oman). Nous avons ainsi montré que les laves de l'édifice volcanique présentent un enrichissement en olivine (Fo50-80) et que les pyroxènes, suivant les conditions de mise en place, peuvent avoir des compositions allant des augites aux enstatites. Pour l'ophiolite d'Oman, nous avons mis en évidence et cartographié pour la première fois des variations spatiales organisées de composition modale au sein même de l'unité harzburgitique. Nous avons également caractérisé des variations de composition dans les clinopyroxènes de la zone crustale ayant des implications pétrogénétiques.<br />Ces apports sont essentiels dans la caractérisation et la compréhension des processus pétrologiques inhérents à la formation des surfaces planétaires et devraient stimuler l'utilisation de l'imagerie spectroscopique à des fins géologiques.
88

Tests d'indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Lafaye de Micheaux, Pierre 16 December 2002 (has links) (PDF)
On construit un test d'ajustement de la normalité<br />pour les innovations d'un modèle ARMA(p,q) de tendance et moyenne<br />connues, basé sur l'approche du test lisse dépendant des<br />données et simple à appliquer. Une vaste étude de simulation<br />est menée pour étudier ce test pour des<br />tailles échantillonnales modérées. Notre approche<br />est en général plus puissante que les tests existants. Le niveau est<br />tenu sur la majeure partie de l'espace paramétrique. Cela est en accord avec les résultats<br />théoriques montrant la supériorité de l'approche du test lisse<br />dépendant des données dans des contextes similaires.<br /><br />Un test d'indépendance (ou d'indépendance sérielle) semi-paramétrique entre des sous-vecteurs de loi normale est proposé, mais sans<br />supposer la normalité jointe de ces marginales. La statistique de test<br />est une fonctionnelle de type Cramér-von Mises d'un processus défini à<br />partir de la fonction caractéristique empirique. Ce processus est<br />défini de façon similaire à celui de Ghoudi et al. (2001) construit à<br />partir de la fonction de répartition empirique et utilisé pour tester<br />l'indépendance entre des marginales univariées. La statistique de test<br />peut être représentée comme une V-statistique. Il est convergent pour<br />détecter toute forme de dépendance. La convergence faible du processus<br />est établie. La distribution asymptotique des fonctionnelles de<br />Cramér-von Mises est approchée par la méthode de Cornish-Fisher au<br />moyen d'une formule de récurrence pour les cumulants et par le<br />calcul numérique des valeurs propres dans la formule d'inversion. La<br />statistique de test est comparée avec celle de Wilks pour <br />l'hypothèse paramétrique d'indépendance dans le modèle MANOVA à<br />un facteur avec effets aléatoires.
89

Point de vue maxiset en estimation non paramétrique

Autin, Florent 07 December 2004 (has links) (PDF)
Dans le cadre d'une analyse par ondelettes, nous étudions les propriétés statistiques de diverses classes de procédures. Plus précisément, nous cherchons à déterminer les espaces maximaux (maxisets) sur lesquels ces procédures atteignent une vitesse de convergence donnée. L'approche maxiset nous permet alors de donner une explication théorique à certains phénomènes observés en pratique et non expliqués par l'approche minimax. Nous montrons en effet que les estimateurs de seuillage aléatoire sont plus performants que ceux de seuillage déterministe. Ensuite, nous prouvons que les procédures de seuillage par groupes, comme certaines procédures d'arbre (proches de la procédure de Lepski) ou de seuillage par blocs, ont de meilleures performances au sens maxiset que les procédures de seuillage individuel. Par ailleurs, si les maxisets des estimateurs Bayésiens usuels construits sur des densités à queues lourdes sont de même nature que ceux des estimateurs de seuillage dur, nous montrons qu'il en est de même pour ceux des estimateurs Bayésiens construits à partir de densités Gaussiennes à grande variance et dont les performances numériques sont très bonnes.
90

Estimation asymptotiquement exacte en norme sup de fonctions multidimensionnelles

Bertin, Karine 23 November 2004 (has links) (PDF)
On étudie deux modèles statistiques: le modèle de régression à pas aléatoire et le modèle de bruit blanc gaussien. Dans ces modèles, le but est d'estimer en norme sup une fonction f inconnue, à partir des observations, en supposant que f appartient à une classe de Holder. Dans le modèle de régression, pour l'estimation d'une fonction unidimensionnelle, on obtient la constante exacte et un estimateur asymptotiquement exact. Dans le modèle de bruit blanc, on s'intéresse à l'estimation sur deux classes de fonctions multidimensionnelles anisotropes dont une est une classe additive. Pour ces deux classes, on détermine la constante exacte et un estimateur asymptotiquement exact et on met en évidence leur lien avec l'"optimal recovery". La dernière partie donne des résultats d'asymptotique exacte dans un cadre adaptatif dans le modèle de bruit blanc. On détermine la constante exacte adaptative et un estimateur asymptotiquement exact adaptatif pour l'estimation sur des classes anisotropes.

Page generated in 0.0852 seconds