• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 111
  • 42
  • 14
  • 1
  • 1
  • Tagged with
  • 162
  • 59
  • 54
  • 40
  • 30
  • 27
  • 27
  • 25
  • 24
  • 23
  • 23
  • 20
  • 20
  • 20
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Construction de bases d'ondelettes de $L^2[0,1]$ et estimation du paramètre de longue mémoire par la méthode des ondelettes.

Bibi, Hatem 04 November 2011 (has links) (PDF)
Cette thèse est consacrée à l'utilisation des ondelettes dans deux domaines à savoir la construction de bases sur l'intervalle et l'estimation du paramètre de longue mémoire par transformée (discrète) d'ondelettes. Dans un premier volet Nous présentons des constructions générales d'analyses multirésolution orthogonales (par une méthode directe) et biorthogonale sur l'intervalle (par la méthode d'intégration et de dérivation) .Comme applications, on étudie les espaces de Sobolev $H^{s}([0,1])$ et $H^{s}_{0}([0,1])$ pour $s\in\mathbb{N}$ . Le second volet est consacré à l'estimation du paramètre de longues ondelettes (non issues d'une analyse multirésolution) dans un cadre semi paramétrique. Les processus stationnaires à longue mémoire considérés sont du type gaussien puis linéaire. Pour chaque type de processus, on construit un estimateur adaptatif vérifiant un théorème limite central à vitesse de convergence au sens du minimax (à un logarithme prés). Les qualités statistiques de ces estimateurs (robustesses et consistances) sont vérifiées par des simulations et enfin un test d'adéquation est établi (considéré comme un test de longue mémoire dans le cas linéaire).
52

Approche statistique pour l'optimisation des stratégies d'analyses techniques basées sur des seuils

Ryazanova Oleksiv, Marta 03 December 2008 (has links) (PDF)
Cette thèse propose des approches probabilistes pour améliorer et optimiser un des instruments les plus populaires de l'analyse technique, les bandes de trading. Les parties I et II se concentrent sur l'optimisation des composantes des bandes de trading: ligne centrale (représentée par la moyenne mobile) et lignes des bandes. La partie III est dédiée à l'amélioration du processus de prise de décision. Dans la partie I on propose d'utiliser le krigeage, une approche géostatistique, pour l'optimisation des poids des moyennes mobiles. Le krigeage permet d'obtenir l'estimateur optimal, qui incorpore les caractéristiques statistiques des données. Contrairement aux méthodes classiques, qui sont utilisées en finance, celle ci peut être appliquée aux données échantillonnées à maille régulière ou irrégulière. La partie II propose une méthode, basée sur la transformation des données en une variable normale, qui permet de définir les valeurs extrêmes et en conséquence les valeurs des bandes sans imposition de contraintes sur la distribution des résidus. Enfin, la partie III présente l'application des méthodes de krigeage disjonctif , une autre méthode géostatistique, pour les décision plus informative sur le timing et le type de position. Le krigeage disjonctif permet d'estimer les probabilités que certain seuils seront atteints dans le futur. Les résultats expérimentaux prouvent que les techniques proposées sont prometteuses et peuvent être utilisées en pratique.
53

Adaptation de maillage anisotrope en trois dimensions applications aux simulations instationnaires en mécanique des fluides /

Alauzet, Frédéric Mohammadi, Bijan January 2003 (has links)
Thèse doctorat : Mathématiques appliquées : Montpellier 2 : 2003. / Thèse soutenue à l'Université des Sciences et Techniques du Languedoc. Bibliogr. p. 181-188.
54

Sommes et extrêmes en physique statistique et traitement du signal : ruptures de convergences, effets de taille finie et représentation matricielle

Angeletti, Florian 06 December 2012 (has links) (PDF)
Cette thèse s'est développée à l'interface entre physique statistique et traitement statistique du signal, afin d'allier les perspectives de ces deux disciplines sur les problèmes de sommes et maxima de variables aléatoires. Nous avons exploré trois axes d'études qui mènent à s'éloigner des conditions classiques (i.i.d.) : l'importance des événements rares, le couplage avec la taille du système, et la corrélation. Combinés, ces trois axes mènent à des situations dans lesquelles les théorèmes de convergence classiques sont mis en défaut.Pour mieux comprendre l'effet du couplage avec la taille du système, nous avons étudié le comportement de la somme et du maximum de variables aléatoires indépendantes élevées à une puissance dépendante de la taille du signal. Dans le cas du maximum, nous avons mis en évidence l'apparition de lois limites non standards. Dans le cas de la somme, nous nous sommes intéressés au lien entre effet de linéarisation et transition vitreuse en physique statistique. Grâce à ce lien, nous avons pu définir une notion d'ordre critique des moments, montrant que, pour un processus multifractal, celui-ci ne dépend pas de la résolution du signal. Parallèlement, nous avons construit et étudié, théoriquement et numériquement, les performances d'un estimateur de cet ordre critique pour une classe de variables aléatoires indépendantes.Pour mieux cerner l'effet de la corrélation sur le maximum et la somme de variables aléatoires, nous nous sommes inspirés de la physique statistique pour construire une classe de variable aléatoires dont la probabilité jointe peut s'écrire comme un produit de matrices. Après une étude détaillée de ses propriétés statistiques, qui a montré la présence potentielle de corrélation à longue portée, nous avons proposé pour ces variables une méthode de synthèse en réussissant à reformuler le problème en termes de modèles à chaîne de Markov cachée. Enfin, nous concluons sur une analyse en profondeur du comportement limite de leur somme et de leur maximum.
55

Systèmes de neurones en interactions : modélisation probabiliste et estimation / Interacting particles system with a variable length memory

Hodara, Pierre 05 September 2016 (has links)
On étudie un système de particules en interactions. Deux types de processus sont utilisés pour modéliser le système. Tout d'abord des processus de Hawkes. On propose deux modèles pour lesquels on obtient l'existence et l'unicité d'une version stationnaire, ainsi qu'une construction graphique de la mesure stationnaire à l'aide d'une décomposition de type Kalikow et d'un algorithme de simulation parfaite.Le deuxième type de processus utilisés est un processus de Markov déterministe par morceaux (PDMP). On montre l'ergodicité de ce processus et propose un estimateur à noyau pour la fonction de taux de saut possédant une vitesse de convergence optimale dans L². / We work on interacting particles systems. Two different types of processes are studied. A first model using Hawkes processes, for which we state existence and uniqueness of a stationnary version. We also propose a graphical construction of the stationnary measure by the mean of a Kalikow-type decomposition and a perfect simulation algorithm.The second model deals with Piecewise deterministic Markov processes (PDMP). We state ergodicity and propose a Kernel estimator for the jump rate function having an optimal speed of convergence in L².
56

Modélisation et commande robuste des systèmes biologiques : exemple de la production d’acide lactique en fermenteur industriel / Modeling and robust control of biological systems : example of lactic acid production in industrial fermenter

Gonzalez, Karen Vanessa 25 September 2015 (has links)
Cette thèse de doctorat porte sur l’optimisation du bioprocédé de production d’acide lactique à partir de la farine de blé. L'acide lactique s’avère en effet de plus en plus attractif pour la production de PLA (acide poly lactique), un bio polymère, d’autant plus que différentes matières premières peu coûteuses comme la farine de blé sont désormais utilisées comme sources de carbone pour sa production. Cette thèse comprend trois parties principales. Une première partie propose pour l’optimisation du procédé de transformation du blé un schéma innovant composé de trois étapes successives : une liquéfaction, suivi d’une étape de saccharification et hydrolyse des protéines simultanées (SSPH) et une étape finale de saccharification, hydrolyse des protéines et fermentation simultanées (SSPHF). La deuxième partie s’intéresse à la modélisation de l’étape SSPHF (étape limitante) dans un bioréacteur continu. La détermination des paramètres du modèle ainsi que leur validation sont réalisées à l’aide de campagnes d’essais sur un bioréacteur de 5 L.Enfin, la dernière partie développe la mise en oeuvre de stratégies de commande permettant de maintenir le bioprocédé à son point optimal de fonctionnement. Pour ce faire, du fait de l’absence de capteurs pour la mesure en temps réel des concentrations des variables clé dans le bioréacteur, des estimateurs de ces concentrations ainsi que du taux de production en acide lactique sont tout d’abord élaborés. Des stratégies de commande régulant la concentration d’acide lactique à sa valeur optimale sont ensuite synthétisées et comparées en simulation. Une commande adaptative combinant une commande linéarisante par retour d’état et un estimateur du taux de production en acide lactique est finalement retenue et validée expérimentalement sur un réacteur instrumenté. Cette dernière s’est avérée robuste vis-à-vis des erreurs de modélisation et a permis lors des expériences de doubler la productivité de l’acide lactique. / This PhD thesis focuses on the optimization of the bioprocess of lactic acid production from wheat flour. Indeed, lactic acid has received much attention for the production of PLA (Poly Lactic Acid), a biopolymer, since different inexpensive raw material such as wheat flour are now used as carbon source for its production. This work was performed in three main steps. In the first step, an innovative wheat transformation process is proposed, whose main steps are the following: a liquefaction followed by a simultaneous saccharification, proteins hydrolysis (SSPH) and and a final simultaneous saccharification, proteins hydrolysis and fermentation (SSPHF). Secondly, the modeling of the SSPHF (limiting step) in a continuous bioreactor is considered. The determination and validation of model parameters is performed by means of experimental campaigns in a 5 L bioreactor.In the last step, the development of control strategies to maintain the process at its optimal operating point is considered. To do so, due to the absence of sensors for real-time measurement of the concentrations of key variables of the bioreactor, estimators of these concentrations and of the lactic acid production rate are first developed. Then, control strategies for regulating the lactic acid concentration at its optimal value are designed and compared in simulation. An adaptive control combining a state feedback linearizing control and an estimator of the lactic acid production rate is finally chosen to be experimentally validated on an instrumented reactor. This strategy showed good robustness features with respect to modeling mismatches and was able during experiments to increase twice the lactic acid productivity.
57

Contributions à l'inférence statistique dans les modèles de régression partiellement linéaires additifs / Contributions to the statistical inference in partially linear additive regression model

Chokri, Khalid 21 November 2014 (has links)
Les modèles de régression paramétrique fournissent de puissants outils pour la modélisation des données lorsque celles-ci s’y prêtent bien. Cependant, ces modèles peuvent être la source d’importants biais lorsqu’ils ne sont pas adéquats. Pour éliminer ces biais de modélisation, des méthodes non paramétriques ont été introduites permettant aux données elles mêmes de construire le modèle. Ces méthodes présentent, dans le cas multivarié, un handicap connu sous l’appellation de fléau de la dimension où la vitesse de convergence des estimateurs est une fonction décroissante de la dimension des covariables. L’idée est alors de combiner une partie linéaire avec une partie non-linéaire, ce qui aurait comme effet de réduire l’impact du fléau de la dimension. Néanmoins l’estimation non-paramétrique de la partie non-linéaire, lorsque celle-ci est multivariée, est soumise à la même contrainte de détérioration de sa vitesse de convergence. Pour pallier ce problème, la réponse adéquate est l’introduction d’une structure additive de la partie non-linéaire de son estimation par des méthodes appropriées. Cela permet alors de définir des modèles de régression partièllement linéaires et additifs. L’objet de la thèse est d’établir des résultats asymptotiques relatifs aux divers paramètres de ce modèle (consistance, vitesses de convergence, normalité asymptotique et loi du logarithme itéré) et de construire aussi des tests d’hypothèses relatives à la structure du modèle, comme l’additivité de la partie non-linéaire, et à ses paramètres. / Parametric regression models provide powerful tools for analyzing practical data when the models are correctly specified, but may suffer from large modelling biases when structures of the models are misspecified. As an alternative, nonparametric smoothing methods eases the concerns on modelling biases. However, nonparametric models are hampered by the so-called curse of dimensionality in multivariate settings. One of the methods for attenuating this difficulty is to model covariate effects via a partially linear structure, a combination of linear and nonlinear parts. To reduce the dimension impact in the estimation of the nonlinear part of the partially linear regression model, we introduce an additive structure of this part which induces, finally, a partially linear additive model. Our aim in this work is to establish some limit results pertaining to various parameters of the model (consistency, rate of convergence, asymptotic normality and iterated logarithm law) and to construct some hypotheses testing procedures related to the model structure, as the additivity of the nonlinear part, and to its parameters.
58

Estimation bayésienne non paramétrique

Rivoirard, Vincent 13 December 2002 (has links) (PDF)
Dans le cadre d'une analyse par ondelettes, nous nous intéressons à l'étude statistique d'une classe particulière d'espaces de Lorentz : les espaces de Besov faibles qui apparaissent naturellement dans le contexte de la théorie maxiset. Avec des hypothèses de type "bruit blanc gaussien", nous montrons, grâce à des techniques bayésiennes, que les vitesses minimax des espaces de Besov forts ou faibles sont les mêmes. Les distributions les plus défavorables que nous exhibons pour chaque espace de Besov faible sont construites à partir des lois de Pareto et diffèrent en cela de celles des espaces de Besov forts. Grâce aux simulations de ces distributions, nous construisons des représentations visuelles des "ennemis typiques". Enfin, nous exploitons ces distributions pour bâtir une procédure d'estimation minimax, de type "seuillage" appelée ParetoThresh, que nous étudions d'un point de vue pratique. Dans un deuxième temps, nous nous plaçons sous le modèle hétéroscédastique de bruit blanc gaussien et sous l'approche maxiset, nous établissons la sous-optimalité des estimateurs linéaires par rapport aux procédures adaptatives de type "seuillage". Puis, nous nous interrogeons sur la meilleure façon de modéliser le caractère "sparse" d'une suite à travers une approche bayésienne. À cet effet, nous étudions les maxisets des estimateurs bayésiens classiques - médiane, moyenne - associés à une modélisation construite sur des densités à queues lourdes. Les espaces maximaux pour ces estimateurs sont des espaces de Lorentz, et coïncident avec ceux associés aux estimateurs de type "seuillage". Nous prolongeons de manière naturelle ce résultat en obtenant une condition nécessaire et suffisante sur les paramètres du modèle pour que la loi a priori se concentre presque sûrement sur un espace de Lorentz précis.
59

Pénalisation et réduction de la dimension des variables auxiliaires en théorie des sondages / Penalization and data reduction of auxiliary variables in survey sampling

Shehzad, Muhammad Ahmed 12 October 2012 (has links)
Les enquêtes par sondage sont utiles pour estimer des caractéristiques d'une populationtelles que le total ou la moyenne. Cette thèse s'intéresse à l'étude detechniques permettant de prendre en compte un grand nombre de variables auxiliairespour l'estimation d'un total.Le premier chapitre rappelle quelques définitions et propriétés utiles pour lasuite du manuscrit : l'estimateur de Horvitz-Thompson, qui est présenté commeun estimateur n'utilisant pas l'information auxiliaire ainsi que les techniques decalage qui permettent de modifier les poids de sondage de facon à prendre encompte l'information auxiliaire en restituant exactement dans l'échantillon leurstotaux sur la population.Le deuxième chapitre, qui est une partie d'un article de synthèse accepté pourpublication, présente les méthodes de régression ridge comme un remède possibleau problème de colinéarité des variables auxiliaires, et donc de mauvais conditionnement.Nous étudions les points de vue "model-based" et "model-assisted" dela ridge regression. Cette technique qui fournit de meilleurs résultats en termed'erreur quadratique en comparaison avec les moindres carrés ordinaires peutégalement s'interpréter comme un calage pénalisé. Des simulations permettentd'illustrer l'intérêt de cette technique par compar[a]ison avec l'estimateur de Horvitz-Thompson.Le chapitre trois présente une autre manière de traiter les problèmes de colinéaritévia une réduction de la dimension basée sur les composantes principales. Nousétudions la régression sur composantes principales dans le contexte des sondages.Nous explorons également le calage sur les moments d'ordre deux des composantesprincipales ainsi que le calage partiel et le calage sur les composantes principalesestimées. Une illustration sur des données de l'entreprise Médiamétrie permet deconfirmer l'intérêt des ces techniques basées sur la réduction de la dimension pourl'estimation d'un total en présence d'un grand nombre de variables auxiliaires / Survey sampling techniques are quite useful in a way to estimate population parameterssuch as the population total when the large dimensional auxiliary data setis available. This thesis deals with the estimation of population total in presenceof ill-conditioned large data set.In the first chapter, we give some basic definitions that will be used in thelater chapters. The Horvitz-Thompson estimator is defined as an estimator whichdoes not use auxiliary variables. Along with, calibration technique is defined toincorporate the auxiliary variables for sake of improvement in the estimation ofpopulation totals for a fixed sample size.The second chapter is a part of a review article about ridge regression estimationas a remedy for the multicollinearity. We give a detailed review ofthe model-based, design-based and model-assisted scenarios for ridge estimation.These estimates give improved results in terms of MSE compared to the leastsquared estimates. Penalized calibration is also defined under survey sampling asan equivalent estimation technique to the ridge regression in the classical statisticscase. Simulation results confirm the improved estimation compared to theHorvitz-Thompson estimator.Another solution to the ill-conditioned large auxiliary data is given in terms ofprincipal components analysis in chapter three. Principal component regression isdefined and its use in survey sampling is explored. Some new types of principalcomponent calibration techniques are proposed such as calibration on the secondmoment of principal component variables, partial principal component calibrationand estimated principal component calibration to estimate a population total. Applicationof these techniques on real data advocates the use of these data reductiontechniques for the improved estimation of population totals
60

Simulation tridimensionnelle du remplissage de corps minces par injection

Bigot, Erwan 12 November 2001 (has links) (PDF)
Cette thèse propose de nouveaux outils de calcul pour la simulation du moulage de pièces minces par injection de thermoplastiques. Ces travaux s'intègrent au sein d'un code de calcul 3D dédié à la simulation du remplissage de pièces volumiques. La description thermo-mécanique du remplissage du moule est obtenue par une discrétisation éléments finis eulérienne. Nous proposons en première partie une méthode de génération de maillages pour traiter les géométries minces. La solution proposée, issue des méthodes d'optimisations locales, nécessite l'introduction de la notion de métriques. Elle permet de générer et d'adapter des maillages anisotropes bi- ou tridimensionnels non structurés tétraédriques ou triangulaires. En deuxième partie, on a été amené à caractériser l'erreur commise sur le calcul d'un écoulement visqueux incompressible sur de tels maillages. Un nouvel estimateur d'erreur a posteriori pour le problème de Stokes est proposé pour traiter ces maillages. Enfin, l'utilisation de tels maillages peut dégrader, localement, le calcul du remplissage au niveau des surfaces libres. Pour maîtriser cet effet, une méthode d'adaptation de maillage par déformations locales est proposée. S'inspirant des méthodes de régularisation par barycentrage, elle permet d'adapter dynamiquement les mailles au niveau des fronts en mouvement, tout en régularisant le maillage en amont et en aval de ceux-ci. L'ensemble de ces outils permet d'élargir le domaine d'applications du logiciel de simulation existant aux géométries minces, mais aussi d'en améliorer la précision dans le cadre de l'injection multifluides. Des applications, regroupées dans le dernier chapitre, permettent d'illustrer les avancées permises par cette étude.

Page generated in 0.0378 seconds