• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 100
  • 66
  • 47
  • 19
  • 8
  • 6
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 312
  • 81
  • 43
  • 40
  • 36
  • 32
  • 32
  • 32
  • 32
  • 31
  • 29
  • 27
  • 26
  • 25
  • 25
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Semi-parametric generalized log-gamma regression models / Modelos de regressão semiparamétricos com erros distribuídos log-gamma generalizada

Delgado, Carlos Alberto Cardozo 14 December 2017 (has links)
The central objective of this work is to develop statistical tools for semi-parametric regression models with generalized log-gamma errors under the presence of censored and uncensored observations. The estimates of the parameters are obtained through the multivariate version of Newton-Raphson algorithm and an adequate combination of Fisher Scoring and Backffitting algorithms. Through analytical tools and using simulations the properties of the penalized maximum likelihood estimators are studied. Some diagnostic techniques such as quantile and deviance-type residuals as well as local influence measures are derived. The methodologies are implemented in the statistical computational environment R. The package sglg is developed. Finally, we give some applications of the models to real data. / O objetivo central do trabalho é proporcionar ferramentas estatísticas para modelos de regressão semiparamétricos quando os erros seguem distribução log-gamma generalizada na presença de observações censuradas ou não censuradas. A estimação paramétrica e não paramétrica são realizadas através dos procedimentos Newton - Raphson, escore de Fisher e Backfitting (Gauss - Seidel). As propriedades assintóticas dos estimadores de máxima verossimilhança penalizada são estudadas em forma analítica, bem como através de simulações. Alguns procedimentos de diagnóstico são desenvolvidos, tais como resíduos tipo componente do desvio e resíduo quantílico, bem como medidas de influ\\^encia local sob alguns esquemas usuais de perturbação. Todos procedimentos do presente trabalho são implementados no ambiente computacional R, o pacote sglg é desenvolvido, assim como algumas aplicações a dados reais são apresentadas.
202

Análise isogeométrica aplicada a elementos de vigas planas. / Isogeometric analysis applied to 2D beam elements.

Marchiori, Gianluca 21 February 2019 (has links)
A análise isogeométrica (AIG) de estruturas consiste em construir a geometria exata ou aproximada de um modelo computacional a partir de funções criadas por meio de tecnologias de Computer Aided Design (CAD), tais como B-Splines, NURBS (Non-Uniform Rational BSplines) e T-splines, e aplicar o conceito de análise isoparamétrica, ou seja, representar o espaço de solução para as variáveis independentes em termos das mesmas funções que representam a geometria. O presente trabalho visa o estudo da análise isogeométrica aplicada a vigas planas, com a utilização de B-Splines e NURBS para aproximação de deslocamentos. São desenvolvidos modelos isogeométricos de vigas planas baseados nas hipóteses de Bernoulli- Euler e Timoshenko, e alguns exemplos de aplicação são realizados a fim de comparar os resultados numéricos com soluções analíticas, mostrando boa concordância. Uma questão pertinente à AIG corresponde à imposição de vínculos em pontos do domínio em que as funções básicas não sejam interpolatórias ou os vínculos desejados não forem diretamente relacionados aos graus de liberdade do elemento, que é o caso do elemento de viga de Bernoulli-Euler, já que as rotações geralmente não são tidas como graus de liberdade mas há a necessidade de se prescrever condições de contorno/conexão nas mesmas para descrever problemas físicos. Essa questão é tratada no presente trabalho através dos Métodos de Lagrange e de penalidade. São realizados exemplos de aplicação construídos com elementos de viga de Bernoulli-Euler utilizando os métodos de Lagrange e de penalidade na imposição de vínculos e na conexão entre pontos de regiões de domínio. / Isogeometric analysis (IGA) consists on building the geometry of the computational model with functions created by Computer Aided Design (CAD) technologies, such as B-Splines, NURBS (Non-Uniform Rational B-Splines) and T-Splines. Then, isoparametric concept is employed, that is, the solution space is represented by means of the same functions used to describe the geometry. The aim of the present contribution is the study of isogeometric analysis applied to 2D beams with interpolation via B-splines and NURBS. Two-dimensional isogeometric beam formulations based on Bernoulli-Euler and Timoshenko assumptions are presented. Some examples of application are given and results are compared to analytical solutions, showing good agreement. An important issue about IGA corresponds to the imposition of constraints at points of domain in which the shape functions are not interpolatory, or the desired constraints are not directly related to the degrees of freedoms. This may occur for Bernoulli-Euler beams since rotations are not usually defined as degrees of freedom, but they need to be assessed for prescription of some boundary/connection conditions. This is done in present contribution by employing both Lagrange and penalty methods. Some examples of structures composed by 2D isogeometric Bernoulli-Euler beam elements are solved by using Lagrange and Penalty methods to impose constraints and to make the connection between domain regions.
203

Semi-parametric generalized log-gamma regression models / Modelos de regressão semiparamétricos com erros distribuídos log-gamma generalizada

Carlos Alberto Cardozo Delgado 14 December 2017 (has links)
The central objective of this work is to develop statistical tools for semi-parametric regression models with generalized log-gamma errors under the presence of censored and uncensored observations. The estimates of the parameters are obtained through the multivariate version of Newton-Raphson algorithm and an adequate combination of Fisher Scoring and Backffitting algorithms. Through analytical tools and using simulations the properties of the penalized maximum likelihood estimators are studied. Some diagnostic techniques such as quantile and deviance-type residuals as well as local influence measures are derived. The methodologies are implemented in the statistical computational environment R. The package sglg is developed. Finally, we give some applications of the models to real data. / O objetivo central do trabalho é proporcionar ferramentas estatísticas para modelos de regressão semiparamétricos quando os erros seguem distribução log-gamma generalizada na presença de observações censuradas ou não censuradas. A estimação paramétrica e não paramétrica são realizadas através dos procedimentos Newton - Raphson, escore de Fisher e Backfitting (Gauss - Seidel). As propriedades assintóticas dos estimadores de máxima verossimilhança penalizada são estudadas em forma analítica, bem como através de simulações. Alguns procedimentos de diagnóstico são desenvolvidos, tais como resíduos tipo componente do desvio e resíduo quantílico, bem como medidas de influ\\^encia local sob alguns esquemas usuais de perturbação. Todos procedimentos do presente trabalho são implementados no ambiente computacional R, o pacote sglg é desenvolvido, assim como algumas aplicações a dados reais são apresentadas.
204

Analyse en composantes principales et interpolation de processus en vue d'applications en hydrométéorologie : méthodes et simulation

Bouhaddou, Omar 01 March 1984 (has links) (PDF)
Nous étudions une méthode d'interpolation de processus fondée sur l'analyse en composantes principales. Nous la situons par rapport à des techniques courantes telles le krigeage. Afin de cerner ses possibilités d'utilisation pratiques (en particulier en vue d'applications en hydrometeorologie) nous proposons un plan d'expérimentation de la méthode par simulation.
205

Etude et conception d'un modèle mixte semiparamétrique stochastique pour l'analyse des données longitudinales environnementales.

Moumouni, Kairou 12 December 2005 (has links) (PDF)
Cette thèse porte sur la recherche d'un modèle statistique adapté à l'analyse de données longitudinales rencontrées dans le domaine environnemental. L'approche générale est basée sur le modèle linéaire mixte stochastique. Nous proposons une extension de ce modèle par l'utilisation des techniques sémiparamétriques, en particulier les splines cubiques pénalisées. Des méthodes d'estimation adaptées au modèle mixte sémiparamétrique stochastique sont proposées. Des simulations sont ensuite effectuées pour l'évaluation des performances des estimateurs construits.<br />Dans une deuxième partie, une extension de la méthode d'influence locale de Cook au modèle mixte modifié est proposée, elle fournit une analyse de sensibilité permettant de détecter les effets de certaines perturbations sur les composantes structurelles du modèle. Quelques propriétés asymptotiques de la matrice d'influence locale sont exhibées.<br />Enfin, le modèle proposé est appliqué à deux jeux de données réelles : une analyse des données de concentrations de nitrates issues de différentes stations de mesures d'un bassin versant, puis une analyse de la pollution bactériologiques d'eaux de baignades.
206

Dynamique de l'interaction laser-atome: moment canonique et approximation du champ fort

de Bohan, Armelle 30 October 2001 (has links)
De récentes révolutions dans la technologie des lasers infrarouges permettent d'exposer la matière à des champs laser pulsés ultra intenses ( de 1013 W cm-2 à 1016 W cm-2 ) et ultra courts (de l'ordre de quelques femtosecondes). Nous nous intéressons dans cette étude théorique à la dynamique de l'interaction entre de tels champs lasers basse fréquence et l'hydrogène atomique modélisant un système à un électron actif. Nous étudions les deux processus en compétition lors d'une telle interaction. D'une part, la génération d'harmoniques d'ordre élevé et particulièrement les effets de la phase absolue du champ laser sur les spectres d'émission ainsi que le rôle joué par la structure atomique sont analysés. D'autre part, la dynamique de l'ionisation dans le régime tunnel ou au-dessus de la barrière fait l'objet d'une étude détaillée dans le cadre de l'approximation du champ fort en sondant le rôle du potentiel Coulombien dans le mécanisme d'ionisation. Théoriquement, deux démarches sont envisagées. L'équation de Schrödinger dépendante du temps peut être résolue exactement numériquement. D'autre part, une solution (analytique) approchée peut être déterminée en s'appuyant sur la méthode aux états atomiques essentiels ainsi que sur les rôles effectifs du champ électrique et du potentiel Coulombien. Cette approximation du champ fort, introduite par Keldysh en 1965, dans laquelle l'effet du champ électrique domine la dynamique de l'interaction a permis d'expliquer l'allure d'une partie des spectres des harmoniques émises par l'atome et des spectres des électrons éjectés. Elle postule que le mécanisme d'ionisation, aux basses fréquences considérées est l'éjection d'électrons par effet tunnel suite à laquelle l'analyse du mouvement de l'électron fait abstraction de la présence du potentiel Coulombien. L'électron peut être considéré comme un électron libre oscillant classiquement dans le champ laser. Ce mouvement quasi-classique lui permet éventuellement de revenir vers le noyau résiduel et de se recombiner radiativement (émission d'une harmonique) avec l'état fondamental ou d'être rediffusé par le potentiel. Ces mécanismes permettent effectivement de comprendre qualitativement l'allure des spectres. Toutefois les prédictions des taux d'ionisation ou de l'amplitude des harmoniques émises ne coïncident pas quantitativement avec les mesures expérimentales. Dans un premier temps, nous tirons profit de l'accord qualitatif entre les deux méthodes en ce qui concerne la génération d'harmoniques d'ordre élevé. Dans le cadre d'impulsions ultra-courtes, l'interaction ayant lieu pendant quelques périodes laser uniquement, la phase absolue du champ laser modifie sensiblement la dynamique de l'interaction d'un point de vue énergétique et par conséquent les spectres d'harmoniques émises. Une analyse temps-fréquence du signal harmonique émis par un seul atome nous permet de montrer que l'influence de la phase peut être comprise classiquement. Nous suggérons une méthode de diagnostic de ce paramètre non-adiabatique qui, jusqu'à présent, ne fait l'objet que d'une stabilisation et non d'un contrôle à l'échelle expérimentale. Nous considérons d'autre part, le point de vue macroscopique, c'est-à-dire la propagation des champs harmoniques dans le milieu gazeux partiellement ionisé en résolvant les équations de propagation de Maxwell. Nous constatons une survie de l'influence de la phase absolue pour des interactions inférieures à une dizaine de cycles optiques. Par ailleurs, l'approximation du champ fort, que nous avons étudiée dans le cadre de la génération d'harmoniques d'ordre élevé par un atome soumis à une impulsion laser de quelques femtosecondes, nous permet de comprendre l'importance du moment canonique dans la dynamique de l'interaction. La représentation des processus atomiques en terme de moment que nous effectuons s'avère être une remarquable sonde des effets réels du potentiel Coulombien sur la dynamique du mouvement des électrons. Nous développons une méthode de résolution de l'équation de Schrödinger dans l'espace des moments; nos résultats démontrent que, du point de vue de l'ionisation, les contributions dominantes ne sont pas celles décrites par l'approximation du champ fort mais qu'en revanche, la présence du potentiel Coulombien ne peut être négligée lorsque nous voulons décrire le mécanisme d'ionisation ; et ce même si l'on s'approche de l'intensité de saturation au-delà de laquelle l'atome s'ionise en moins d'une période laser. Notre étude replace en quelque sorte le potentiel Coulombien au centre du processus d'ionisation malgré l'idée consensuelle selon laquelle aux basses fréquences considérées, l'ionisation par le champ (effet tunnel ou ionisation au-dessus de la barrière) est dominante.
207

An Algorithm For The Forward Step Of Adaptive Regression Splines Via Mapping Approach

Kartal Koc, Elcin 01 September 2012 (has links) (PDF)
In high dimensional data modeling, Multivariate Adaptive Regression Splines (MARS) is a well-known nonparametric regression technique to approximate the nonlinear relationship between a response variable and the predictors with the help of splines. MARS uses piecewise linear basis functions which are separated from each other with breaking points (knots) for function estimation. The model estimating function is generated in two stepwise procedures: forward selection and backward elimination. In the first step, a general model including too many basis functions so the knot points are generated / and in the second one, the least contributing basis functions to the overall fit are eliminated. In the conventional adaptive spline procedure, knots are selected from a set of distinct data points that makes the forward selection procedure computationally expensive and leads to high local variance. To avoid these drawbacks, it is possible to select the knot points from a subset of data points, which leads to data reduction. In this study, a new method (called S-FMARS) is proposed to select the knot points by using a self organizing map-based approach which transforms the original data points to a lower dimensional space. Thus, less number of knot points is enabled to be evaluated for model building in the forward selection of MARS algorithm. The results obtained from simulated datasets and of six real-world datasets show that the proposed method is time efficient in model construction without degrading the model accuracy and prediction performance. In this study, the proposed approach is implemented to MARS and CMARS methods as an alternative to their forward step to improve them by decreasing their computing time
208

Some contributions to latin hypercube design, irregular region smoothing and uncertainty quantification

Xie, Huizhi 21 May 2012 (has links)
In the first part of the thesis, we propose a new class of designs called multi-layer sliced Latin hypercube design (DSLHD) for running computer experiments. A general recursive strategy for constructing MLSLHD has been developed. Ordinary Latin hypercube designs and sliced Latin hypercube designs are special cases of MLSLHD with zero and one layer respectively. A special case of MLSLHD with two layers, doubly sliced Latin hypercube design, is studied in detail. The doubly sliced structure of DSLHD allows more flexible batch size than SLHD for collective evaluation of different computer models or batch sequential evaluation of a single computer model. Both finite-sample and asymptotical sampling properties of DSLHD are examined. Numerical experiments are provided to show the advantage of DSLHD over SLHD for both sequential evaluating a single computer model and collective evaluation of different computer models. Other applications of DSLHD include design for Gaussian process modeling with quantitative and qualitative factors, cross-validation, etc. Moreover, we also show the sliced structure, possibly combining with other criteria such as distance-based criteria, can be utilized to sequentially sample from a large spatial data set when we cannot include all the data points for modeling. A data center example is presented to illustrate the idea. The enhanced stochastic evolutionary algorithm is deployed to search for optimal design. In the second part of the thesis, we propose a new smoothing technique called completely-data-driven smoothing, intended for smoothing over irregular regions. The idea is to replace the penalty term in the smoothing splines by its estimate based on local least squares technique. A close form solution for our approach is derived. The implementation is very easy and computationally efficient. With some regularity assumptions on the input region and analytical assumptions on the true function, it can be shown that our estimator achieves the optimal convergence rate in general nonparametric regression. The algorithmic parameter that governs the trade-off between the fidelity to the data and the smoothness of the estimated function is chosen by generalized cross validation (GCV). The asymptotic optimality of GCV for choosing the algorithm parameter in our estimator is proved. Numerical experiments show that our method works well for both regular and irregular region smoothing. The third part of the thesis deals with uncertainty quantification in building energy assessment. In current practice, building simulation is routinely performed with best guesses of input parameters whose true value cannot be known exactly. These guesses affect the accuracy and reliability of the outcomes. There is an increasing need to perform uncertain analysis of those input parameters that are known to have a significant impact on the final outcome. In this part of the thesis, we focus on uncertainty quantification of two microclimate parameters: the local wind speed and the wind pressure coefficient. The idea is to compare the outcome of the standard model with that of a higher fidelity model. Statistical analysis is then conducted to build a connection between these two. The explicit form of statistical models can facilitate the improvement of the corresponding modules in the standard model.
209

A Computational Approach To Nonparametric Regression: Bootstrapping Cmars Method

Yazici, Ceyda 01 September 2011 (has links) (PDF)
Bootstrapping is a resampling technique which treats the original data set as a population and draws samples from it with replacement. This technique is widely used, especially, in mathematically intractable problems. In this study, it is used to obtain the empirical distributions of the parameters to determine whether they are statistically significant or not in a special case of nonparametric regression, Conic Multivariate Adaptive Regression Splines (CMARS). Here, the CMARS method, which uses conic quadratic optimization, is a modified version of a well-known nonparametric regression model, Multivariate Adaptive Regression Splines (MARS). Although performing better with respect to several criteria, the CMARS model is more complex than that of MARS. To overcome this problem, and to improve the CMARS performance further, three different bootstrapping regression methods, namely, Random-X, Fixed-X and Wild Bootstrap are applied on four data sets with different size and scale. Then, the performances of the models are compared using various criteria including accuracy, precision, complexity, stability, robustness and efficiency. Random-X yields more precise, accurate and less complex models particularly for medium size and medium scale data even though it is the least efficient method.
210

Modèles de régression linéaire pour variables explicatives fonctionnelles

Crambes, Christophe 23 November 2006 (has links) (PDF)
L'analyse des données fonctionnelles constitue une branche de la statistique dont le développement s'est fortement intensifié ces dernières années. Dans cette thèse, on s'intéresse à des problèmes de régression fonctionnelle pour lesquels il s'agit d'expliquer les variations d'une variable d'intérêt réelle à partir d'une variable explicative fonctionnelle, c'est-à-dire à valeur dans un espace de dimension éventuellement infinie. On considère plus précisément des modèles de régression linéaire. Deux types d'estimation sont proposés: l'estimation de quantiles conditionnels et l'estimation de la moyenne conditionnelle (cette dernière étant considérée dans le cas où la variable explicative est non bruitée, puis lorsque celle-ci est soumise à des erreurs de mesure). Dans chaque cas, des estimateurs basés sur les fonctions splines sont proposés, solutions de problèmes de minimisation pénalisés, la pénalisation intervenant pour contourner le problème lié au fait que la variable explicative est à valeurs dans un espace de dimension infinie. Finalement, on s'intéresse aux aspects pratique de cette étude, au moyen de simulations, puis sur un jeu de données réelles concernant la prévision de pics de pollution à l'ozone à Toulouse.

Page generated in 0.1003 seconds