• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 92413
  • 58198
  • 33323
  • 15503
  • 5695
  • 3705
  • 1283
  • 1215
  • 1100
  • 1089
  • 1031
  • 967
  • 891
  • 710
  • Tagged with
  • 8968
  • 7941
  • 7341
  • 7097
  • 6413
  • 6143
  • 5758
  • 5193
  • 5036
  • 4584
  • 4487
  • 4391
  • 4205
  • 3532
  • 3482
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Quasi-brittle failure of heterogeneous materials : damage statistics and localization / Rupture quasi-fragile des matériaux hétérogènes : statistique de l'endommagement et localisation

Berthier, Estelle 21 December 2015 (has links)
Nous proposons une nouvelle approche inspirée des modèles d'endommagement non-locaux pour décrire la ruine des matériaux quasi-fragiles désordonnés. Les hétérogénéités matériaux sont introduites à une échelle continue mésoscopique via des variations spatiales de la résistance à l'endommagement alors que le mécanisme de redistribution des contraintes est décrit à travers une fonction d'interaction que l'on peut faire varier. L'évolution spatio-temporelle de l'endommagement est déterminée à partir du principe de conservation d'énergie et caractérisée via une étude statistique des précurseurs à la rupture. Cette approche nous permet de prédire la valeur des seuils de localisation et de rupture en fonction de la nature des redistributions. A l'approche de la rupture, nous mettons également en évidence une augmentation en loi de puissance du taux d'énergie dissipée ainsi qu'une longueur de corrélation, supportant l'interprétation de la rupture quasi-fragile comme un phénomène critique. En effet, nous démontrons que notre model d'endommagement s'apparente à la loi d'évolution d'une interface élastique évoluant dans un milieu désordonné. Cette analogie nous permet d'identifier les paramètres d'ordre et de contrôle de cette transition critique et d'expliquer les invariances d'échelle des fluctuations dans la limite champ moyen. Enfin, nous appliquons ces concepts théoriques à travers l'étude expérimentale de la compression d'un empilement bidimensionnel de cylindres élastiques. Notre approche permet de décrire de façon quantitative la réponse mécanique non-linéaire du matériau, et en particulier la statistique des précurseurs ainsi que la localisation des déformations. / We propose a novel approach inspired from non-local damage continuum mechanics to describe damage evolution and quasi-brittle failure of disordered solids. Heterogeneities are introduced at a mesoscopic continuous scale through spatial variations of the material resistance to damage. The central role played by the load redistribution during damage growth is analyzed by varying the interaction function used in the non-local model formulation. The spatio-temporal evolution of the damage field is obtained from energy conservation arguments, so that the formulation is thermodynamically consistent. We analytically determine the onsets of localization and failure that appear controlled by the redistribution function. Damage spreading is characterized through a complete statistical analysis of the spatio-temporal organization of the precursors to failure. The power law increase of the rate of energy dissipated by damage and an extracted correlation length close to failure supports the interpretation of quasi-brittle failure as a critical phenomena. Indeed, we establish a connection between our damage model and the evolution law of an elastic interface driven in a disordered medium. It allows to identify the order and control parameters of the critical transition, and capture the scale-free statistical properties of the precursors within the mean field limit. Finally, we experimentally investigate the coaction of localized dissipative events and elastic redistributions in disordered media via compression experiments of two-dimensional arrays of hollow soft cylinders. Our experimental observations show a quantitative agreement with the predictions derived following our approach.
162

Statistiques spatiales des cavités chaotiques ouvertes : applications aux cavités électromagnétiques / Spatial statistics of open chaotic cavities : applications to electromagnetic cavities

Gros, Jean-Baptiste 19 December 2014 (has links)
Les chambres réverbérantes à brassage de modes (CRBM) utilisées dans l'industrie pour tester l'immunité ou la susceptibilité des systèmes électroniques embarqués (avion, automobile , smartphone,...) vis-à-vis des ondes électromagnétiques (EM) présentes dans leur environnement. Les CRBM doivent toutes répondre à un certain nombre de critères statistiques fixés par une norme internationale. Le critère principale étant l'obtention d'un champ statistiquement uniforme et isotrope autour de l'objet sous test. Afin améliorer et de mieux maîtriser les propriétés statistiques de ces systèmes pour des fréquences proches de leur fréquence minimale d'utilisation, nous proposons de les rendre chaotiques afin de profiter des propriétés statistiques universelles des résonances des cavités chaotiques. Nous commencerons par montrer comment rendre chaotique, par des modifications simples, des chambres réverbérantes conventionnelles, et comment étendre les prédictions de la théorie des matrices aléatoire appliquée (TMA) à l'hamiltonien effectif, permettant de décrire les systèmes chaotiques ouverts, au cas de systèmes décrits par des champs vectoriels. Ensuite, nous comparerons, au moyen de simulations et d’expériences, les distributions d'intensité et les fluctuations des maxima du champ EM dans une CRBM conventionnelle et dans une CR chaotique au voisinage de la fréquence minimale d’utilisation. Ce travail illustre que les propriétés statistiques spectrales et spatiales universelles des CR chaotiques permettent de mieux répondre aux critères exigés par la norme internationale pour réaliser des tests de compatibilité électromagnétiques. / Mode-stirred reverberation chambers (RC) are used in the industry to test the immunity or the susceptibility of on-board electronic systems (plane, automobile, smartphone) towards the electromagnetic waves present in their environment. Mode-stirred RCs have to comply with a number of statistical criteria fixed by international standards. The chief criterion relies on a statistically uniform and isotropic field around the object under test. In order to improve and master the statistical properties of these systems for frequencies close to their lowest useable frequency, we suggest making them chaotic to take advantage of universal statistical properties of the resonances of chaotic cavities. We first show how to make chaotic RCs by simple modifications of a conventional RC and how to extend the predictions of the random matrix theory applied to the effective hamiltonien describing the open chaotic systems, to the case of vectorial fields. Then, we compare, by means of simulations and experiments, the distributions of intensity and the fluctuations of the maxima of the field in a conventional RC and in a chaotic RC close to the lowest useable frequency. This work illustrates that the universal spectral and spatial statistical properties of chaotic RCs allow to better comply with the criteria required by the international standards.
163

Number statistics in random matrices and applications to quantum systems / Statistique de comptage de valeurs propres de matrices aléatoires et applications en mécanique quantique

Marino, Ricardo 16 October 2015 (has links)
L'objectif principal de cette thèse est de répondre à la question: étant donné une matrice aléatoire avec spectre réel, combien de valeurs propres tomber entre A et B? Ceci est une question fondamentale dans la théorie des matrices aléatoires et toutes ses applications, autant de problèmes peuvent être traduits en comptant les valeurs propres à l'intérieur des régions du spectre. Nous appliquons la méthode de gaz Coulomb à ce problème général dans le cadre de différents ensembles de matrice aléatoire et l'on obtient de résultats pour intervalles générales [a, b]. Ces résultats sont particulièrement intéressants dans l'étude des variations des systèmes fermioniques unidimensionnelles de particules confinées non-interaction à la température zéro. / The main goal of this thesis is to answer the question: given a random matrix with real spectrum, how many eigenvalues fall between a and b? This is a fundamental question in random matrix theory and all of its applications, as many problems can be translated into counting eigenvalues inside regions of the spectrum. We apply the Coulomb gas method to this general problem in the context of different random matrix ensembles and we obtain many results for general intervals [a,b]. These results are particularly interesting in the study of fermionic fluctuations for one-dimensional systems of confined non-interacting particles at zero temperature.
164

Statistics of the CMB polarised anisotropies : unveiling the primordial universe / Statistique des anisotropies polarisées du fond diffus cosmologique : dévoiler l'univers primordial

Ferté, Agnès 26 September 2014 (has links)
La compréhension des premiers instants de notre Univers complèterait notre description de son histoire et permettrait également une exploration de la physique fondamentale à des échelles d'énergie jusque là inatteignables. L'inflation cosmique est le scénario privilégié pour décrire ces premiers instants car il s'intègre très bien dans le modèle standard de la cosmologie. Selon ce scénario l'Univers aurait connu une courte période d'expansion accélérée peu après le Big Bang. Quelques indices favorisent ce modèle cependant toujours en attente d'une signature observationnelle décisive. Les modes B du fond diffus comologique (FDC) aux grandes échelles angulaires sont générés par les ondes gravitationnelles primordiales, produites durant l'inflation cosmique. Dans ce cadre, la détection des modes B primordiaux est le but de nombreuses expériences, actuelles ou à venir. Cependant, des effets astrophysiques et instrumentaux rendent sa détection difficile. Plus précisément, une couverture incomplète de la polarisation du FDC (inhérente à toute observation du FDC) entraine la fuite des modes E dans B, un problème majeur dans l'estimation des modes B. Cet effet peut empêcher une détection des modes B même à partir de cartes parfaitement nettoyées, car les modes E fuyant (beaucoup plus intenses) masquent les modes B. Diverses méthodes offrant une estimation de modes B théoriquement non affectés par cette fuite, ont été récemment proposées dans la littérature. Cependant, lorsqu'elles sont appliquées à des expériences réalistes, elles ne corrigent plus exactement cette fuite. Ces méthodes doivent donc être validées dans le cadre d'expériences réalistes. Dans ce but, j'ai travaillé sur l'implémentation et le développement numérique de trois méthodes typiques de pseudospectres. Ensuite, je les ai testé dans le cas de deux expériences fiducielles, typiques d'une expérience suborbitale et d'une potentielle mission satellite. J'ai alors montré l'efficacité et la nécessité d'une méthode en particulier: la méthode dite pure. J'ai également montré que le cas d'une couverture quasi complète du ciel n'est pas trivial, à cause des contours compliqués du masque galactique et des points sources. Par conséquent, une estimation optimale de pseudospectre des modes B exige l'utilisation d'une telle méthode également dans le contexte d'une mission satellite. Grâce à cette méthode, j'ai fait des prévisions réalistes sur les contraintes qu'une détection de la polarisation du FDC pourra apporter sur la physique de l'Univers primordial. J'ai tout d'abord étudié la détectabilité du rapport tenseur-sur-scalaire r qui quantifie l'amplitude des ondes gravitationnelles primordiales, directement relié à l'échelle d'énergie de l'inflation, dans le cas de différentes expériences dédiées à la détection de la polarisation du FDC. J'ai montré qu'une mission satellite nous permettrait de mesurer un rapport tenseur-sur-scalaire de l'ordre de 0.001, autorisant une distinction entre les modèles d'inflation à champ fort et faible. De plus, dans le cas d'une extension du modèle standard de la cosmologie, des corrélations EB et TB du FDC peuvent être générées. En particulier, j'ai prévu les contraintes que nous pourrons mettre sur une violation de parité durant l'univers primordial à partir d'observations sur une grande ou une petite partie du ciel. Mes résultats ont montré qu'une expérience satellite est nécessaire pour mettre des contraintes sur une gamme de modèles de violation de parité. J'ai finalement abordé la problématique de la détectabilité d'une signature observationnelle d'un champ magnétique primordial. / A deep understanding of the first instants of the Universe would not only complete our description of the cosmic history but also enable an exploration of new fundamental phsyics at energy scales unexplored on Earth laboratories and colliders. The most favoured scenario which describes these first instants is the cosmic inflation, an ephemeral period of accelerated expansion shortly after the big bang. Some hints are in favour of this scenario which is however still waiting for a smoking-gun observational signature. The cosmic microwave background (CMB) B modes would be generated at large angular scales by primordial gravitational waves produced during the cosmic inflation. In this frame, the primordial CMB B modes are the aim of various ongoing or being-deployed experiments, as well as being-planned satellite mission. However, unavoidable instrumental and astrophysical features makes its detection difficult. More specifically, a partial sky coverage of the CMB polarisation (inherent to any CMB measurements) leads to the E-to-B leakage, a major issue on the estimation of the CMB B modes power spectrum. This effect can prevent from a detection of the primordial B modes even if the polarisation maps are perfectly cleaned, since the (much more intense) leaked E-modes mask the B-modes. Various methods have been proposed in the literature offering a B modes estimation theoretically free from any leakage. However, when applied to real data, they are no longer completely leakage-free and remove part of the information on B-modes. These methods consequently need to be validate in the frame of real data analysis. In this purpose, I have worked on the implementation and numerical developments of three typical pseudospectrum methods. Afterwards, I have tested each of them in the case of two fiducial experimental set ups, typical of current balloon-borne or ground based experiments and of potential satellite mission. I have therefore stated on the efficiency and necessity of one of them: the so-called pure method. I have also shown that the case of nearly full sky coverage is not trivial because of the intricate shape of the contours of the point-sources and galactic mask. As a result this method is also required for an optimal B modes pseudospectrum estimation in the context of a satellite mission. With this powerful method, I performed realistic forecasts on the constraints that a CMB polarisation detection could set on the physics of the primordial universe. First of all, I have studied the detectability of the tensor-to-scalar ratio r, amounting the amplitude of primordial gravity waves and directly related to the energy scale of inflation, in the case of current suborbital experiments, a potential array of telescopes and a potential satellite mission. I have shown that a satellite-like experiment dedicated to the CMB polarisation detection will enable us to measure a tensor-to-scalar ratio of about 0.001, thus allowing for distinguishing between large and small field models of inflation. Moreover, in extension of the standard model of cosmology, the CMB EB and TB correlations can be generated. In particular, I have forecast the constraints that one could set on a parity violation in the gravitational waves during the primordial universe from observations on a small and a large part of the sky. Our results have shown that a satellite-like experiment is mandatory to set constraints on a range of parity violation models. I finally address the problematic of the detectability of observational signature of a primordial magnetic field.
165

Theoretical contributions to Monte Carlo methods, and applications to Statistics / Contributions théoriques aux méthodes de Monte Carlo, et applications à la Statistique

Riou-Durand, Lionel 05 July 2019 (has links)
La première partie de cette thèse concerne l'inférence de modèles statistiques non normalisés. Nous étudions deux méthodes d'inférence basées sur de l'échantillonnage aléatoire : Monte-Carlo MLE (Geyer, 1994), et Noise Contrastive Estimation (Gutmann et Hyvarinen, 2010). Cette dernière méthode fut soutenue par une justification numérique d'une meilleure stabilité, mais aucun résultat théorique n'avait encore été prouvé. Nous prouvons que Noise Contrastive Estimation est plus robuste au choix de la distribution d'échantillonnage. Nous évaluons le gain de précision en fonction du budget computationnel. La deuxième partie de cette thèse concerne l'échantillonnage aléatoire approché pour les distributions de grande dimension. La performance de la plupart des méthodes d’échantillonnage se détériore rapidement lorsque la dimension augmente, mais plusieurs méthodes ont prouvé leur efficacité (e.g. Hamiltonian Monte Carlo, Langevin Monte Carlo). Dans la continuité de certains travaux récents (Eberle et al., 2017 ; Cheng et al., 2018), nous étudions certaines discrétisations d’un processus connu sous le nom de kinetic Langevin diffusion. Nous établissons des vitesses de convergence explicites vers la distribution d'échantillonnage, qui ont une dépendance polynomiale en la dimension. Notre travail améliore et étend les résultats de Cheng et al. pour les densités log-concaves. / The first part of this thesis concerns the inference of un-normalized statistical models. We study two methods of inference based on sampling, known as Monte-Carlo MLE (Geyer, 1994), and Noise Contrastive Estimation (Gutmann and Hyvarinen, 2010). The latter method was supported by numerical evidence of improved stability, but no theoretical results had yet been proven. We prove that Noise Contrastive Estimation is more robust to the choice of the sampling distribution. We assess the gain of accuracy depending on the computational budget. The second part of this thesis concerns approximate sampling for high dimensional distributions. The performance of most samplers deteriorates fast when the dimension increases, but several methods have proven their effectiveness (e.g. Hamiltonian Monte Carlo, Langevin Monte Carlo). In the continuity of some recent works (Eberle et al., 2017; Cheng et al., 2018), we study some discretizations of the kinetic Langevin diffusion process and establish explicit rates of convergence towards the sampling distribution, that scales polynomially fast when the dimension increases. Our work improves and extends the results established by Cheng et al. for log-concave densities.
166

Excited States in U(1)2+1 Lattice Gauge Theory and Level Spacing Statistics in Classical Chaos

Hosseinizadeh, Ahmad 17 April 2018 (has links)
Cette thèse est organisé en deux parties. Dans la première partie nous nous adressons à un problème vieux dans la théorie de jauge - le calcul du spectre et des fonctions d'onde. La stratégie que nous proposons est de construire une base d'états stochastiques de liens de Bargmann, construite à partir d'une distribution physique de densité de probabilité. Par la suite, nous calculons les amplitudes de transition entre ces états par une approche analytique, en utilisant des intégrales de chemin standards ainsi que la théorie des groupes. Également, nous calculons numériquement matrices symétrique et hermitienne des amplitudes de transition, via une méthode Monte Carlo avec échantillonnage pondéré. De chaque matrice, nous trouvons les valeurs propres et les vecteurs propres. En appliquant cette méthode â la théorie de jauge U(l) en deux dimensions spatiales, nous essayons d'extraire et de présenter le spectre et les fonctions d'onde de cette théorie pour des grilles de petite taille. En outre, nous essayons de faire quelques ajustement dynamique des fenêtres de spectres d'énergie et les fonctions d'onde. Ces fenêtres sont outiles de vérifier visuellement la validité de l'hamiltonien Monte Carlo, et de calculer observables physiques. Dans la deuxième partie nous étudions le comportement chaotique de deux systèmes de billard classiques, par la théorie des matrices aléatoires. Nous considérons un gaz périodique de Lorentz à deux dimensions dans des régimes de horizon fini et horizon infini. Nous construisons quelques matrices de longueurs de trajectoires de un particule mobile dans ce système, et réalisons des études des spectres de ces matrices par l'analyse numérique. Par le calcul numérique des distributions d'espacement de niveaux et rigidité spectral, nous constatons la statistique des espacements de niveaux suggère un comportement universel. Nous étudions également un tel comportement pour un système optique chaotique. En tant que quasi-système de potentiel, ses fluctuations dans l'espacement de ses niveaux suivent aussi un comportement GOE, ce qui est une signature d'universalité. Dans cette partie nous étudions également les propriétés de diffusion du gaz de Lorentz, par la longueur des trajectoires. En calculant la variance de ce quantité, nous montrons que dans le cas d'horizons finis, la variance de longueurs est linéaire par rapport au nombre de collisions de la particule dans le billard. Cette linéarité permet de définir un coefficient de diffusion pour le gaz de Lorentz, et dans un schéma général, elle est compatible avec les résultats obtenus par d'autres méthodes.
167

Modelli di distribuzione della dimensione di impresa per i settori manifatturieri italiani: il problema della regolarità statistica e relative implicazioni economiche / Modelling Firm Size Distribution of Italian Manufacturing Industries: the Puzzle of Statistical Regularity and Related Economic Implications

CROSATO, LISA 13 July 2007 (has links)
Questo lavoro studia la distribuzione della dimensione d'impresa sulla base di due datasets. Il primo è l'indagine micro1 di istat, che include tutte le imprese manifatturiere con più di 20 addetti sopravvissute dal 1989 al 1997. Il secondo è il file Cerved riguardante l'universo delle imprese del settore meccanico (atecodk29), dal 1997 al 2002. Lo scopo generale della tesi è quello di espolare la possibilità di trovare nuove regolarità empiriche riguardanti la distribuzione della dimensione d'impresa, sulla base della passata evidenza empirica che attesta la (in)capacità di Lognormale e Pareto di modellare in modo soddisfacente la dimensione d'impresa nell'intero arco dimensionale. Vengono per questo proposti due modelli mai utilizzati prima. Gli stessi vengono poi convalidati su differenti variabili dimensionali e a diversi livelli di aggregazione. La tesi cerca anche di esplicitare al meglio le implicazioni economiche dei modelli parametrici di distribuzione adottati secondo diversi punti di vista. / The present work studies the firm size distribution of Italian manufacturing industries on the basis of two datasets. The first is the Micro1 survey carried out by ISTAT, which recorded all manufacturing firms with 20 employees and more surviving from 1989 to 1997. The second is the Cerved file regarding all firms of the mechanical sector (DK29) from 1997 to 2002. The general aim of this research is to explore the possibility to find new empirical regularities in the size distribution of firms, building on the relevant past evidence about the (in) capacity of the Lognormal and Pareto distribution of satisfactorily modelling the whole size range. Two unused statistical models are proposed and validated on different size proxies and at different levels of data aggregation. The thesis also addresses the economic implications of parametric models of firm size distribution in different aspects.
168

Valutazione della qualità ed autenticità di prodotti oleari e lattiero caseari mediante metodi fisici di analisi accoppiati a tecniche statistiche multivariate / Evaluation of the quality and authenticity of oil and dairy products by physical analysis coupled with multivariate statistical techniques

Cerretani, Lorenzo <1976> 09 May 2013 (has links)
Questa tesi descrive alcuni studi di messa a punto di metodi di analisi fisici accoppiati con tecniche statistiche multivariate per valutare la qualità e l’autenticità di oli vegetali e prodotti caseari. L’applicazione di strumenti fisici permette di abbattere i costi ed i tempi necessari per le analisi classiche ed allo stesso tempo può fornire un insieme diverso di informazioni che possono riguardare tanto la qualità come l’autenticità di prodotti. Per il buon funzionamento di tali metodi è necessaria la costruzione di modelli statistici robusti che utilizzino set di dati correttamente raccolti e rappresentativi del campo di applicazione. In questo lavoro di tesi sono stati analizzati oli vegetali e alcune tipologie di formaggi (in particolare pecorini per due lavori di ricerca e Parmigiano-Reggiano per un altro). Sono stati utilizzati diversi strumenti di analisi (metodi fisici), in particolare la spettroscopia, l’analisi termica differenziale, il naso elettronico, oltre a metodiche separative tradizionali. I dati ottenuti dalle analisi sono stati trattati mediante diverse tecniche statistiche, soprattutto: minimi quadrati parziali; regressione lineare multipla ed analisi discriminante lineare. / The thesis describes some studies of setting-up of physical methods coupled with multivariate statistical techniques for the evaluation of the quality and authenticity of oil and dairy products. The application of physical techniques allows to reduce costs and time required for the classical analysis and at the same time may provide a different set of information which can relate to the quality as the authenticity of products. For the correct functioning of these methods it is necessary to build statistical models that use robust set of data collected and properly representative of the scope. In this thesis vegetable oils and some types of cheese were analyzed. In this thesis were used different analytical tools (physical methods), in particular spectroscopy, differential scanning calorimetry, electronic nose, in addition to traditional chromatographic methods. The data obtained from the analysis were treated by different statistical techniques, especially: partial least squares modelling, multiple linear regression and linear discriminant analysis.
169

Estatística gradiente e refinamento de métodos assintóticos no modelo de regressão Birnbaum-Saunders / Gradient statistic and asymptotic inference in the Birnbaum-Saunders regression model

Lemonte, Artur Jose 05 February 2010 (has links)
Rieck & Nedelman (1991) propuseram um modelo de regressão log-linear tendo como base a distribuição Birnbaum-Saunders (Birnbaum & Saunders, 1969a). O modelo proposto pelos autores vem sendo bastante explorado e tem se mostrado uma ótima alternativa a outros modelos propostos na literatura, como por exemplo, os modelos de regressão Weibull, gama e lognormal. No entanto, até o presente momento, não existe nenhum estudo tratando de refinamentos para as estatísticas da razão de verossimilhanças e escore nesta classe de modelos de regressão. Assim, um dos objetivos desta tese é obter um fator de correção de Bartlett para a estatística da razão de verossimilhanças e um fator de correção tipo-Bartlett para a estatística escore nesse modelo. Estes ajustes melhoram a aproximação da distribuição nula destas estatísticas pela distribuição qui-quadrado de referência. Adicionalmente, objetiva-se obter ajustes para a estatística da razão de verossimilhanças sinalizada. Tais ajustes melhoram a aproximação desta estatística pela distribuição normal padrão. Recentemente, uma nova estatística de teste foi proposta por Terrell (2002), a qual o autor denomina estatística gradiente. Esta estatística foi derivada a partir da estatística escore e da estatística de Wald modificada (Hayakawa & Puri, 1985). A combinação daquelas duas estatísticas resulta em uma estatística muito simples de ser calculada, não envolvendo, por exemplo, nenhum cálculo matricial como produto e inversa de matrizes. Esta estatística foi recentemente citada por Rao (2005): \"The suggestion by Terrell is attractive as it is simple to compute. It would be of interest to investigate the performance of the [gradient] statistic.\" Caminhando na direção da sugestão de Rao, outro objetivo da tese é obter uma expansão assintótica para a distribuição da estatística gradiente sob uma sequência de alternativas de Pitman convergindo para a hipótese nula a uma taxa de convergência de n^{-1/2} utilizando a metodologia desenvolvida por Peers (1971) e Hayakawa (1975). Em particular, mostramos que, até ordem n^{-1/2}, a estatística gradiente segue distribuição qui-quadrado central sob a hipótese nula e distribuição qui-quadrado não central sob a hipótese alternativa. Também temos como objetivo comparar o poder local deste teste com o poder local dos testes da razão de verossimilhanças, de Wald e escore. Finalmente, aplicaremos a expansão assintótica derivada na tese em algumas classes particulares de modelos. / The Birnbaum-Saunders regression model is commonly used in reliability studies.We address the issue of performing inference in this class of models when the number of observations is small. Our simulation results suggest that the likelihood ratio and score tests tend to be liberal when the sample size is small. We derive Bartlett and Bartlett-type correction factors which reduce the size distortion of the tests. Additionally, we also consider modified signed log-likelihood ratio statistics in this class of models. Finally, the asymptotic expansion of the distribution of the gradient test statistic is derived for a composite hypothesis under a sequence of Pitman alternative hypotheses converging to the null hypothesis at rate n^{-1/2}, n being the sample size. Comparisons of the local powers of the gradient, likelihood ratio, Wald and score tests reveal no uniform superiority property.
170

Estudo do efeito de suavização da krigagem ordinária em diferentes distribuições estatísticas / A study of ordinary kriging smoothing effect using diferent statistics distributions

Anelise de Lima Souza 12 July 2007 (has links)
Esta dissertação apresenta os resultados da investigação quanto à eficácia do algoritmo de pós-processamento para a correção do efeito de suavização nas estimativas da krigagem ordinária. Foram consideradas três distribuições estatísticas distintas: gaussiana, lognormal e lognormal invertida. Como se sabe, dentre estas distribuições, a distribuição lognormal é a mais difícil de trabalhar, já que neste tipo de distribuição apresenta um grande número de valores baixos e um pequeno número de valores altos, sendo estes responsáveis pela grande variabilidade do conjunto de dados. Além da distribuição estatística, outros parâmetros foram considerados: a influencia do tamanho da amostra e o numero de pontos da vizinhança. Para distribuições gaussianas e lognormais invertidas o algoritmo de pós-processamento funcionou bem em todas a situações. Porém, para a distribuição lognormal, foi observada a perda de precisão global. Desta forma, aplicou-se a krigagem ordinária lognormal para este tipo de distribuição, na realidade, também foi aplicado um método recém proposto de transformada reversa de estimativas por krigagem lognormal. Esta técnica é baseada na correção do histograma das estimativas da krigagem lognormal e, então, faz-se a transformada reversa dos dados. Os resultados desta transformada reversa sempre se mostraram melhores do que os resultados da técnica clássica. Além disto, a as estimativas de krigagem lognormal se provaram superiores às estimativas por krigagem ordinária. / This dissertation presents the results of an investigation into the effectiveness of the post-processing algorithm for correcting the smoothing effect of ordinary kriging estimates. Three different statistical distributions have been considered in this study: gaussian, lognormal and inverted lognormal. As we know among these distributions, the lognormal distribution is the most difficult one to handle, because this distribution presents a great number of low values and a few high values in which these high values are responsible for the great variability of the data set. Besides statistical distribution other parameters have been considered in this study: the influence of the sample size and the number of neighbor data points as well. For gaussian and inverted lognormal distributions the post-processing algorithm worked well in all situations. However, it was observed loss of local accuracy for lognormal data. Thus, for these data the technique of ordinary lognormal kriging was applied. Actually, a recently proposed approach for backtransforming lognormal kriging estimates was also applied. This approach is based on correcting the histogram of lognormal kriging estimates and then backtransforming it to the original scale of measurement. Results of back-transformed lognormal kriging estimates were always better than the traditional approach. Furthermore, lognormal kriging estimates have provided better results than the normal kriging ones.

Page generated in 0.1814 seconds