• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 109
  • 40
  • 21
  • 10
  • 8
  • 6
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 1
  • Tagged with
  • 251
  • 62
  • 54
  • 34
  • 34
  • 30
  • 27
  • 23
  • 22
  • 22
  • 22
  • 21
  • 20
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Protecting digital circuits against hold time violations due to process variations

Neuberger, Gustavo January 2007 (has links)
Com o desenvolvimento da tecnologia CMOS, os circuitos estão ficando cada vez mais sujeitos a variabilidade no processo de fabricação. Variações estatísticas de processo são um ponto crítico para estratégias de projeto de circuitos para garantir um yield alto em tecnologias sub-100nm. Neste trabalho apresentamos uma técnica de medida on-chip para caracterizar violações de tempo de hold de flip-flops em caminhos lógicos curtos, que são geradas por incertezas de borda de relógio em projetos síncronos. Usando um circuito programável preciso de geração de skew de relógio, uma resolução de medida de ~1ps é alcançada para emular condições de corrida. Variações estatísticas de violações de tempo de hold são medidas em tecnologias CMOS de 130nm e 90nm para diversas configurações de circuitos, e também para diferentes condições de temperatura e Vdd. Essas violações são um ponto crítico em projetos grandes com milhares de caminhos curtos, pois se apenas um desses caminhos falhar, todo o circuito não vai funcionar em qualquer freqüência. Usando os resultados medidos, a variabilidade é dividida entre sistemática e randômica residual usando métodos matemáticos. Testes de normalidade são aplicados a estes dados para verificar de eles são Gaussianos normais ou não. A probabilidade de violações de tempo de hold considerando nossos resultados medidos e skews de relógio típicos é calculada, mostrando que o problema de violações de tempo de hold aumenta com o avanço da tecnologia. Finalmente, um algoritmo para proteger circuitos digitais contra violações de tempo de hold em caminhos curtos é apresentado. / With the shrinking of CMOS technology, the circuits are more and more subject to variability in the fabrication process. Statistical process variations are a critical issue for circuit design strategies to ensure high yield in sub-100nm technologies. In this work we present an on-chip measurement technique to characterize hold time violations of flip-flops in short logic paths, which are generated by clock-edge uncertainties in synchronous designs. Using a precise programmable clock-to-data skew generation circuit, a measurement resolution of ~1ps is achieved to emulate race conditions. Statistical variations of hold time violations are measured in a 130nm and 90nm lowpower CMOS technology for various register-to-register configurations, and also different conditions of temperature and Vdd. These violations are a critical issue in large designs with thousands of short paths, as if only one of these fails, the whole circuit will not work at any frequency. Using the measured results, the variability is divided between systematic and random residual using mathematical methods. Normality tests are applied to this data to check if they are normal Gaussians or not. The probability of hold time violations considering our measured data and typical clock skews is calculated, showing that the problem of hold time violations is increasing with technologic advances. Finally, an algorithm to protect digital circuits against hold time violations in short paths is presented.
132

Verificação da performance de modelos APARCH assimétricos aplicados a dados financeiros

Gasparini, Daniela Caetano de Souza 01 April 2013 (has links)
Made available in DSpace on 2016-06-02T20:06:07Z (GMT). No. of bitstreams: 1 5123.pdf: 958057 bytes, checksum: 23f5ad95404afd58fe48eeb517ef5b41 (MD5) Previous issue date: 2013-04-01 / Financiadora de Estudos e Projetos / The volatility of financial assets changes over time, indicating the specification of regime change in volatility models. Furthermore, the presence of asymmetry in the returns of the financial market has been recognized in the financial literature of recent decades. In this paper, we present some heteroscedastic models with regime change, considering that the error component of these models follows Skew Laplace distribution, as well as the process of estimating its parameters via maximum likelihood and Bayesian methods. / A volatilidade dos ativos financeiros se altera ao longo do tempo, sinalizando a especificação de mudança de regime para modelos de volatilidade. Além disso, a presença de assimetria nos retornos do mercado financeiro tem sido reconhecida na literatura financeira das últimas décadas. Neste trabalho, apresentamos alguns modelos heterocedásticos com mudança de regime, considerando que a componente do erro desses modelos segue distribuição Laplace assimétrica, bem como o processo de estimação de seus parâmetros via máxima verossimilhança e métodos bayesianos.
133

Protecting digital circuits against hold time violations due to process variations

Neuberger, Gustavo January 2007 (has links)
Com o desenvolvimento da tecnologia CMOS, os circuitos estão ficando cada vez mais sujeitos a variabilidade no processo de fabricação. Variações estatísticas de processo são um ponto crítico para estratégias de projeto de circuitos para garantir um yield alto em tecnologias sub-100nm. Neste trabalho apresentamos uma técnica de medida on-chip para caracterizar violações de tempo de hold de flip-flops em caminhos lógicos curtos, que são geradas por incertezas de borda de relógio em projetos síncronos. Usando um circuito programável preciso de geração de skew de relógio, uma resolução de medida de ~1ps é alcançada para emular condições de corrida. Variações estatísticas de violações de tempo de hold são medidas em tecnologias CMOS de 130nm e 90nm para diversas configurações de circuitos, e também para diferentes condições de temperatura e Vdd. Essas violações são um ponto crítico em projetos grandes com milhares de caminhos curtos, pois se apenas um desses caminhos falhar, todo o circuito não vai funcionar em qualquer freqüência. Usando os resultados medidos, a variabilidade é dividida entre sistemática e randômica residual usando métodos matemáticos. Testes de normalidade são aplicados a estes dados para verificar de eles são Gaussianos normais ou não. A probabilidade de violações de tempo de hold considerando nossos resultados medidos e skews de relógio típicos é calculada, mostrando que o problema de violações de tempo de hold aumenta com o avanço da tecnologia. Finalmente, um algoritmo para proteger circuitos digitais contra violações de tempo de hold em caminhos curtos é apresentado. / With the shrinking of CMOS technology, the circuits are more and more subject to variability in the fabrication process. Statistical process variations are a critical issue for circuit design strategies to ensure high yield in sub-100nm technologies. In this work we present an on-chip measurement technique to characterize hold time violations of flip-flops in short logic paths, which are generated by clock-edge uncertainties in synchronous designs. Using a precise programmable clock-to-data skew generation circuit, a measurement resolution of ~1ps is achieved to emulate race conditions. Statistical variations of hold time violations are measured in a 130nm and 90nm lowpower CMOS technology for various register-to-register configurations, and also different conditions of temperature and Vdd. These violations are a critical issue in large designs with thousands of short paths, as if only one of these fails, the whole circuit will not work at any frequency. Using the measured results, the variability is divided between systematic and random residual using mathematical methods. Normality tests are applied to this data to check if they are normal Gaussians or not. The probability of hold time violations considering our measured data and typical clock skews is calculated, showing that the problem of hold time violations is increasing with technologic advances. Finally, an algorithm to protect digital circuits against hold time violations in short paths is presented.
134

Protecting digital circuits against hold time violations due to process variations

Neuberger, Gustavo January 2007 (has links)
Com o desenvolvimento da tecnologia CMOS, os circuitos estão ficando cada vez mais sujeitos a variabilidade no processo de fabricação. Variações estatísticas de processo são um ponto crítico para estratégias de projeto de circuitos para garantir um yield alto em tecnologias sub-100nm. Neste trabalho apresentamos uma técnica de medida on-chip para caracterizar violações de tempo de hold de flip-flops em caminhos lógicos curtos, que são geradas por incertezas de borda de relógio em projetos síncronos. Usando um circuito programável preciso de geração de skew de relógio, uma resolução de medida de ~1ps é alcançada para emular condições de corrida. Variações estatísticas de violações de tempo de hold são medidas em tecnologias CMOS de 130nm e 90nm para diversas configurações de circuitos, e também para diferentes condições de temperatura e Vdd. Essas violações são um ponto crítico em projetos grandes com milhares de caminhos curtos, pois se apenas um desses caminhos falhar, todo o circuito não vai funcionar em qualquer freqüência. Usando os resultados medidos, a variabilidade é dividida entre sistemática e randômica residual usando métodos matemáticos. Testes de normalidade são aplicados a estes dados para verificar de eles são Gaussianos normais ou não. A probabilidade de violações de tempo de hold considerando nossos resultados medidos e skews de relógio típicos é calculada, mostrando que o problema de violações de tempo de hold aumenta com o avanço da tecnologia. Finalmente, um algoritmo para proteger circuitos digitais contra violações de tempo de hold em caminhos curtos é apresentado. / With the shrinking of CMOS technology, the circuits are more and more subject to variability in the fabrication process. Statistical process variations are a critical issue for circuit design strategies to ensure high yield in sub-100nm technologies. In this work we present an on-chip measurement technique to characterize hold time violations of flip-flops in short logic paths, which are generated by clock-edge uncertainties in synchronous designs. Using a precise programmable clock-to-data skew generation circuit, a measurement resolution of ~1ps is achieved to emulate race conditions. Statistical variations of hold time violations are measured in a 130nm and 90nm lowpower CMOS technology for various register-to-register configurations, and also different conditions of temperature and Vdd. These violations are a critical issue in large designs with thousands of short paths, as if only one of these fails, the whole circuit will not work at any frequency. Using the measured results, the variability is divided between systematic and random residual using mathematical methods. Normality tests are applied to this data to check if they are normal Gaussians or not. The probability of hold time violations considering our measured data and typical clock skews is calculated, showing that the problem of hold time violations is increasing with technologic advances. Finally, an algorithm to protect digital circuits against hold time violations in short paths is presented.
135

Modelos da teoria de resposta ao item multidimensionais assimétricos de grupos múltiplos para respostas dicotômicas sob um enfoque bayesiano / Assimetric multidimensional item response theory models for multiple groups and dichotomic responses under a bayesian perspective

Padilla Gómez, Juan Leonardo, 1989- 03 June 2014 (has links)
Orientadores: Caio Lucidius Naberezny Azevedo, Dalton Francisco de Andrade / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica / Made available in DSpace on 2018-08-24T22:30:44Z (GMT). No. of bitstreams: 1 PadillaGomez_JuanLeonardo_M.pdf: 10775900 bytes, checksum: 50bc9965f728b4b04b42b7428c3ec8ab (MD5) Previous issue date: 2014 / Resumo: No presente trabalho propõe-se novos modelos da Teoria de Resposta ao Item Multidimensional (TRIM) para respostas dicotômicas ou dicotomizadas considerando uma estrutura de grupos múltiplos. Para as distribuições dos traços latentes de cada grupo, propõe-se uma nova parametrização da distribuição normal assimétrica multivariada centrada, que combina as propostas de Lachos (2004) e de Arellano-Valle et.al (2008), a qual não só garante a identificabilidade dos modelos aqui introduzidos, mas também facilita a interpretação e estimação dos seus parâmetros. Portanto, nosso modelo representa uma alternativa interessante, para solucionar os problemas de falta de identificabilidade encontrados por Matos (2010) e Nojosa (2008), nos modelos multidimensionais assimétricos de um único grupo por eles desenvolvidos. Estudos de simulação, considerando vários cenários de interesse prático, foram conduzidos a fim de avaliar o potencial da tríade: modelagem, métodos de estimação e ferramentas de diagnósticos. Os resultados indicam que os modelos considerando a assimetria nos traços latentes, em geral, forneceram estimativas mais acuradas que os modelos tradicionais. Para a seleção de modelos, utilizou-se o critério de informação deviance (DIC), os valores esperados do critério de informação de Akaike (EAIC) e o critério de informação bayesiano (EBIC). Em relação à verificação da qualidade do ajuste de modelos, explorou-se alguns métodos de checagem preditiva a posteriori, os quais fornecem meios para avaliar a qualidade tanto do instrumento de medida, quanto o ajuste do modelo de um ponto de vista global e em relação à suposições específicas, entre elas a dimensão do teste. Com relação aos métodos de estimação, adaptou-se e implementou-se vários algoritmos MCMC propostos na literatura para outros modelos, inclusive a proposta de aceleração de convergência de González (2004), os quais foram comparados em relação aos aspectos de qualidade de convergência através do critério de tamanho efetivo da amostra de Sahu (2002). A análise de um conjunto de dados reais, referente à primeira fase do vestibular da UNICAMP de 2013 também foi realizada / Abstract: In this work it is proposed a new class of Multidimensional Item Response Theory (MIRT) models for dichotomic or dichotomized answers considering a multiple group structure. For the latent traits distribution of each group, it is proposed a new parametrization of the centered multivariate skew normal distribution, which combines the proposed by Lachos (2004) and the one proposed by Arellano-Valle et.al (2008), which not only ensures de identifiability of our proposed models, but also it makes simpler the interpretation and estimation of their parameters. Hence, our model stands as an important alternative, in order to solve the identifiability problems found for the one group multidimensional skewed models proposed by Matos (2010) and Nojosa (2008). Simulation studies, taking into account some situations of practical interest, were conducted in order to evaluate the potential of the triad: modeling, estimation methods and diagnostic tools. The results indicate that the models considering a skew component on the latent traits, in general, produced more accurate results than those ones obtained with the symmetric models. For model selection, it was used the deviance information criterion (DIC), the expected values of both the Akaike¿s information criterion (EAIC) and bayesian information criteron (EBIC). Concerning assessment of model fit quality, it was explored posterior predictive checking methods, which allows for evaluating the quality of the measure instrument as well as the quality fit of the model from a global point of view and related to specific assumptions, as the test dimensionality. Concerning the estimation methods, it was adopted and implemented several MCMC algorithms proposed in the literature for other models, including the convergence accelerating propose algorithm by Gonzalez (2004), which were compared concerning some convergence quality aspects through the Sahu (2002) effective sample size. The analysis of a real data set, from the 2013 first stage of the UNICAMP admission exam was done as well / Mestrado / Estatistica / Mestre em Estatística
136

Um modelo de resposta ao item para grupos múltiplos com distribuições normais assimétricas centralizadas / A multiple group IRT model with skew-normal latent trait distribution under the centred parametrization

Santos, José Roberto Silva dos, 1984- 20 August 2018 (has links)
Orientador: Caio Lucidius Naberezny Azevedo / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Computação Científica / Made available in DSpace on 2018-08-20T09:23:25Z (GMT). No. of bitstreams: 1 Santos_JoseRobertoSilvados_M.pdf: 2068782 bytes, checksum: f8dc91d2f7f6091813ba229dc12991f4 (MD5) Previous issue date: 2012 / Resumo: Uma das suposições dominantes nos modelos de resposta ao item (MRI) é a suposição de normalidade simétrica para modelar o comportamento dos traços latentes. No entanto, tal suposição tem sido questionada em vários trabalhos como, por exemplo, nos trabalhos de Micceri (1989) e Bazán et.al (2006). Recentemente Azevedo et.al (2011) propuseram um MRI com distribuição normal assimétrica centralizada para os traços latentes, considerando a estrutura de um único grupo de indivíduos. No presente trabalho fazemos uma extensão desse modelo para o caso de grupos múltiplos. Desenvolvemos dois algoritmos MCMC para estimação dos parâmetros utilizando a estrutura de dados aumentados para representar a função de resposta ao item (FRI), veja Albert (1992). O primeiro é um amostrador de Gibbs com passos de Metropolis-Hastings. No segundo utilizamos representações estocásticas (gerando uma estrutura hierárquica) das densidades a priori dos traços latentes e parâmetros populacionais conseguindo, assim, formas conhecidas para todas as distribuições condicionais completas, o que nos possibilitou desenvolver o amostrador de Gibbs completo. Comparamos esses algoritmos utilizando como critério o tamanho efetivo de amostra, veja Sahu (2002). O amostrador de Gibbs completo obteve o melhor desempenho. Também avaliamos o impacto do número de respondentes por grupo, número de itens por grupo, número de itens comuns, assimetria da distribuição do grupo de referência e priori, na recuperação dos parâmetros. Os resultados indicaram que nosso modelo recuperou bem todos os parâmetros, principalmente, quando utilizamos a priori de Jeffreys. Além disso, o número de itens por grupo e o número de examinados por grupo, mostraram ter um alto impacto na recuperação dos traços latentes e parâmetros dos itens, respectivamente. Analisamos um conjunto de dados reais que apresenta indícios de assimetria na distribuição dos traços latentes de alguns grupos. Os resultados obtidos com o nosso modelo confirmam a presença de assimetria na maioria dos grupos. Estudamos algumas medidas de diagnóstico baseadas na distribuição preditiva de medidas de discrepância adequadas. Por último, comparamos os modelos simétrico e assimétrico utilizando os critérios sugeridos por Spiegelhalter et al. (2002). O modelo assimétrico se ajustou melhor aos dados segundo todos os critérios / Abstract: An usual assumption for parameter estimation in the Item Response Models (IRM) is to assume that the latent traits are random variables which follow a normal distribution. However, many works suggest that this assumption does not apply in many cases. For example, the works of Micceri (1989) and Bazán (2006). Recently Azevedo et.al (2011) proposed an IRM with skew-normal distribution under the centred parametrization for the latent traits, considering one single group of examinees. In the present work, we developed an extension of this model to account for multiple groups. We developed two MCMC algorithms to parameter estimation using the augmented data structure to represent the Item response function (IRF), see Albert (1992). The First is a Metropolis-Hastings within Gibbs sampling. In the second, we use stochastic representations (creating a hierarchical structure) in the prior distribution of the latent traits and population parameters. Therefore, we obtained known full conditional distributions, which enabled us to develop the full Gibbs sampler. We compared these algorithms using the effective sample size criteria, see Sahu (2002). The full Gibbs sampling presented the best performance. We also evaluated the impact of the number of examinees per group, number of items per group, number of common items, priors and asymmetry of the reference group, on the parameter recovery. The results indicated that our approach recovers properly all parameters, mainly, when we consider the Jeffreys prior. Furthermore, the number of items per group and the number of examinees per group, showed to have a high impact on the recovery of the true of latent traits and item parameters, respectively. We analyze a real data set in which we found an evidence of asymmetry in the distribution of latent traits of some groups. The results obtained with our model confirmed the presence of asymmetry in most groups. We studied some diagnostic measures based on predictive distribution of appropriate discrepancy measures. Finally, we compared the symmetric and asymmetric models using the criteria suggested by Spiegelhalter et al. (2002). The asymmetrical model fits better according to all criteria / Mestrado / Estatistica / Mestre em Estatística
137

HAMEV and SQRED: Fortran 77 Subroutines for Computing the Eigenvalues of Hamiltonian Matrices Using Van Loanss Square Reduced Method

Benner, P., Byers, R., Barth, E. 30 October 1998 (has links) (PDF)
This paper describes LAPACK-based Fortran 77 subroutines for the reduction of a Hamiltonian matrix to square-reduced form and the approximation of all its eigenvalues using the implicit version of Van Loan's method. The transformation of the Hamilto- nian matrix to a square-reduced Hamiltonian uses only orthogonal symplectic similarity transformations. The eigenvalues can then be determined by applying the Hessenberg QR iteration to a matrix of half the order of the Hamiltonian matrix and taking the square roots of the computed values. Using scaling strategies similar to those suggested for algebraic Riccati equations can in some cases improve the accuracy of the computed eigenvalues. We demonstrate the performance of the subroutines for several examples and show how they can be used to solve some control-theoretic problems.
138

Estimation d'une densité prédictive avec information additionnelle

Sadeghkhani, Abdolnasser January 2017 (has links)
Dans le contexte de la théorie bayésienne et de théorie de la décision, l'estimation d'une densité prédictive d'une variable aléatoire occupe une place importante. Typiquement, dans un cadre paramétrique, il y a présence d’information additionnelle pouvant être interprétée sous forme d’une contrainte. Cette thèse porte sur des stratégies et des améliorations, tenant compte de l’information additionnelle, pour obtenir des densités prédictives efficaces et parfois plus performantes que d’autres données dans la littérature. Les résultats s’appliquent pour des modèles avec données gaussiennes avec ou sans une variance connue. Nous décrivons des densités prédictives bayésiennes pour les coûts Kullback-Leibler, Hellinger, Kullback-Leibler inversé, ainsi que pour des coûts du type $\alpha-$divergence et établissons des liens avec les familles de lois de probabilité du type \textit{skew--normal}. Nous obtenons des résultats de dominance faisant intervenir plusieurs techniques, dont l’expansion de la variance, les fonctions de coût duaux en estimation ponctuelle, l’estimation sous contraintes et l’estimation de Stein. Enfin, nous obtenons un résultat général pour l’estimation bayésienne d’un rapport de deux densités provenant de familles exponentielles. / Abstract: In the context of Bayesian theory and decision theory, the estimation of a predictive density of a random variable represents an important and challenging problem. Typically, in a parametric framework, usually there exists some additional information that can be interpreted as constraints. This thesis deals with strategies and improvements that take into account the additional information, in order to obtain effective and sometimes better performing predictive densities than others in the literature. The results apply to normal models with a known or unknown variance. We describe Bayesian predictive densities for Kullback--Leibler, Hellinger, reverse Kullback-Leibler losses as well as for α--divergence losses and establish links with skew--normal densities. We obtain dominance results using several techniques, including expansion of variance, dual loss functions in point estimation, restricted parameter space estimation, and Stein estimation. Finally, we obtain a general result for the Bayesian estimator of a ratio of two exponential family densities.
139

Comprehending Performance of Cross-Frames in Skewed Straight Steel I-Girder Bridges

Gull, Jawad H 20 February 2014 (has links)
The effects of support in steel bridges can present significant challenges during the construction. The tendency of girders to twist or layovers during the construction can present a particularly challenging problem regarding detailing cross-frames that provide bracing to steel girders. Methods of detailing cross-frames have been investigated in the past to identify some of the issues related to the behavior of straight and skewed steel bridges. However, the absence of a complete and simplified design approach has led to disputes between stakeholders, costly repairs and delays in the construction. The main objective of this research is to develop a complete and simplified design approach considering construction, fabrication and detailing of skewed bridges. This objective is achieved by comparing different detailing methods, understanding the mechanism by which skew effects develop in steel bridges, recommending simplified methods of analysis to evaluate them, and developing a complete and simplified design procedure for skew bridges. Girder layovers, flange lateral bending stress, cross-frame forces, component of vertical deflections, component of vertical reactions and lateral reactions or lateral displacements are affected by detailing methods and are referred as lack-of-fit effects. The main conclusion of this research is that lack-of-fit effects for the Final Fit detailing method at the steel dead load stage are equal and opposite to the lack-of-fit effects for the Erected Fit detailing method at the total dead load stage. This conclusion has helped using 2D grid analyses for estimating these lack-of-fit effects for different detailing methods. 3D erection simulations are developed for estimating fit-up forces required to attach the cross-frames to girders. The maximum fit-up force estimated from the 2D grid analysis shows a reasonable agreement with the one obtained from the erection simulations. The erection sequence that reduces the maximum fit-up force is also found by erection simulations. The line girder analysis is recommended for calculating cambers for the Final Fit detailing method. A combination of line girder analysis and 2D grid analysis is recommended for calculating cambers for the Erected Fit detailing method. Finally, flowcharts are developed that facilitate the selection of a detailing method and show the necessary design checks.
140

Modelos de regressão Birnbaum-Saunders baseados na distribuição normal assimétrica centrada / Birnbaum-Saunders regression models based on skew-normal centered distribution

Chaves, Nathalia Lima, 1989- 26 August 2018 (has links)
Orientadores: Caio Lucidius Naberezny Azevedo, Filidor Edilfonso Vilca Labra / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica / Made available in DSpace on 2018-08-26T22:33:37Z (GMT). No. of bitstreams: 1 Chaves_NathaliaLima_M.pdf: 3044792 bytes, checksum: 8fea3cd9d074997b605026a7a4526c35 (MD5) Previous issue date: 2015 / Resumo: A classe de modelos Birnbaum-Saunders (BS) foi desenvolvida a partir de problemas que surgiram na área de confiabilidade de materiais. Tais problemas, em geral, são ligados ao estudo de fadiga de materiais. No entanto, nos últimos tempos, essa classe de modelos tem sido aplicada em áreas fora do referido contexto como, por exemplo, em ciências da saúde, ambiental, florestal, demográficas, atuariais, financeira, entre outras, devido à sua grande versatilidade. Neste trabalho desenvolvemos a distribuição Birnbaum-Saunders (BS) baseada na normal assimétrica padrão sob a parametrização centrada (BSNAC) que, além de representar uma extensão da distribuição BS usual, apresenta diversas vantagens em relação à distribuição BS baseada na distribuição normal assimétrica sob a parametrização usual. Desenvolvemos também um modelo de regressão linear log-Birnbaum-Saunders. Apresentamos, tanto para a distribuição BSNAC quanto para o respectivo modelo de regressão, diversas propriedades. Desenvolvemos procedimentos de estimação sob os enfoques frenquentista e bayesiano, bem como ferramentas de diagnóstico para os modelos propostos, contemplando análise residual e medidas de influência. Realizamos estudos de simulação, considerando diferentes cenários, com o intuito de comparar as estimativas frequentistas e bayesianas, bem como avaliar o desempenho das medidas de diagnóstico. A metodologia aqui proposta foi ilustrada tanto com dados provenientes de estudos de simulação, quanto com conjuntos de dados reais / Abstract: The class of Birnbaum-Saunders (BS) models was developed from problems that arose in the field of material reliability. These problems generally are related to the study of material fatigue. However, in the last years, this class of models has been applied in areas outside that context, such as in health sciences, environmental, forestry, demographic, actuarial, financial, among others, due to its great versatility. In this work, we developed the skew-normal Birnbaum-Saunders distribution under the centered parameterization (BSNAC), which also represents an extension of the usual BS distribution and presents several advantages over the BS distribution based on the skew-normal distribution under the usual parameterization. We also developed a log-Birnbaum-Saunders linear regression model. We present several properties of both BSNAC distribution and the related regression model. We develop estimation procedures under the frequentist and Bayesian approaches, as well as diagnostic tools for the proposed models, contemplating residual analysis and measures of influence. We conducted simulation studies considering different scenarios, in order to compare the frequentist and Bayesian estimates and evaluate the performance of diagnostic measures. The methodology proposed here is illustrated with data sets from both simulation studies and real data sets / Mestrado / Estatistica / Mestra em Estatística

Page generated in 0.0965 seconds