• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 202
  • 88
  • 54
  • 34
  • 14
  • 13
  • 12
  • 9
  • 6
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 485
  • 86
  • 71
  • 59
  • 56
  • 55
  • 50
  • 48
  • 48
  • 45
  • 45
  • 44
  • 41
  • 40
  • 37
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

[en] VALUE AT RISK A COMPARISON OF METHODS TO CHOOSE THE SAMPLE FRACTION IN TAIL INDEX ESTIMATION OF GENERALIZED EXTREME VALUE DISTRIBUTION / [pt] VALOR EM RISCO UMA COMPARAÇÃO ENTRE MÉTODOS DE ESCOLHA DA FRAÇÃO AMOSTRAL NA ESTIMAÇÃO DO ÍNDICE DE CAUDA DE DISTRIBUIÇÕES GEV

CHRISTIAM MIGUEL GONZALES CHAVEZ 28 August 2002 (has links)
[pt] Valor em Risco -VaR- já é parte das ferramentas habituais que um analista financeiro utiliza para estimar o risco de mercado. Na implementação do VaR é necessário que seja estimados quantis de baixa probabilidade para a distribuição condicional dos retornos dos portfólios. A metodologia tradicional para o cálculo do VaR requer a estimação de um modelo tipo GARCH com distribuição normal. Entretanto, a hipótese de normalidade condicional nem sempre é adequada, principalmente quando se deseja estimar o VaR em períodos atípicos, caracterizados pela ocorrência de eventos extremos. Nesta situações a distribuição condicional deve apresentar excesso de curtose. O uso de distribuições derivadas do Teorema do Valor Extremos -TVE-, conhecidas coletivamente como GEV,associadas aos modelos tipo GARCH, tornou possível o cálculo do VaR nestas situações.Um parâmetro chave nas distribuições da família GEV é o índice de cauda, o qual pode ser estimado através do estimador de Hill. Entretanto este estimador apresenta muita sensibilidade em termos de variância e viés com respeito à fração amostral utilizada na sua estimação. O objetivo principal desta dissertação foi fazer uma comparação entre três métodos de escolha da fração amostral, recentemente sugeridos na literatura: o método bootstrap duplo Danielsson, de Haan, Peng e de Vries 1999, o método threshold Guillou e Hall 2001 e o Hill plot alternativo Drees, de Haan e Resnick 2000. A avaliação dos métodos foi feita através do teste de cobertura condicional de Christoffersen 1998, o qual foi aplicado às séries de retornos dos índices: NASDAQ, NIKKEY,MERVAL e IBOVESPA. Os nossos resultados indicam que os três métodos apresentam aproximadamente o mesmo desempenho, com uma ligeira vantagem dos métodos bootstrap duplo e o threshold sobre o Hill plot alternativo, porque este ultimo tem um componente normativo na determinação do índice de cauda ótimo. / [en] Value at Risk -VaR- is already part of the toolkit of financial analysts assessing market risk. In order to implement VaR it is needed to estimate low quantiles of the portfolio returns distribution. Traditional methodologies combine a normal conditional distribution together with ARCH type models to accomplish this goal. Albeit well succeed in evaluating risk for typical periods, this methodology has not been able to accommodate events that occur with very low probabilities. For these situations one needs conditional distributions with excess of kurtosis. The use of distributions derived from the Extreme Value Theory -EVT-, collectively known as Generalized Extreme Value distribution -GEV-, together with ARCH type models have made it possible to address this problem in a proper framework. A key parameter in the GEV distribution is the tail index, which can be estimated by Hill`s estimator. Hill`s estimator is very sensible, in terms of bias and RMSE, to the sample fraction that is used in its estimation. The objective of this dissertation is to compare three recently suggested methods presented in the statistical literature: the double bootstrap method Danielsson, de Haan, Peng and de Vries 1999,the threshold method Guillou and Hall 2001 and the alternative Hill plot Drees, de Haan and Resnick 2000. The methods have been evaluated with respect to the conditional coverage test of Christoffersen 1998, which has been applied to the following returns series : NASDAQ, NIKKEY, MERVAL e IBOVESPA. Our empirical findings suggests that, overall the three methods have the same performance, with some advantage of the bootstrap and threshold methods over the alternative Hill plot, which has a normative component in the determination of the optimal tail index.
312

Evaluation et développement de modèles sous-maille pour la simulation des grandes échelles du mélange turbulent basés sur l'estimation optimale et l'apprentissage supervisé / Evaluation et development of subgrid scale models for large eddy simulation of mixing based on optimal estimator and machin learning

Vollant, Antoine 20 October 2015 (has links)
Dans ce travail, des méthodes de diagnostics et des techniques de développement de modèles sous-maille sont proposées pour la simulation des grandes échelles (SGE) du mélange turbulent. Plusieurs modèles sous-maille issus de ces stratégies sont ainsi présentés pour illustrer ces méthodes.Le principe de la SGE est de résoudre les grandes échelles de l'écoulement responsables des transferts principaux et de modéliser l'action des petites échelles de l'écoulement sur les échelles résolues. Au cours de ce travail, nous nous sommes appuyés sur le classement des modèles sous-maille en deux catégories. Les modèles "fonctionnels" qui s'attachent à reproduire les transferts énergétiques entre les échelles résolues et les échelles modélisées et les modèles "structurels" qui cherchent à bien reproduire le terme sous-maille. Le premier enjeu important a été d'évaluer la performance des modèles sous-maille en prenant en compte leur comportement à la fois fonctionnel (capacité à reproduire les transferts d'énergie) et structurel (capacité à reproduire le terme sous-maille exact). Des diagnosctics des modèles sous-maille ont pu être conduits avec l'utilisation de la notion d'estimateur optimal ce qui permet de connaitre le potentiel d'amélioration structurelle des modèles. Ces principes ont dans un premier temps servi au développement d'une première famille de modèles sous-maille algébrique appelée DRGM pour "Dynamic Regularized Gradient Model". Cette famille de modèles s'appuie sur le diagnostic structurel des termes issus de la régularisation des modèles de la famille du gradient. D'après les tests menés, cette nouvelle famille de modèle structurel a de meilleures performances fonctionnelles et structurelles que les modèles de la famille du gradient. L'amélioration des performances fonctionnelles consiste à supprimer la prédiction excessive de transferts inverses d'énergie (backscatter) observés dans les modèles de la famille du gradient. Cela permet ainsi de supprimer le comportement instable classiquement observé pour cette famille de modèles. La suite de ce travail propose ensuite d'utiliser l'estimateur optimal directement comme modèle sous-maille. Comme l'estimateur optimal fournit le modèle ayant la meilleure performance structurelle pour un jeu de variables donné, nous avons recherché le jeu de variable optimisant cette performance. Puisque ce jeu comporte un nombre élevé de variables, nous avons utilisé les fonctions d'approximation de type réseaux de neurones pour estimer cet estimateur optimal. Ce travail a mené au nouveau modèle substitut ANNM pour "Artificial Neural Network Model". Ces fonctions de substitution se construisent à partir de bases de données servant à émuler les termes exacts nécessaire à la détermination de l'estimateur optimal. Les tests de ce modèle ont montré qu'il avait de très bonnes perfomances pour des configurations de simulation peu éloignées de la base de données servant à son apprentissage, mais qu'il pouvait manquer d'universalité. Pour lever ce dernier verrou, nous avons proposé une utilisation hybride des modèles algébriques et des modèles de substitution à base de réseaux de neurones. La base de cette nouvelle famille de modèles ACM pour "Adaptative Coefficient Model" s'appuie sur les décompositions vectorielles et tensorielles des termes sous-maille exacts. Ces décompositions nécessitent le calcul de coefficients dynamiques qui sont modélisés par les réseaux de neurones. Ces réseaux bénéficient d'une méthode d'apprentissage permettant d'optimiser directement les performances structurelles et fonctionnelles des modèles ACM. Ces modèles hybrides allient l'universalité des modèles algébriques avec la performance élevée mais spécialisée des fonctions de substitution. Le résultat conduit à des modèles plus universels que l'ANNM. / This work develops subgrid model techniques and proposes methods of diagnosis for Large Eddy Simulation (LES) of turbulent mixing.Several models from these strategies are thus presented to illustrate these methods.The principle of LES is to solve the largest scales of the turbulent flow responsible for major transfers and to model the action of small scales of flowon the resolved scales. Formally, this operation leads to filter equations describing turbulent mixing. Subgrid terms then appear and must bemodeled to close the equations. In this work, we rely on the classification of subgrid models into two categories. "Functional" models whichreproduces the energy transfers between the resolved scales and modeled scales and "Structural" models that seek to reproduce the exact subgrid termitself. The first major challenge is to evaluate the performance of subgrid models taking into account their functional behavior (ability to reproduce theenergy transfers) and structural behaviour (ability to reproduce the term subgrid exactly). Diagnostics of subgrid models have been enabled with theuse of the optimal estimator theory which allows the potential of structural improvement of the model to be evaluated.These methods were initially involved for the development of a first family of models called algebraic subgrid $DRGM$ for "Dynamic Regularized GradientModel". This family of models is based on the structural diagnostic of terms given by the regularization of the gradient model family.According to the tests performed, this new structural model's family has better functional and structural performance than original model's family of thegradient. The improved functional performance is due to the vanishing of inverse energy transfer (backscatter) observed in models of thegradient family. This allows the removal of the unstable behavior typically observed for this family of models.In this work, we then propose the use of the optimal estimator directly as a subgrid scale model. Since the optimal estimator provides the modelwith the best structural performance for a given set of variables, we looked for the set of variables which optimize that performance. Since this set of variablesis large, we use surrogate functions of artificial neural networks type to estimate the optimal estimator. This leads to the "Artificial Neural Network Model"(ANNM). These alternative functions are built from databases in order to emulate the exact terms needed to determine the optimal estimator. The tests of this modelshow that he it has very good performance for simulation configurations not very far from its database used for learning, so these findings may fail thetest of universality.To overcome this difficulty, we propose a hybrid method using an algebraic model and a surrogate model based on artificial neural networks. Thebasis of this new model family $ACM$ for "Adaptive Coefficient Model" is based on vector and tensor decomposition of the exact subgrid terms. Thesedecompositions require the calculation of dynamic coefficients which are modeled by artificial neural networks. These networks have a learning method designedto directlyoptimize the structural and functional performances of $ACM$. These hybrids models combine the universality of algebraic model with high performance butvery specialized performance of surrogate models. The result give models which are more universal than ANNM.
313

Estudo da idade da vaca ao último parto para avaliar longevidade em rebanhos da raça nelore por análise de sobrevivência /

Caetano, Sabrina Luzia. January 2011 (has links)
Resumo: No Brasil, existem poucos estudos sobre longevidade de vacas de corte, principalmente utilizando ferramentas de análise de sobrevivência na estimação de parâmetros genéticos. Todavia, os critérios para avaliar esta característica são vários, tal que em alguns destes nem todos os registros das vacas nos rebanhos podem ser levados em consideração, devido à metodologia de análise utilizada. Uma variável que é de fácil mensuração e já faz parte da maioria dos controles zootécnicos das fazendas é a idade da vaca ao último parto (IVUP). Neste trabalho, objetivo foi avaliar a longevidade das vacas nos rebanhos utilizando a variável IVUP, por meio da metodologia de análise de sobrevivência. Esta variável foi utilizada mediante um critério para analisar a longevidade produtiva de vacas nos rebanhos. O critério adotado foi a diferença entre a data em relação ao último parto de cada vaca e a data do último parto de cada fazenda. Se esta diferença foi superior a 36 meses, a vaca falhou e foi considerada descartada. Caso contrário, esta vaca foi censurada, indicando que esta ainda poderia ter futuras parições. O critério de 36 meses foi proposto por ser período suficiente para a ocorrência de um novo parto. A metodologia de análise de sobrevivência foi utilizada por considerar dados censurados e não censurados. As variáveis: estação e ano de nascimento de cada vaca, a fazenda e a idade ao primeiro parto foram utilizadas para as análises da variável IVUP. Um estudo prévio por meio de curvas de Kaplan-Meier e o modelo de Cox, utilizando a distribuição gama para os touros, desconsiderando o parentesco entre eles, foram realizados. O software Survival Kit foi empregado para estimação dos parâmetros genéticos, levando em consideração o parentesco entre os animais. Verificou-se que a IVUP apresentou herdabilidade de 0,25, e que seu uso permite avaliar a ... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: In Brazil, there are few studies about stayability, especially using tools of survival analysis in the estimation of breeding values and heritability. The criteria for evaluating this characteristic are different, such that in some of these not all information in the herds of cows can be taken into consideration, because the method of analysis used. In addition, the definitions that consider the date of disposal of the animal affect the use of information obtained in practice, because until the cows come out of the flock may take years, thus the evaluation of their parents is impaired, since the goal is selection. A variable that is easy to measure and is already part of most controls husbandry farms are cow age at last birth (IVUP). This variable was used by one criterion to analyze the productive longevity of cows in herds. The criterion was the difference between the date from the last delivery date of each cow and the last part of each farm. If this difference was more than 36 months, the cow was considered failed and discarded. Otherwise, this cow was censored, indicating that this could still have further parities. The criterion of 36 months was proposed to be sufficient time for the occurrence of a new birth. The methodology of survival analysis was used. The variables season and year of birth of each cow, farm and age at first birth were used for analysis of variable IVUP. The objective of this study was to evaluate the performance of the variable IVUP through estimates of genetic and fixed effect, to study the longevity of cows in the herd. A previous study by Kaplan-Meier and Cox model using the gamma distribution for the bulls, disregarding the relationship between them, were performed. The Survival Kit software was used to estimate the genetic parameters, taking into account the relationship between the animals. It was found that the heritability of 0.25 for IVUP ... (Complete abstract click electronic access below) / Orientador: Danísio Prado Munari / Coorientador: Claudia Cristina Paro da Paz / Coorientador: Raysildo Barbosa Lobo / Banca: João Ademir de Oliveira / Banca: Henrique Nunes De Oliveira / Banca: Roberto Carvalheiro / Banca: Lenira El Faro Zadra / Doutor
314

Impacto da introdução de pagamentos de juros sobre capital próprio na estrutura de capital das empresas no Brasil

Vilar, Orlando Laercio de Souza Cavalcante 14 December 2015 (has links)
Submitted by Orlando Laércio de Souza Cavalcante Vilar (orlandovilar@gmail.com) on 2016-01-08T12:59:42Z No. of bitstreams: 1 Dissertação - Orlando Vilar 07 jan 2016_v5.pdf: 707346 bytes, checksum: 65a8488da2068fb61203197572d6ed19 (MD5) / Rejected by Renata de Souza Nascimento (renata.souza@fgv.br), reason: Orlando, boa tarde Por gentileza, realizar as alterações mencionadas abaixo para que possamos aceitar seu trabalho: CAPA: Seu nome deve estar um pouco acima do título (centralizado). O título deve estar em letra maiúscula na CAPA e CONTRACAPA. Em seguida realizar uma nova submissão do trabalho. At on 2016-01-08T14:23:54Z (GMT) / Submitted by Orlando Laércio de Souza Cavalcante Vilar (orlandovilar@gmail.com) on 2016-01-08T16:43:13Z No. of bitstreams: 1 Dissertação - Orlando Vilar 08 jan 2016_v6.pdf: 707109 bytes, checksum: 4877b3b357324b1b8da8a7cb63f818ff (MD5) / Approved for entry into archive by Renata de Souza Nascimento (renata.souza@fgv.br) on 2016-01-08T16:45:01Z (GMT) No. of bitstreams: 1 Dissertação - Orlando Vilar 08 jan 2016_v6.pdf: 707109 bytes, checksum: 4877b3b357324b1b8da8a7cb63f818ff (MD5) / Made available in DSpace on 2016-01-08T16:50:42Z (GMT). No. of bitstreams: 1 Dissertação - Orlando Vilar 08 jan 2016_v6.pdf: 707109 bytes, checksum: 4877b3b357324b1b8da8a7cb63f818ff (MD5) Previous issue date: 2015-12-14 / This paper studies whether the introduction and utilization of interest on equity (IOE) payments affected the leverage ratios of Brazilian companies. To test the hypothesis that IOE led companies to use less debt, a matching estimator procedure is used, considering as control group a pool of companies that did not pay IOE and as treatment group the ones that did pay it, on a sample comprised of 40 companies during the years of 1995 to 1998. As expected from previous studies, the empirical evidence supports the argument that the average treatment effect (ATE) for companies that pay IOE will result in a reduction of their leverage ratio. However, there were no significant results to leverage reduction when we analyze the average treatment effect on the treated (ATET or ATT). / Este trabalho tem como proposta estudar como a introdução e a utilização do pagamento de juros sobre capital próprio (JSCP) afetaram o nível de endividamento das empresas brasileiras. Para testar a hipótese que os JSCP levaram as empresas a usarem menos capital de terceiros, são utilizados matching estimators, estabelecendo como grupo de controle as empresas que não pagaram JSCP e como grupo de tratamento as que o fizeram, em uma amostra composta de 40 companhias durante os anos de 1995 até 1998. Em linha com estudos anteriores, foi encontrada evidência empírica indicando que o efeito médio do tratamento (ATE) para empresas que decidem pagar JCSP é o de reduzir o seu nível de endividamento. Contudo, não houve resultado significativo de redução de endividamento ao analisarmos o efeito médio do tratamento dentre o grupo de empresas tratadas (ATET ou ATT).
315

Theoretical and empirical essays on microeconometrics

Possebom, Vitor Augusto 17 February 2016 (has links)
Submitted by Vitor Augusto Possebom (vitorapossebom@gmail.com) on 2016-03-08T00:06:59Z No. of bitstreams: 1 possebom_2016_masters-thesis.pdf: 905848 bytes, checksum: 1d5af42563617b7a8058b09baab1e040 (MD5) / Rejected by Letícia Monteiro de Souza (leticia.dsouza@fgv.br), reason: Prezado, Vítor, O seu trabalho foge totalmente das normas ABNT ou APA. Por gentileza, verificar trabalhos dos seus colegas postados na Biblioteca Digital para conhecimento. Qualquer dúvida, estou a disposição para falar ao telefone, onde fica mais fácil a comunicação. Atenciosamente, Letícia Monteiro 3799-3631 on 2016-03-08T11:53:56Z (GMT) / Submitted by Vitor Augusto Possebom (vitorapossebom@gmail.com) on 2016-03-08T20:40:10Z No. of bitstreams: 1 possebom_2016_masters-thesis.pdf: 926719 bytes, checksum: 6db5399b2d8e24a4b01f2bec748e4e95 (MD5) / Rejected by Letícia Monteiro de Souza (leticia.dsouza@fgv.br), reason: Prezado Vítor, Favor alterar o seu trabalho conforme as normas da ABNT. 1 - O Epigrafo deve constar na 5ª página, anteriormente a Dedicatória. 2 - Agradecimentos na 7ª página: Deve constar uma versão em português antes da versão em inglês. O título deve ser em caixa alta, centralizado e em negrito. 3 - Assim como em Agradecimentos, os títulos de: Resumo, Abstract e Sumário, devem ser em caixa alta, centralizado e em negrito. Estou a disposição para eventuais dúvidas. Atenciosamente, Letícia Monteiro 3799-3631 on 2016-03-09T12:15:54Z (GMT) / Submitted by Vitor Augusto Possebom (vitorapossebom@gmail.com) on 2016-03-10T00:21:36Z No. of bitstreams: 1 possebom_2016_masters-thesis.pdf: 933731 bytes, checksum: 69d467a1d6cb459ddd326d7fd593b4f9 (MD5) / Approved for entry into archive by Letícia Monteiro de Souza (leticia.dsouza@fgv.br) on 2016-03-10T11:59:00Z (GMT) No. of bitstreams: 1 possebom_2016_masters-thesis.pdf: 933731 bytes, checksum: 69d467a1d6cb459ddd326d7fd593b4f9 (MD5) / Made available in DSpace on 2016-03-10T12:48:54Z (GMT). No. of bitstreams: 1 possebom_2016_masters-thesis.pdf: 933731 bytes, checksum: 69d467a1d6cb459ddd326d7fd593b4f9 (MD5) Previous issue date: 2016-02-17 / This Master Thesis consists of one theoretical article and one empirical article on the field of Microeconometrics. The first chapter\footnote{We also thank useful suggestions by Marinho Bertanha, Gabriel Cepaluni, Brigham Frandsen, Dalia Ghanem, Ricardo Masini, Marcela Mello, Áureo de Paula, Cristine Pinto, Edson Severnini and seminar participants at São Paulo School of Economics, the California Econometrics Conference 2015 and the 37\textsuperscript{th} Brazilian Meeting of Econometrics.}, called \emph{Synthetic Control Estimator: A Generalized Inference Procedure and Confidence Sets}, contributes to the literature about inference techniques of the Synthetic Control Method. This methodology was proposed to answer questions involving counterfactuals when only one treated unit and a few control units are observed. Although this method was applied in many empirical works, the formal theory behind its inference procedure is still an open question. In order to fulfill this lacuna, we make clear the sufficient hypotheses that guarantee the adequacy of Fisher's Exact Hypothesis Testing Procedure for panel data, allowing us to test any \emph{sharp null hypothesis} and, consequently, to propose a new way to estimate Confidence Sets for the Synthetic Control Estimator by inverting a test statistic, the first confidence set when we have access only to finite sample, aggregate level data whose cross-sectional dimension may be larger than its time dimension. Moreover, we analyze the size and the power of the proposed test with a Monte Carlo experiment and find that test statistics that use the synthetic control method outperforms test statistics commonly used in the evaluation literature. We also extend our framework for the cases when we observe more than one outcome of interest (simultaneous hypothesis testing) or more than one treated unit (pooled intervention effect) and when heteroskedasticity is present. The second chapter, called \emph{Free Economic Area of Manaus: An Impact Evaluation using the Synthetic Control Method}, is an empirical article. We apply the synthetic control method for Brazilian city-level data during the 20\textsuperscript{th} Century in order to evaluate the economic impact of the Free Economic Area of Manaus (FEAM). We find that this enterprise zone had positive significant effects on Real GDP per capita and Services Total Production per capita, but it also had negative significant effects on Agriculture Total Production per capita. Our results suggest that this subsidy policy achieve its goal of promoting regional economic growth, even though it may have provoked mis-allocation of resources among economic sectors. / Esta dissertação de mestrado consiste em um artigo teórico e um artigo empírico no campo da Microeconometria. O primeiro capítulo contribui para a literatura sobre técnica de inferência do método de controle sintético. Essa metodologia foi proposta para responder a questões envolvendo contrafactuais quando apenas uma unidade tratada e poucas unidades controle são observadas. Apesar de esse método ter sido aplicado em muitos trabalhos empíricos, a teoria formal por trás de seu procedimento de inferência ainda é uma questão em aberto. Para preencher essa lacuna, nós deixamos claras hipóteses suficientes que garantem a validade do Procedimento Exato de Teste de Hipótese de Fisher para dados em painel, permitindo que nós testássemos qualquer hipótese nula do tipo \emph{sharp} e, consequentemente, que nós propuséssemos uma nova forma de estimar conjuntos de confiança para o Estimador de Controle Sintético por meio da inversão de uma estatística de teste, o primeiro conjunto de confiança quando temos acesso apenas a dados agregados cuja dimensão de \emph{cross-section} pode ser maior que a dimensão temporal. Ademais, nós analisamos o tamanho e o poder do teste proposto por meio de um experimento de Monte Carlo e encontramos que estatísticas de teste que usam o método de controle sintético apresentam uma performance superior àquela apresentada pelas estatísticas de teste comumente analisadas na literatura de avaliação de impacto. Nós também estendemos nosso procedimento para abarcar os casos em que observamos mais de uma variável de interesse (teste simultâneo de hipótese) ou mais de uma unidade tratada (efeito agregado da intervenção) e quando heterocedasticidade está presente. O segundo capítulo é um artigo empírico. Nós aplicamos o método de controle sintético a dados municipais brasileiros durante o século 20 com o intuito de avaliar o impacto econômico da Zona Franca de Manaus (ZFM). Nós encontramos que essa zona de empreendimento teve efeitos positivos significantes sobre o PIB Real per capita e sobre a Produção Total per capita do setor de Serviços, mas também teve um efeito negativo e significante sobre a Produção total per capita do setor Agrícola. Nossos resultados sugerem que essa política de subsídio alcançou seu objetivo de promover crescimento econômico regional, apesar de possivelmente ter provocado falhas de alocação de recursos entre setores econômicos.
316

Estudo da idade da vaca ao último parto para avaliar longevidade em rebanhos da raça nelore por análise de sobrevivência

Caetano, Sabrina Luzia [UNESP] 05 July 2011 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:32:15Z (GMT). No. of bitstreams: 0 Previous issue date: 2011-07-05Bitstream added on 2014-06-13T18:43:23Z : No. of bitstreams: 1 caetano_sl_dr_jabo.pdf: 775583 bytes, checksum: a57f6e271b7d34656d680987f933ba7d (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) / No Brasil, existem poucos estudos sobre longevidade de vacas de corte, principalmente utilizando ferramentas de análise de sobrevivência na estimação de parâmetros genéticos. Todavia, os critérios para avaliar esta característica são vários, tal que em alguns destes nem todos os registros das vacas nos rebanhos podem ser levados em consideração, devido à metodologia de análise utilizada. Uma variável que é de fácil mensuração e já faz parte da maioria dos controles zootécnicos das fazendas é a idade da vaca ao último parto (IVUP). Neste trabalho, objetivo foi avaliar a longevidade das vacas nos rebanhos utilizando a variável IVUP, por meio da metodologia de análise de sobrevivência. Esta variável foi utilizada mediante um critério para analisar a longevidade produtiva de vacas nos rebanhos. O critério adotado foi a diferença entre a data em relação ao último parto de cada vaca e a data do último parto de cada fazenda. Se esta diferença foi superior a 36 meses, a vaca falhou e foi considerada descartada. Caso contrário, esta vaca foi censurada, indicando que esta ainda poderia ter futuras parições. O critério de 36 meses foi proposto por ser período suficiente para a ocorrência de um novo parto. A metodologia de análise de sobrevivência foi utilizada por considerar dados censurados e não censurados. As variáveis: estação e ano de nascimento de cada vaca, a fazenda e a idade ao primeiro parto foram utilizadas para as análises da variável IVUP. Um estudo prévio por meio de curvas de Kaplan-Meier e o modelo de Cox, utilizando a distribuição gama para os touros, desconsiderando o parentesco entre eles, foram realizados. O software Survival Kit foi empregado para estimação dos parâmetros genéticos, levando em consideração o parentesco entre os animais. Verificou-se que a IVUP apresentou herdabilidade de 0,25, e que seu uso permite avaliar a... / In Brazil, there are few studies about stayability, especially using tools of survival analysis in the estimation of breeding values and heritability. The criteria for evaluating this characteristic are different, such that in some of these not all information in the herds of cows can be taken into consideration, because the method of analysis used. In addition, the definitions that consider the date of disposal of the animal affect the use of information obtained in practice, because until the cows come out of the flock may take years, thus the evaluation of their parents is impaired, since the goal is selection. A variable that is easy to measure and is already part of most controls husbandry farms are cow age at last birth (IVUP). This variable was used by one criterion to analyze the productive longevity of cows in herds. The criterion was the difference between the date from the last delivery date of each cow and the last part of each farm. If this difference was more than 36 months, the cow was considered failed and discarded. Otherwise, this cow was censored, indicating that this could still have further parities. The criterion of 36 months was proposed to be sufficient time for the occurrence of a new birth. The methodology of survival analysis was used. The variables season and year of birth of each cow, farm and age at first birth were used for analysis of variable IVUP. The objective of this study was to evaluate the performance of the variable IVUP through estimates of genetic and fixed effect, to study the longevity of cows in the herd. A previous study by Kaplan-Meier and Cox model using the gamma distribution for the bulls, disregarding the relationship between them, were performed. The Survival Kit software was used to estimate the genetic parameters, taking into account the relationship between the animals. It was found that the heritability of 0.25 for IVUP ... (Complete abstract click electronic access below)
317

Statistické metody pro regresní modely s chybějícími daty / Statistical Methods for Regression Models With Missing Data

Nekvinda, Matěj January 2018 (has links)
The aim of this thesis is to describe and further develop estimation strategies for data obtained by stratified sampling. Estimation of the mean and linear regression model are discussed. The possible inclusion of auxiliary variables in the estimation is exam- ined. The auxiliary variables can be transformed rather than used in their original form. A transformation minimizing the asymptotic variance of the resulting estimator is pro- vided. The estimator using an approach from this thesis is compared to the doubly robust estimator and shown to be asymptotically equivalent.
318

Matriz de covariâncias do estimador de máxima verossimilhança corrigido pelo viés em modelos lineares generalizados com parâmetro de dispersão desconhecido. / Matrix of covariates of the bias-corrected maximum likelihood estimator in generalized linear models with unknown dispersion parameter.

BARROS, Fabiana Uchôa. 27 July 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-07-27T16:10:22Z No. of bitstreams: 1 FABIANA UCHÔA BARROS - DISSERTAÇÃO PPGMAT 2011..pdf: 444205 bytes, checksum: dd1ada684703bcb400e631c5f044668b (MD5) / Made available in DSpace on 2018-07-27T16:10:22Z (GMT). No. of bitstreams: 1 FABIANA UCHÔA BARROS - DISSERTAÇÃO PPGMAT 2011..pdf: 444205 bytes, checksum: dd1ada684703bcb400e631c5f044668b (MD5) Previous issue date: 2011-12 / Capes / Com base na expressão de Pace e Salvan (1997 pág. 30), obtivemos a matriz de covariâncias de segunda ordem dos estimadores de máxima verossimilhança corrigidos pelo viés de ordem n−1 em modelos lineares generalizados, considerando o parâmetro de dispersão desconhecido, porém o mesmo para todas as observações. A partir dessa matriz, realizamos modi cações no teste de Wald. Os resultados obtidos foram avaliados através de estudos de simulação de Monte Carlo. / Based on the expression of Pace and Salvan (1997 pág. 30), we obtained the second order covariance matrix of the of the maximum likelihood estimators corrected for bias of order n−1in generalized linear models, considering that the dispersion parameter is the same although unknown for all observations. From this matrix, we made modi cations to the Wald test. The results were evaluated through simulation studies of Monte Carlo.
319

Identificação dos principais autores do planejamento e controle de produção (PCP) e análise da lacuna entre a teoria e a prática do PCP na região de São Carlos.

Azeka, Fábio 01 December 2003 (has links)
Made available in DSpace on 2016-06-02T19:51:25Z (GMT). No. of bitstreams: 1 DissFA.pdf: 692673 bytes, checksum: c17603e3bc9d4ee95fd60f2c08410cec (MD5) Previous issue date: 2003-12-01 / Universidade Federal de Minas Gerais / This research have two main goals: i) the Production Planning and Control (PPC) top-authors identification according to an effective population (EF)with 592 international researchers; and ii) assessing the gap between theory and practice on the PPC area at São Carlos region. To determine the item (i) it was done a research through internet with an initial sample of 205 researchers, as not all e-mails worked, the effective sample (ES) was reduced to 168 researchers. The obtained result was estimated for the corrected effective population (CEP), that corresponds to the number of people whose e-mails worked, through the Horwitz-Thompson estimator. At the end of this stage we obtained a list containing the top-authors of the area and their main works as well as we accomplished analysis involving variables like the region, the approach and the number of years the respondents are active on PPC research. To accomplish the item (ii) we collected data from a group of São Carlos academics and from 11 important companies of the region. We lifted up several causes of the existence of this gap in the area and we also suggested several initiatives to decrease it. / Esta pesquisa possuiu dois objetivos principais: i) identificação dos principais autores do PCP na visão de uma população efetiva (PE) de 592 pesquisadores internacionais; e ii) análise da lacuna entre a teoria e a prática da área de PCP na região de São Carlos. Para determinar o item (i) foi realizada uma pesquisa via internet com uma amostra inicial de 205 pesquisadores, e que no decorrer da pesquisa foi reduzida a 168 pessoas (aqueles cujos e-mails funcionavam); chamamos este grupo de amostra efetiva (AE). O resultado obtido foi estimado para a população efetiva corrigida (PEc), que corresponde ao número de pessoas da PE cujos e-mails funcionavam, por meio do estimador de Horwitz-Thompson. Ao final desta etapa obtivemos uma lista contendo os principais autores da área e suas principais obras bem como realizamos análises envolvendo variáveis como a região, a abordagem e o tempo de pesquisa dos entrevistados. Para realizar o item (ii) levantamos dados de um grupo de acadêmicos da região de São Carlos e de onze empresas de grande porte da mesma região. Foram levantadas várias causas da existência desta lacuna na região e também foram sugeridas várias iniciativas para diminuí-la.
320

Estimativas de mortalidade para a regi?o nordeste do Brasil em 2010: uma associa??o do m?todo demogr?fico equa??o geral de balanceamento, com o estimador bayesiano emp?rico

Justino, Josivan Ribeiro 15 August 2013 (has links)
Made available in DSpace on 2014-12-17T14:23:30Z (GMT). No. of bitstreams: 1 JosivanRJ_DISSERT.pdf: 3858170 bytes, checksum: cf220eba177815a3f2e7efdc0fc51b69 (MD5) Previous issue date: 2013-08-15 / One of the greatest challenges of demography, nowadays, is to obtain estimates of mortality, in a consistent manner, mainly in small areas. The lack of this information, hinders public health actions and leads to impairment of quality of classification of deaths, generating concern on the part of demographers and epidemiologists in obtaining reliable statistics of mortality in the country. In this context, the objective of this work is to obtain estimates of deaths adjustment factors for correction of adult mortality, by States, meso-regions and age groups in the northeastern region, in 2010. The proposal is based on two lines of observation: a demographic one and a statistical one, considering also two areas of coverage in the States of the Northeast region, the meso-regions, as larger areas and counties, as small areas. The methodological principle is to use the General Equation and Balancing demographic method or General Growth Balance to correct the observed deaths, in larger areas (meso-regions) of the states, since they are less prone to breakage of methodological assumptions. In the sequence, it will be applied the statistical empirical Bayesian estimator method, considering as sum of deaths in the meso-regions, the death value corrected by the demographic method, and as reference of observation of smaller area, the observed deaths in small areas (counties). As results of this combination, a smoothing effect on the degree of coverage of deaths is obtained, due to the association with the empirical Bayesian Estimator, and the possibility of evaluating the degree of coverage of deaths by age groups at counties, meso-regions and states levels, with the advantage of estimete adjustment factors, according to the desired level of aggregation. The results grouped by State, point to a significant improvement of the degree of coverage of deaths, according to the combination of the methods with values above 80%. Alagoas (0.88), Bahia (0.90), Cear? (0.90), Maranh?o (0.84), Para?ba (0.88), Pernambuco (0.93), Piau? (0.85), Rio Grande do Norte (0.89) and Sergipe (0.92). Advances in the control of the registry information in the health system, linked to improvements in socioeconomic conditions and urbanization of the counties, in the last decade, provided a better quality of information registry of deaths in small areas / Um dos grandes desafios atuais da demografia ? obter estimativas de mortalidade, de maneira consistente, principalmente em pequenas ?reas. A car?ncia destas informa??es, dificulta a??es de sa?de p?blica e leva ao comprometimento da qualidade de classifica??o de ?bitos, gerando preocupa??o por parte dos dem?grafos e epidemiologistas na obten??o de estat?sticas confi?veis da mortalidade no Pa?s. Neste contexto, o objetivo deste trabalho ? obter estimativas de fatores de ajuste de ?bitos para corre??o da mortalidade adulta, por estados, mesorregi?es e grupos et?rios na regi?o nordeste, em 2010. A proposta est? pautada sobre duas linhas de observa??o: uma demogr?fica e outra estat?stica, considerando tamb?m duas ?reas de abrang?ncia nos estados da regi?o Nordeste, as mesorregi?es como ?reas maiores e os munic?pios como pequenas ?reas. O principio metodol?gico ? usar o m?todo demogr?fico Equa??o Geral e Balanceamento ou General Growth Balance, para corrigir os ?bitos observados, nas ?reas maiores (mesorregi?es) dos estados, por estas serem regi?es menos prop?cias a quebra dos pressupostos metodol?gicos. Em seguida, ser? aplicado o m?todo estat?stico estimador bayesiano emp?rico, considerando como soma dos ?bitos nas mesorregi?es, o valor de ?bito corrigido pelo m?todo demogr?fico e como refer?ncia de observa??o de ?rea menor os ?bitos observados nas pequenas ?reas (munic?pios). Como resultados desta combina??o, um efeito de suaviza??o do grau de cobertura dos ?bitos ? obtido, fruto da associa??o com o estimador bayesiano emp?rico e a possibilidade de avaliar o grau de cobertura de ?bitos por grupos et?rios em n?vel de munic?pios, mesorregi?es e estado, com a vantagem de estimar fatores de ajuste, conforme o n?vel de agrega??o desejado. Os resultados agrupados por estado, apontam para uma melhora significante do grau de cobertura de ?bitos, segundo a combina??o dos m?todos com valores acima de 80%. Alagoas (0,88), Bahia (0,90), Cear? (0,90), Maranh?o (0,84), Para?ba (0,88), Pernambuco (0,93), Piau? (0,85) , Rio Grande do Norte (0,89) e Sergipe (0,92). Os avan?os no controle do registro das informa??es no sistema de sa?de, associado ?s melhorias nas condi??es socioecon?micas e de urbaniza??o dos munic?pios, na ?ltima d?cada, proporcionaram uma melhor qualidade do registro das informa??es de ?bitos nas pequenas ?reas

Page generated in 0.0501 seconds