• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 100
  • 66
  • 47
  • 19
  • 8
  • 6
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 312
  • 81
  • 43
  • 40
  • 36
  • 32
  • 32
  • 32
  • 32
  • 31
  • 29
  • 27
  • 26
  • 25
  • 25
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Construção da superfície de energia potencial global para o sistema [H,S,F] / Construction of the global potential energy surface of the [H,S,F] system

Aoto, Yuri Alexandre 26 September 2013 (has links)
Este projeto tem dois objetivos. Primeiramente estudou-se a aplicabilidade dos splines tricúbicos para a construção de superfícies de energia potencial globais. Um dos obstáculos que este método tem de superar e a escolha de um sistema de coordenadas apropriado, que minimize a influência de pontos não físicos. Para isto, propôs-se o uso do sistema de coordenadas de Pekeris, nunca usado para este fim. Este procedimento foi realizado para três sistemas químicos bem descritos na literatura, [Cl,H2], [F,H,D] e [H,O,Cl], cujas superfícies de energia potencial e propriedades das reações foram usadas como referência. Com base nestes modelos, aplicamos o método proposto variando-se a quantidade e a disposição dos nós das interpolações, a fim de verificar sua influência na qualidade das superfícies interpoladas. Os resultados mostram que as superfícies construídas por este método reproduzem muito bem os cálculos de dinâmica química, tanto por métodos quânticos quanto por métodos clássicos. Para isto, os nós da interpolação devem cobrir as regiões mais importantes da superfície de energia potencial e os valores mais baixos das coordenadas de Pekeris devem ser priorizados. O segundo objetivo consiste na aplicação deste procedimento na construção da superfície de energia potencial [H,S,F]. Com esta superfície, diversas características deste sistema foram analisadas, tais como geometrias dos pontos estacionários, energias relativas e frequências vibracionais. Os valores obtidos estão de acordo com os dados descritos na literatura. A superfície construída também foi usada para a realização de cálculos de dinâmica para a reação F+HS → S+FH. Observamos a existência de dois tipos de mecanismos, um com a formação de um intermediário de longa duração e outro com a abstração direta do átomo de hidrogênio. / This project has two goals. First, we studied the applicability of the tricubic splines to construct global potential energy surfaces. One of the diculties this approach has to overcome is the choice of an appropriate coordinate system that minimises the in uence of non-physical points. For such, we proposed the use of the Pekeris coordinate system, never employed for this purpose. This procedure was carried out for three well described systems, [Cl,H2], [F,H,D] and [H,O,Cl], whose potential energy surfaces and reaction properties were taken as references. Based on these models, we applied the proposed method varying the amount and arrangement of the interpolation knots, to verify their influence on the quality of the interpolated surfaces. The results showed that surfaces constructed by this approach reproduce very well the chemical dynamics calculations, both for the quantum as well as for the classical methods, provided that the interpolation knots cover the most important regions of the potential energy surfaces, and the lower values of the Pekeris coordinates are prioritised. The second goal was the application of this procedure to the construction of the [H,S,F] potential energy surface. With this surface, several characteristics of this system were analysed, such as the geometry of the stationary points, relative energies and vibrational frequencies. The values obtained are in agreement with the data described in the literature. The constructed surface was also used for quantum dynamics calculations on the reaction F + HS → S + FH. We observed two kinds of mechanisms, one of them with the formation of a long-living intermediate and the other with the direct abstraction of the hydrogen atom.
92

DCOBS: forecasting the term structure of interest rates with dynamic constrained smoothing B-Splines / DCOBS: previsão da estrutura a termo de taxa de juros com B-Splines restritas, suavizadas e dinâmicas

Eduardo Phillipe Mineo 01 December 2017 (has links)
The Nelson-Siegel framework published by Diebold and Li a decade ago created an important benchmark and originated several works in the literature of forecasting term structure of interest rates. For instance, the Arbitrage-Free Nelson-Siegel framework improved predictive performance by imposing no-arbitrage conditions to the Nelson-Siegel framework. However, these frameworks were built on the top of a parametric curve model that may lead to poor fitting for sensible term structure shapes affecting forecast results. We propose DCOBS with no-arbitrage restrictions to forecast the term structure. It is built on the top of the nonparametric constrained smoothing Bsplines yield curve model. This curve model has shown to be an optimum solution between financial integrity and respect to yield curve shapes. Even though this curve model may provide more volatile forward curves than parametric models, they are still more accurate than those from Nelson-Siegel frameworks. A software was developed with a complete implementation of yield curve fitting techniques discussed in this paper. DCOBS has been evaluated for ten years of brazilian government bond data and it has shown good consistence with stylized facts of yield curves. The results of DCOBS are promising, specially in short-term forecast, and has shown greater stability and lower root mean square errors than Arbitrage-Free Nelson-Siegel. / O framework Nelson-Siegel publicado por Diebold e Li uma década atrás criou um importante benchmark e originou diversos trabalhos na literatura de previsão de estrutura a termo de taxas de juros. Por exemplo, o framework Nelson-Siegel Livre de Arbitragem melhorou a performance preditiva impondo condições de não-arbitragem ao framework Nelson-Siegel. No entanto, estes frameworks foram construídos em cima do modelo de curvas paramétricas. Em casos mais sensíveis de formas de curvas, este modelo tem um desempenho muito ruim, afetando o resultado da previsão. Nós propomos o DCOBS com restrições de não-arbitragem para prever a estrutura a termo. Ele é construído em cima do modelo de curva não-paramétrico com B-Splines restritas e suavizadas. Este modelo demonstrou ser uma solução ótima entre integridade financeira e respeito às formas de curvas de juros. Embora este modelo de curva possa resultar em curvas forwards mais voláteis que os modelos paramétricos, ele é ainda mais acurado que aqueles do framework Nelson-Siegel. Um software foi desenvolvido com uma implementação completa das técnicas de ajustes de curvas de juros discutidas nesta dissertação. DCOBS foi avaliado utilizando dez anos de dados de títulos públicos do governo brasileiro e demonstrou boa consistência com os fatos estilizados das curvas de juros. Os resultados do DCOBS são promissores, especialmente na previsão de curto prazo, e demonstrou maior estabilidade e menor erro quadrático médio que o modelo Nelson-Siegel Livre de Arbitragem.
93

Modelos de regressão com coeficientes funcionais para séries temporais / Functional-coefficient regression models for time series

Montoril, Michel Helcias 28 February 2013 (has links)
Nesta tese, consideramos o ajuste de modelos de regressão com coeficientes funcionais para séries temporais, por meio de splines, ondaletas clássicas e ondaletas deformadas. Consideramos os casos em que os erros do modelo são independentes e correlacionados. Através das três abordagens de estimação, obtemos taxas de convergência a zero para distâncias médias entre as funções do modelo e seus respectivos estimadores, propostos neste trabalho. No caso das abordagens de ondaletas (clássicas e deformadas), obtemos também resultados assintóticos em situações mais específicas, nas quais as funções do modelo pertencem a espaços de Sobolev e espaços de Besov. Além disso, estudos de simulação de Monte Carlo e aplicações a dados reais são apresentados. Por meio desses estudos numéricos, fazemos comparações entre as três abordagens de estimação propostas, e comparações entre outras abordagens já conhecidas na literatura, onde verificamos desempenhos satisfatórios, no sentido das abordagens propostas fornecerem resultados competitivos, quando comparados aos resultados oriundos de metodologias já utilizadas na literatura. / In this thesis, we study about fitting functional-coefficient regression models for time series, by splines, wavelets and warped wavelets. We consider models with independent and correlated errors. Through the three estimation approaches, we obtain rates of convergence to zero for average distances between the functions of the model and their estimators proposed in this work. In the case of (warped) wavelets approach, we also obtain asymptotic results in more specific situations, in which the functions of the model belong to Sobolev and Besov spaces. Moreover, Monte Carlo simulation studies and applications to real data sets are presented. Through these numerical results, we make comparisons between the three estimation approaches proposed here and comparisons between other approaches known in the literature, where we verify interesting performances in the sense that the proposed approaches provide competitive results compared to the results from methodologies used in literature.
94

Análise de diagnóstico em modelos semiparamétricos normais / Diagnostic analysis in semiparametric normal models

Gleyce Rocha Noda 18 April 2013 (has links)
Nesta dissertação apresentamos métodos de diagnóstico em modelos semiparamétricos sob erros normais, em especial os modelos semiparamétricos com uma variável explicativa não paramétrica, conhecidos como modelos lineares parciais. São utilizados splines cúbicos para o ajuste da variável resposta e são aplicadas funções de verossimilhança penalizadas para a obtenção dos estimadores de máxima verossimilhança com os respectivos erros padrão aproximados. São derivadas também as propriedades da matriz hat para esse tipo de modelo, com o objetivo de utilizá-la como ferramenta na análise de diagnóstico. Gráficos normais de probabilidade com envelope gerado também foram adaptados para avaliar a adequabilidade do modelo. Finalmente, são apresentados dois exemplos ilustrativos em que os ajustes são comparados com modelos lineares normais usuais, tanto no contexto do modelo aditivo normal simples como no contexto do modelo linear parcial. / In this master dissertation we present diagnostic methods in semiparametric models under normal errors, specially in semiparametric models with one nonparametric explanatory variable, also known as partial linear model. We use cubic splines for the nonparametric fitting, and penalized likelihood functions are applied for obtaining maximum likelihood estimators with their respective approximate standard errors. The properties of the hat matrix are also derived for this kind of model, aiming to use it as a tool for diagnostic analysis. Normal probability plots with simulated envelope graphs were also adapted to evaluate the model suitability. Finally, two illustrative examples are presented, in which the fits are compared with usual normal linear models, such as simple normal additive and partially linear models.
95

Modelos semiparamétricos com resposta binomial negativa / Semiparametric models with negative binomial response

Fabio Hideto Oki 14 May 2015 (has links)
O objetivo principal deste trabalho é discutir estimação e diagnóstico em modelos semiparamétricos com resposta binomial negativa, mais especificamente, modelos de regressão com resposta binomial negativa em que uma das variáveis explicativas contínuas é modelada de forma não paramétrica. Iniciamos o trabalho com um exemplo ilustrativo e fazemos uma breve revisão dos modelos paramétricos com resposta binomial negativa. Em seguida, introduzimos os modelos semiparamétricos com resposta binomial negativa e discutimos alguns aspectos de estimação, inferência e seleção de modelos. Dedicamos um capítulo a procedimentos de diagnóstico, tais como desenvolvimento de medidas de alavanca e de influência sob os aspectos de deleção de pontos e influência local, além de abordar a análise de resíduos. Reanalizamos o exemplo ilustrativo sob o enfoque semiparamétrico e apresentamos algumas conclusões. / The aim of this work is to discuss some aspects on estimation and diagnostics in negative binomial regression models which an explanatory continuous variable is modeled nonparametrically. First, an illustrative example is presented and analyzed under parametric negative binomial regression models. The proposed models are then introduced and some aspects on estimations, inference and model selection are presented. Particular emphasis is given on the development of diagnostic procedures, such as leverage measures, Cook distances, local influence approach and residuals. The motivated example is reanalyzed under the semiparametric viewpoint and some conclusions are given.
96

DCOBS: forecasting the term structure of interest rates with dynamic constrained smoothing B-Splines / DCOBS: previsão da estrutura a termo de taxa de juros com B-Splines restritas, suavizadas e dinâmicas

Mineo, Eduardo Phillipe 01 December 2017 (has links)
The Nelson-Siegel framework published by Diebold and Li a decade ago created an important benchmark and originated several works in the literature of forecasting term structure of interest rates. For instance, the Arbitrage-Free Nelson-Siegel framework improved predictive performance by imposing no-arbitrage conditions to the Nelson-Siegel framework. However, these frameworks were built on the top of a parametric curve model that may lead to poor fitting for sensible term structure shapes affecting forecast results. We propose DCOBS with no-arbitrage restrictions to forecast the term structure. It is built on the top of the nonparametric constrained smoothing Bsplines yield curve model. This curve model has shown to be an optimum solution between financial integrity and respect to yield curve shapes. Even though this curve model may provide more volatile forward curves than parametric models, they are still more accurate than those from Nelson-Siegel frameworks. A software was developed with a complete implementation of yield curve fitting techniques discussed in this paper. DCOBS has been evaluated for ten years of brazilian government bond data and it has shown good consistence with stylized facts of yield curves. The results of DCOBS are promising, specially in short-term forecast, and has shown greater stability and lower root mean square errors than Arbitrage-Free Nelson-Siegel. / O framework Nelson-Siegel publicado por Diebold e Li uma década atrás criou um importante benchmark e originou diversos trabalhos na literatura de previsão de estrutura a termo de taxas de juros. Por exemplo, o framework Nelson-Siegel Livre de Arbitragem melhorou a performance preditiva impondo condições de não-arbitragem ao framework Nelson-Siegel. No entanto, estes frameworks foram construídos em cima do modelo de curvas paramétricas. Em casos mais sensíveis de formas de curvas, este modelo tem um desempenho muito ruim, afetando o resultado da previsão. Nós propomos o DCOBS com restrições de não-arbitragem para prever a estrutura a termo. Ele é construído em cima do modelo de curva não-paramétrico com B-Splines restritas e suavizadas. Este modelo demonstrou ser uma solução ótima entre integridade financeira e respeito às formas de curvas de juros. Embora este modelo de curva possa resultar em curvas forwards mais voláteis que os modelos paramétricos, ele é ainda mais acurado que aqueles do framework Nelson-Siegel. Um software foi desenvolvido com uma implementação completa das técnicas de ajustes de curvas de juros discutidas nesta dissertação. DCOBS foi avaliado utilizando dez anos de dados de títulos públicos do governo brasileiro e demonstrou boa consistência com os fatos estilizados das curvas de juros. Os resultados do DCOBS são promissores, especialmente na previsão de curto prazo, e demonstrou maior estabilidade e menor erro quadrático médio que o modelo Nelson-Siegel Livre de Arbitragem.
97

Splines multidimensionnelles pénalisées pour modéliser le taux de survenue d’un événement : application au taux de mortalité en excès et à la survie nette en épidémiologie des maladies chroniques / Multidimensional penalized splines for hazard modelling : application to excess mortality hazard and net survival in chronic disease epidemiology

Fauvernier, Mathieu 24 September 2019 (has links)
L’étude du temps de survenue d’un événement représente un champ très important des statistiques. Lorsque l’événement étudié est le décès, on cherche à décrire la survie des individus ainsi que leur taux de mortalité, c’est-à-dire la « force de mortalité » qui s’applique à un instant donné. Les patients atteints d’une maladie chronique présentent en général un excès de mortalité par rapport à une population ne présentant pas la maladie en question. En épidémiologie, l’étude du taux de mortalité en excès des patients, et notamment de l’impact des facteurs pronostiques sur celui-ci, représente donc un enjeu majeur de santé publique. D’un point de vue statistique, la modélisation du taux de mortalité (en excès) implique de prendre en compte les effets potentiellement non-linéaires et dépendants du temps des facteurs pronostiques ainsi que les interactions. Les splines de régression, polynômes par morceaux paramétriques et flexibles, sont des outils particulièrement bien adaptés pour modéliser des effets d’une telle complexité. Toutefois, la flexibilité des splines de régression comporte un risque de sur-ajustement. Pour éviter ce risque, les splines de régression pénalisées ont été proposées dans le cadre des modèles additifs généralisés. Leur principe est le suivant : à chaque spline peuvent être associés un ou plusieurs termes de pénalité contrôlés par des paramètres de lissage. Les paramètres de lissage représentent les degrés de pénalisation souhaités. En pratique, ils sont inconnus et doivent être estimés tout comme les paramètres de régression. Dans le cadre de cette thèse, nous avons développé une méthode permettant de modéliser le taux de mortalité (en excès) à l’aide de splines de régression multidimensionnelles pénalisées. Des splines cubiques restreintes ont été utilisées comme splines unidimensionnelles ou bien comme bases marginales afin de former des splines multidimensionnelles par produits tensoriels. Le processus d’optimisation s’appuie sur deux algorithmes de Newton-Raphson emboîtés. L’estimation des paramètres de lissage est effectuée en optimisant un critère de validation croisée ou bien la vraisemblance marginale des paramètres de lissage par un algorithme de Newton-Raphson dit externe. A paramètres de lissage fixés, les paramètres de régression sont estimés par maximisation de la vraisemblance pénalisée par un algorithme de Newton-Raphson dit interne.Les bonnes propriétés de cette approche en termes de performances statistiques et de stabilité numérique ont ensuite été démontrées par simulation. La méthode a ensuite été implémentée au sein du package R survPen. Enfin, la méthode a été appliquée sur des données réelles afin de répondre aux deux questions épidémiologiques suivantes : l’impact de la défavorisation sociale sur la mortalité en excès des patients atteints d’un cancer du col de l’utérus et l’impact de l’âge courant sur la mortalité en excès des patients atteints de sclérose en plaques / Time-to-event analysis is a very important field in statistics. When the event under study is death, the analysis focuses on the probability of survival of the subjects as well as on their mortality hazard, that is, on the "force of mortality" that applies at any given moment. Patients with a chronic disease usually have an excess mortality compared to a population that does not have the disease. Studying the excess mortality hazard associated with a disease and investigating the impact of prognostic factors on this hazard are important public health issues in epidemiology. From a statistical point of view, modelling the (excess) mortality hazard involves taking into account potentially non-linear and time-dependent effects of prognostic factors as well as their interactions. Regression splines (i.e., parametric and flexible piecewise polynomials) are ideal for dealing with such a complexity. They make it possible to build easily nonlinear effects and, regarding interactions between continuous variables, make it easy to form a multidimensional spline from two or more marginal one-dimensional splines. However, the flexibility of regression splines presents a risk of overfitting. To avoid this risk, penalized regression splines have been proposed as part of generalized additive models. Their principle is to associate each spline with one or more penalty terms controlled by smoothing parameters. The smoothing parameters represent the desired degrees of penalization. In practice, these parameters are unknown and have to be estimated just like the regression parameters. This thesis describes the development of a method to model the (excess) hazard using multidimensional penalized regression splines. Restricted cubic splines were used as one-dimensional splines or marginal bases to form multidimensional splines by tensor products. The optimization process relies on two nested Newton-Raphson algorithms. Smoothing parameter estimation is performed by optimizing a cross-validation criterion or the marginal likelihood of the smoothing parameters with an outer Newton-Raphson algorithm. At fixed smoothing parameters, the regression parameters are estimated by maximizing the penalized likelihood by an inner Newton-Raphson algorithm.The good properties of this approach in terms of statistical performance and numerical stability were then demonstrated through simulation. The described method was then implemented within the R package survPen. Finally, the method was applied to real data to investigate two epidemiological issues: the impact of social deprivation on the excess mortality in cervical cancer patients and the impact of the current age on the excess mortality in multiple sclerosis patients
98

L'analyse isogéométrique dans la physique des plasmas et l'électromagnétisme

Ratnani, Ahmed 07 October 2011 (has links) (PDF)
Introduite récemment par Hughes et ses collaborateurs, l'Analyse Isogéométrique connaît un large succès pour des problèmes principalement industriels. L'idée est de faciliter la communication entre la C.A.O et la simulation numérique, sans avoir à repasser à chaque fois par des mailleurs. Ainsi, les fonctions définissants la géométrie sont utilisées pour approcher les solutions des équations à dérivées partielles. L' application aux problèmes issues de l'électromagnétisme ont été motivé par les travaux de Buffa et ses collaborateurs à Pavie. Dans cette thèse, nous avons appliqué cette méthode pour résoudre des problèmes issues de la physique des plasmas. S'il est vrai que la géométrie n'est pas définie, l'analyse isogéométrique dans sa version isoparamétrique, nous fournit un outil très puissant pour approcher les domaines de calculs. Dans un plasma, ce domaine est défini par la résolution d'un problème d'équilibre (MHD equilibrium). A partir de là, différents modèles sont utilisés pour décrire le plasma: cinétiques ( gyrocinétique) ou fluides. Nous avons passé en revue les méthodes les plus classiques et plus utilisées afin de révéler l'intérêt de la méthode. Se basant sur la structure de produit tensoriel, nous avons développé des solveurs rapides pour la résolution de certains problèmes. Nous avons aussi dérivé un solveur, se basant sur les complexes de Hilbert, pour les équations de Maxwell en "time domain".
99

Robust Conic Quadratic Programming Applied To Quality Improvement -a Robustification Of Cmars

Ozmen, Ayse 01 October 2010 (has links) (PDF)
In this thesis, we study and use Conic Quadratic Programming (CQP) for purposes of operational research, especially, for quality improvement in manufacturing. In previous works, the importance and benefit of CQP in this area became already demonstrated. There, the complexity of the regression method Multivariate Adaptive Regression Spline (MARS), which especially means sensitivity with respect to noise in the data, became penalized in the form of so-called Tikhonov regularization, which became expressed and studied as a CQP problem. This was leading to the new method CMARS / it is more model-based and employs continuous, actually, well-structured convex optimization which enables the use of Interior Point Methods and their codes such as MOSEK. In this study, we are generalizing the regression problem by including uncertainty in the model, especially, in the input data, too. CMARS, recently developed as an alternative method to MARS, is powerful in overcoming complex and heterogeneous data. However, for MARS and CMARS method, data are assumed to contain fixed variables. In fact, data include noise in both output and input variables. Consequently, optimization problem&rsquo / s solutions can show a remarkable sensitivity to perturbations in the parameters of the problem. In this study, we include the existence of uncertainty in the future scenarios into CMARS and robustify it with robust optimization which is dealt with data uncertainty. That kind of optimization was introduced by Aharon Ben-Tal and Arkadi Nemirovski, and used by Laurent El Ghaoui in the area of data mining. It incorporates various kinds of noise and perturbations into the programming problem. This robustification of CQP with robust optimization is compared with previous contributions that based on Tikhonov regularization, and with the traditional MARS method.
100

Modelagem da produção de leite de cabras das raças Alpina e Saanen utilizando regressão aleatória / Modeling the milk yield of Alpine and Saanen goat breeds using random regression

Brito, Luiz Fernando 16 July 2012 (has links)
Made available in DSpace on 2015-03-26T13:42:26Z (GMT). No. of bitstreams: 1 texto completo.pdf: 1374116 bytes, checksum: ec67cf5421d0b5a96e6d3df6a4e026a0 (MD5) Previous issue date: 2012-07-16 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / A total of 17,356 test-day records from 642 first lactations of Alpine goats and 13,278 records of 470 Saanen goats from the herd of Universidade Federal de Viçosa were used in this study. The objective was to model variations in test-day milk yield during the first lactation of Alpine and Saanen goats by random regression model (RRM), using orthogonal Legendre polynomials and B-splines in order to obtain adequate and parsimonious models for the estimation of genetic parameters. The analyses were performed using a single-trait RRM, including the direct additive, permanent environmental and residual random effects. In addition, contemporary group, type of kidding, genetic grouping, kidding order and linear and quadratic effects of the age of goat at calving were included as fixed effects. The mean trend of milk yield, and the additive genetic and permanent environmental covariance functions were estimated by random regression using different orders of orthogonal Legendre polynomial (3 to 6) and on B-spline functions (linear, quadratic and cubic, with 3 to 6 knots) and was evaluated different number of classes of residual variances. The criteria for selection of the models were the logarithm of restricted maximum likelihood function, Akaike information criterion, Bayesian information criterion and the Likelihood Ratio Test (LRT). The covariance components and the genetic parameters were estimated by the restricted maximum likelihood method. The program WOMBAT was used in all genetic analysis. Heritability estimates presented similar trends for the both functions and the estimates were different for Alpine and Saanen breeds. RRM s with a higher number of parameters were more useful to describe the genetic variation of test-day milk yield throughout the lactation. The most suitable RRM for genetic evaluation of PLDC of Alpine goat breed is a quadratic B-spline function, with six knots, to the mean trend and curves of additive genetic effects, permanent environmental effects and five classes of residual variance. The most recommendable RRM for genetic evaluation of PLDC Saanen goat breed is a cubic B-spline function, with six knots, to all curves and five classes of residual variances. / Foram analisados 17.356 registros de produção de leite no dia do controle (PLDC) de 642 primeiras lactações de cabras da raça Alpina e 13.278 registros de 470 cabras da raça Saanen do rebanho da Universidade Federal de Viçosa. O objetivo foi modelar variações na PLDC durante a primeira lactação de cabras das raças Alpina e Saanen através de modelos de regressão aleatória (MRA), usando polinômios ortogonais de Legendre e B-splines para a obtenção de modelos mais parcimoniosos e adequados para a estimativa de parâmetros genéticos. As análises foram realizadas usando um MRA unicaracterístico, incluindo os efeitos aleatórios aditivo direto, ambiente permanente e residual. Além disso, o grupo contemporâneo, tipo de parto, agrupamento genético, e os efeitos linear e quadrático da idade da cabra ao parto foram incluídos como efeitos fixos. A curva média de produção de leite, e as funções de covariâncias dos efeitos genético aditivo e de ambiente permanente foram estimados por regressão aleatória utilizando polinômios ortogonais de Legendre de várias ordens (3 a 6) e funções B-spline (linear, quadrática e cúbica, com 3 a 6 nós). Além disso, foram avaliados números diferentes de classes de variâncias residuais. Os critérios para seleção dos modelos foram o logaritmo da função de máxima verossimilhança restrita, critério de informação de Akaike, critério de informação Bayesiano e o Teste da Razão de Verossimilhança (TRV). Os componentes de covariância e os parâmetros genéticos foram estimados pelo método da máxima verossimilhança restrita. O programa WOMBAT foi utilizado em todas as análises genéticas. As estimativas de herdabilidade apresentaram tendências semelhantes para ambas as funções e as estimativas foram diferentes para as raças Alpina e Saanen. Os modelos com um maior número de parâmetros foram mais eficazes para descrever a variação genética de PLDC ao longo da lactação. O MRA mais adequado para avaliação genética da PLDC de caprinos da raça Alpina é uma função B-spline quadrática, com seis nós, para a curva média e para as curvas de efeitos genéticos aditivos e de ambiente permanente e cinco classes de variância residual. O MRA mais recomendável para a avaliação genética da PLDC de caprinos da raça Saanen é uma função B-spline cúbica, com seis nós e cinco classes de variância residual, para todas as curvas.

Page generated in 0.3708 seconds