• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 175
  • 5
  • 3
  • 3
  • 3
  • 3
  • 3
  • Tagged with
  • 183
  • 97
  • 60
  • 59
  • 46
  • 40
  • 38
  • 38
  • 28
  • 27
  • 26
  • 26
  • 26
  • 23
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

A influência do gerador de som associado à amplicação convencional para o controle do zumbido: ensaio clínico cego randomizado / The influence of sound generator associated with conventional amplification for tinnitus control: randomized blind clinical trial

Gisele Munhoes dos Santos 19 September 2013 (has links)
Introdução: O zumbido é um sintoma que acomete cerca de 10% da população e pode prejudicar bastante a qualidade de vida, sendo considerado um importante problema de saúde pública mundial. Os modelos fisiopatológicos atuais do zumbido consideram que a compensação da perda auditiva poderia prevenir ou reverter mudanças no córtex auditivo central acerca do zumbido. Próteses auditivas com gerador de som integrado têm sido utilizadas como alternativa para potencializar o tratamento do zumbido nos pacientes com perda auditiva associada. Contudo, não existe evidência científica suficiente para suportar a superioridade do uso combinado de ferramentas em relação à amplificação convencional. Objetivo: verificar se o uso combinado de amplificação e gerador de som é mais eficaz do que somente amplificação na redução do incômodo com o zumbido em pacientes com zumbido e perda auditiva neurossensorial bilateral simétrica de grau leve a moderado. Métodos: 49 pacientes com zumbido e perda auditiva participaram de um ensaio clínico cego randomizado. Um grupo foi adaptado bilateralmente com uso combinado de amplificação e gerador de som e o outro grupo foi adaptado somente com amplificação. O incômodo com o zumbido foi medido pelo THI e escala numérica. As medidas psicoacústicas do zumbido também foram realizadas. As avaliações inicial e final foram realizadas por um avaliador cego. Resultados: Após três meses, no grupo da adaptação combinada, 62,5% dos pacientes apresentaram redução do incômodo com o zumbido e no grupo da adaptação simples, 78%, sem diferença estatisticamente significante entre os grupos. Para o THI, escala numérica e intensidade sonora de zumbido, detectou-se efeito do nível mínimo de mascaramento, em que maiores valores de nível mínimo de mascaramento estão associados a maior incômodo e maior intensidade do zumbido. Conclusão: O uso combinado de amplificação e gerador de som e o uso de amplificação convencional foram igualmente eficazes na redução do incômodo com o zumbido / Introduction: Tinnitus is a symptom that affects about 10% of the population and can greatly impair the quality of life. In fact, it is considered as an important public health problem worldwide. The current pathophysiological models of tinnitus consider that the compensation of hearing loss could prevent or reverse changes in the auditory cortex. Hearing aids with an integrated sound generator have been used as an alternative to enhance the treatment of tinnitus in patients with hearing loss. However, there is no sufficient scientific evidence to support the superiority of the combined use of sound generator and amplification compared to conventional amplification alone. Objective: to verify whether the combined use of amplification and sound generator is more effective than amplification alone in reducing bothersome tinnitus in patients with mild to moderate bilaterally symmetrical sensorineural hearing loss. Methods: 49 patients with tinnitus and hearing loss underwent a blind randomized clinical trial. One group was bilaterally fitted with the combined use of amplification and sound generator, and the other group was fitted with amplification alone. The tinnitus annoyance was measured by THI and numerical scale. Psychoacoustic measurements of tinnitus were also performed. The initial and final assessments were performed by a blinded evaluator. Results: After 3 months, 62.5% of patients showed a reduction in tinnitus annoyance in the group of the combined use of amplification and sound generator, and 78% in the group with amplification alone, with no significant difference between the groups. For THI, numeric scale and tinnitus loudness, it was detected an effect of the MML, where higher values of MML are associated with greater discomfort due to tinnitus. Conclusion: The combined use of amplification and sound generator and the use of conventional amplification alone were equally effective in reducing tinnitus annoyance
82

ALGORITMO DE LOCALIZAÇÃO UTILIZANDO O MÉTODO MMSE PARA O CÁLCULO DE POSIÇÃO DE NÓS SENSORES EM UMA REDE MÓVEL

Righi, Vitor Angelo Pozzatti 12 November 2013 (has links)
Conselho Nacional de Desenvolvimento Científico e Tecnológico / Applications that use sensor networks depends on knowing which position where each node is arranged in a particular geographic area. For this, there are algorithms that perform location calculations to estimate the exact position of each node. These algorithms use a different techniques and metrics to make it, for example: the measure of intensity of signal transmission between two nodes. In a sensor network with high density, it becomes infeasible to manually configuring each node positioning. To optimize this task, was developed different types of localization algorithms, with application in several areas, such as tracking, routing protocols, network density control, self organizing, monitoring remote areas, precision agriculture, among others. The basis for localization algorithms is to have a number of reference points, where from these, is calculated the position of each node. A network of sensors with a greater number of reference points, one can consider a network with higher accuracy for calculating the position of its nodes. This is due to being closer to the reference points. However, may result in a higher processing, thereby having a higher energy consumption. Developing a location algorithm with fewer reference points is not a trivial problem. This, because will increase the distance between the node and the reference point and may thereby inserting errors in the measurement of the criteria for the calculation of positioning. For calculation purposes, there are two types of algorithms, algorithms for centralized processing and distributed processing algorithms. Each with its advantages and disadvantages that will be discussed in this paper. The location algorithm is based on a calculation according to data coordinates in a coordinate system, which is raised according to the technique used to denote the distance between the sensor node and the reference points. The importance of knowing the location of each node, there is the need to know exactly where a particular event is occurring. For example, a forest that occupies a large geographic area is to principles of fire at different locations. / Aplicações que utilizam redes de sensores dependem de saber qual a posição onde cada nó encontra-se disposto em uma determinada área geográfica. Para isto, existem algoritmos de localização que efetuam cálculos a fim de estimar a posição exata de cada nó. Estes algoritmos utilizam-se de diferentes técnicas e medidas para realizar tal tarefa, como por exemplo: a medida de intensidade de sinal de transmissão entre dois nós. Em uma rede de sensores com alta densidade, torna-se inviável a configuração manual do posicionamento de cada nó. Para otimizar esta tarefa, foram desenvolvidos diferentes tipos de algoritmos de localização, com aplicação nas mais diversas áreas, como: rastreamento, protocolos de roteamento, controle de densidade da rede, auto organização, monitoramento de áreas remotas, agricultura de precisão, entre outros. A base para algoritmos de localização é possuir um número de pontos de referência, onde a partir destes, será calculado a posição de cada nó. Uma rede de sensores com maior número de pontos de referência, pode-se considerar uma rede com maior precisão para o cálculo de posição de seus nós. Isso, é devido aos nós estarem mais próximos aos pontos de referência. Porém, pode acarretar em um maior processamento, assim, tendo um maior consumo de energia. Projetar um algoritmo de localização com um menor número de pontos de referência não é um problema trivial. Isto porque irá aumentar a distância entre o nó e o ponto de referência, podendo desta forma, inserir erros na medição dos critérios para o cálculo de posicionamento. Para fins de cálculo, existem dois tipos de algoritmos, os algoritmos de processamento centralizado e os algoritmos de processamento distribuído. Cada um com suas vantagens e desvantagens que serão abordadas no decorrer deste trabalho. O algoritmo de localização baseia-se em um cálculo de acordo com as coordenadas em um dado sistema de coordenadas, que será levantada de acordo com a técnica utilizada para estipular a distância entre o nó sensor e os pontos de referência. A importância de conhecer a localização de cada nó, dá-se a necessidade de saber exatamente onde está ocorrendo determinado evento. Por exemplo, uma floresta que ocupa uma grande área geográfica está com princípios de incêndio em diferentes locais. É preciso avaliar quais são estes locais e qual significa um maior risco de destruição, para isto, é preciso saber a posição exata de cada local e assim tomar as devidas decisões de qual princípio deverá ser combatido primeiro. Neste caso, os nós sensores estariam estáticos, porém seria uma rede de sensores de alta densidade para cobrir uma área significativa de floresta. Pode-se também ter uma rede de sensores com nós móveis, onde então o objetivo é realizar o rastreamento da locomoção destes nós. A partir deste rastreamento, pode-se identificar o comportamento de um rebanho de animais por exemplo, verificando seu deslocamento, velocidade e direção. Com estes dados de comportamento, dependendo do animal pode-se deduzir se ele está doente, alimentando-se ou até mesmo morto se imóvel por um longo período de tempo.
83

Efeito da visita domiciliar e contato telefônico em reinternação hospitalar, visitas à emergência e qualidade de vida relacionada à saúde de pacientes com internação recente por insuficiência cardíaca agudamente descompensada ensaio clínico randomizado – HELEN II

Souza, Emiliane Nogueira de January 2012 (has links)
Introdução: Quadros repetidos de descompensação aguda da insuficiência cardíaca (IC) comprometem drasticamente a expectativa e qualidade de vida dos pacientes. Diferentes abordagens (monitorização por telefone, acompanhamento em clínicas de IC e visita domiciliar), para manejo dos pacientes logo após a alta hospitalar, indicam benefício em redução de readmissões em seis meses. A estratégia de visita domiciliar parece ser a mais promissora; contudo, permanece inexplorada em países em desenvolvimento. Objetivos: Verificar o efeito da visita domiciliar para pacientes com IC e internação por descompensação aguda na redução de visitas à emergência, reinternações hospitalares e melhora a qualidade de vida relacionada à saúde, comparada a pacientes sem esse acompanhamento. Métodos: Ensaio Clínico Randomizado conduzido em duas instituições de referência. A intervenção constituiu-se de educação sobre a IC, desenvolvimento de habilidades para o autocuidado, reconhecimento precoce de sinais e sintomas de descompensação e adesão ao tratamento. Pacientes do grupo intervenção receberam quatro visitas domiciliares intercaladas com quatro contatos telefônicos durante seis meses. Os desfechos foram visitas à emergência e reinternação hospitalar por IC descompensada e qualidade de vida relacionada à saúde. Resultados: Foram randomizados 252 pacientes, 123 no grupo intervenção (GI) e 129 no grupo controle (GC). A idade média geral foi de 62±13 anos, e a fração de ejeção média do ventrículo esquerdo de 29,6±8,9%. Em seis meses, foi observada a redução do número de pacientes que visitaram a emergência por IC descompensada no GI (19; 16,2% com 29 visitas) quando comparado ao GC (36; 28,5% com 52 visitas) com RR 0,56 (IC 95% 0,34-0,93), p=0,023. Em relação à reinternação hospitalar pelo mesmo motivo, não houve diferença significativa entre os grupos (GI 22; 18,8% vs GC 32; 25,3%; RR 0,73 IC 95% 0,45-1,19; p=0,206). Em relação à qualidade de vida, houve diferença significativa entre os escores dos grupos em favor da intervenção (GI 68[48-80] vs GC 68[20-68]; p=0,034) na percepção sobre o estado de saúde atual, comparado com um ano atrás e no domínio relacionado à dor (p=0,035). Conclusão: A abordagem de visita domiciliar por enfermeiras para pacientes com internação recente por IC aguda foi efetiva na redução de visitas à emergência, com impacto positivo na percepção do estado geral de saúde e dor.
84

Erdos-Ko-Rado em famílias aleatórias / Erdos-Ko-Rado in random families

Marcelo Matheus Gauy 11 July 2014 (has links)
Estudamos o problema de famílias intersectantes extremais em um subconjunto aleatório da família dos subconjuntos com exatamente k elementos de um conjunto dado. Obtivemos uma descrição quase completa da evolução do tamanho de tais famílias. Versões semelhantes do problema foram estudadas por Balogh, Bohman e Mubayi em 2009, e por Hamm e Kahn, e Balogh, Das, Delcourt, Liu e Sharifzadeh de maneira concorrente a este trabalho. / We studied the problem of maximal intersecting families in a random subset of the family of subsets with exactly k elements from a given set. We obtained a nearly complete description of the evolution of the size of such families. Similar versions of this problem have been studied by Balogh, Bohman and Mubayi in 2009, and by Hamm and Kahn, and Balogh, Das, Delcourt, Liu and Sharifzadeh concurrently with this work.
85

Ablação do istmo cavo-tricuspídeo para controle do flutter atrial: estudo prospectivo e randomizado comparando eficácia e segurança de cateter irrigado com cateter de 8 mm. / Cavotricuspid isthmus ablation for the treatment of atrial flutter: prospective randomized study comparing efficacy and safety of cooled-tip versus 8-mm-tip catheters.

Melo, Sissy Lara 21 February 2005 (has links)
O cateter irrigado foi comparado com o de 8 mm para ablação com radiofrequência do istmo cavo-tricuspídeo(Ist-CT). Foram randomizados 52 pacientes portadores de flutter atrial típico para ablação com cateter irrigado(grupoI) ou com cateter de 8 mm(grupo II). O bloqueio do Ist-CT foi obtido em 51 pacientes. Não houve diferença estatística em relação aos parâmetros de aplicação de RF entre os dois grupos. A ablação do Ist-CT com cateter irrigado versus cateter de 8mm foi igualmente eficaz e segura no controle do flutter atrial típico. / A 4-mm cooled tip catheter was compared to an 8-mm tip catheter to cavotricuspid isthmus(CTI) ablation. This prospective study enrolled 52 patients with typical atrial flutter to ablation with a closed cooled-tip catheter(group1) or an 8-mm tip catheter. Radiofrequency(RF) applications were performed to achieve complete CTI block wich was achieved in 51 patients. No significant differences were found in the procedure parameters. CTI ablation with an irrigated tip catheter versus an 8-mm tip catheter was equally effective and satisfactorily safe for ablation of typical atrial flutter.
86

Estudo prospectivo aleatorizado comparando a eficiência clínica dos métodos convencional ou piggyback na drenagem venosa do fígado transplantado / Prospective randomized trial comparing the clinical efficiency of conventional versus piggyback method in venous drainage of the transplanted liver

Brescia, Marília D'Elboux Guimarães 17 August 2007 (has links)
O objetivo desta pesquisa é comparar a eficiência clínica dos métodos convencional ou piggyback de transplante de fígado (Tx) na reconstrução do efluxo venoso do enxerto. Adicionalmente, pretende-se comparar a eficácia da drenagem venosa do enxerto hepático em diferentes modalidades do método piggyback. Foram estudados 32 pacientes submetidos a Tx pelo método convencional (n=15) ou piggyback (n=17). A pressão da veia hepática livre (PVHL) foi medida por catéter introduzido na veia hepática direita (VHD) do enxerto e a pressão venosa central (PVC) por catéter de Swan-Ganz. As medidas de pressão foram realizadas após a revascularização do enxerto. Gradiente PVHL-PVC superior a 3 mm Hg foi encontrado em 26,7% (4/15) no grupo convencional e 17,6% (3/17) no grupo piggyback (p=0,678). A mediana do gradiente PVC-PVHL foi de 2 mm Hg (0-8 mm Hg) no grupo convencional e 3 mm Hg (0-7 mm Hg) no piggyback (p=0,734). A creatinina sérica (Cr) foi medida no pré-operatório, do 1º ao 7º dia pós-operatório (PO) e no 14º, 21º e 28º PO. A Cr global pós-operatória, calculada pela área sob a curva da Cr vs tempo, foi significativamente maior no grupo convencional (2,04 ± 0,89 vs. 1,41 ± 0,44 mg/dL; p=0,02). Não houve diferença estatisticamente significante entre os grupos quanto à ocorrência de insuficiência renal aguda (p=0,120), definida como Cr maior ou igual a 2,0 mg/dL, quanto ao desenvolvimento de ascite maciça (p=1,000) e em relação à sobrevida dos pacientes (p=0,316). O gradiente PVHL-PVC foi significativamente menor nos casos em que o óstio da VHD é utilizado para reconstrução da via de drenagem venosa no Tx piggyback (1,4 ± 1,4 mm Hg vs. 3,9 ± 1,7 mm Hg; p=0,005). Conclui-se que pacientes submetidos a Tx pelos métodos convencional e piggyback apresentam resultados semelhantes em relação à drenagem venosa do enxerto, ao desenvolvimento de ascite e à sobrevida. Os valores de Cr no PO imediato são significantemente maiores no método convencional. Nos pacientes submetidos a Tx pelo método piggyback, o gradiente PVHL-PVC é menor nos casos em que o óstio da VHD do receptor é incluído para implantação da VCI do enxerto. / The aim of this study is to compare the clinical efficiency of hepatic venous outflow reconstruction in conventional and piggyback method of liver transplantation (LTx). The efficacy of the different types of reconstruction of venous drainage in the piggyback liver transplantation was analyzed by a second purpose. Thirty two patients submitted to LTx by conventional method (n=15) or piggyback method (n=17) were studied. Free hepatic venous pressure (FHVP) was measured using a catheter introduced in right hepatic vein (RHV). Central venous pressure (CVP) was obtained through Swan-Ganz catheter. Pressure measurements were performed after graft reperfusion. A FHVP-CVP gradient higher than 3 mm Hg was observed in 26.7% (4/15) of the conventional and in 17.6% (3/17) of the piggyback patients (p=0.678). Median FHVP-CPV gradient value was 2 mm Hg (0-8 mm Hg) in the conventional and 3 mm Hg (0-7 mm Hg) in the piggyback group (p=0.734). Serum creatinine (Cr) was measured on postoperative days 1 to 7, 14, 21 and 28. Postoperative overall Cr, calculated by area under the curve of Cr vs. time, was significantly higher in conventional group (2.04 ± 0.89 vs. 1.41 ± 0.44 mg/dL; p=0.02). There is no significant difference between the groups regarding occurrence of acute renal failure (p=0,120), defined by Cr maior ou igual a 2,0 mg/dL, development of massive ascites (p=1,000) and patient survival (p=0,316). In piggyback LTx patients, FHVP-CVP gradient was significantly lower when the ostium of the RHV of the recipient is used for venous drainage reconstruction (1.4 ± 1.4 mm Hg vs. 3.9 ± 1.7 mm Hg; p=0.005). In conclusion, patients submitted to conventional or piggyback method of LTx have similar results regarding venous outflow, development of ascites and survival. The postoperative Cr values are significantly higher in conventional method. Patients submitted to piggyback LTx present a lower FHVP-CVP gradient when the ostium of the RHV of the recipient is included for implantation of the graft inferior vena cava.
87

Precificação de opções exóticas utilizando CUDA / Exotic options pricing using CUDA

Calderaro, Felipe Boteon 17 October 2017 (has links)
No mercado financeiro, a precificação de contratos complexos muitas vezes apoia-se em técnicas de simulação numérica. Estes métodos de precificação geralmente apresentam baixo desempenho devido ao grande custo computacional envolvido, o que dificulta a análise e a tomada de decisão por parte do trader. O objetivo deste trabalho é apresentar uma ferramenta de alto desempenho para a precificação de instrumentos financeiros baseados em simulações numéricas. A proposta é construir uma calculadora eficiente para a precificação de opções multivariadas baseada no método de Monte Carlo, utilizando a plataforma CUDA de programação paralela. Serão apresentados os conceitos matemáticos que embasam a precificação risco-neutra, tanto no contexto univariado quanto no multivariado. Após isso entraremos em detalhes sobre a implementação da simulação Monte Carlo e a arquitetura envolvida na plataforma CUDA. No final, apresentaremos os resultados obtidos comparando o tempo de execução dos algoritmos. / In the financial market, the pricing of complex contracts often relies on numerical simulation techniques. These pricing methods generally present poor performance due to the large computational cost involved, which makes it difficult for the trader to analyze and make decisions. The objective of this work is to present a high performance tool for the pricing of financial instruments based on numerical simulations. The proposal is to present an efficient calculator for the pricing of multivariate options based on the Monte Carlo method, using the parallel programming CUDA platform. The mathematical concepts underlying risk-neutral pricing, both in the univariate and in the multivariate context, will be presented. After this we will detail the implementation of the Monte Carlo simulation and the architecture involved in the CUDA platform. At the end, we will present the results obtained comparing the execution time of the algorithms.
88

Inomogeneidades no espaço (desordem fraca; modelos de p-spins) e representação no espaço de Fock em problemas da física estatística / Inhomogeneities in space (weak disorder; spins p models) and the Fock space representation problems in statistical physics.

Muzy, Paulo de Tarso Artencio 24 June 2004 (has links)
Investigamos a relevância da desordem (fraca) correlacionada ao longo de D IND. 1 dimensões, em modelos ferromagnéticos de Potts sobre diversas redes hierárquicas (de d dimensões). Mostramos que para d-d IND. 1 = 1 a aproximação de desordem fraca produz um ponto fixo não físico, indicando que o comportamento crítico não pode ser descrito por um esquema perturbativo. Para d-d IND.1>1, a desordem é relevante, produzindo um ponto fixo fisicamente aceitável. Estabelecemos um critério de relevância baseado no expoente de crossover. Em seguida examinamos modelos aleatórios com interações competitivas de p spins esféricos, na versão de Curie-Weiss, que podem ser resolvidos sem o método de réplicas. Obtemos o diagrama de fases de modelos incluindo interações de 2 e 4 spins, supondo formas simples (de acordo com os esquemas de Hopfield ou de van Hemmen para os termos aleatórios. Mostramos que as escolhas de Hopfield ou de van Hemmen não mudam a topologia dos diagramas de fase. Finalmente, apresentamos uma revisão da construção do espaço de Fock para sistemas hamiltonianos, originalmente proposta por M Schöenberg a fim de obter a mecânica estatística clássica a partir da equação de Liouville. O mesmo tipo de formalismo pode ser aplicado à equação mestra de um sistemas estocástico. Como exemplo, deduzimos o operador de evolução do modelo de Glauber linear na representação número. / Investigamos a relevância da desordem (fraca) correlacionada ao longo de D IND. 1 dimensões, em modelos ferromagnéticos de Potts sobre diversas redes hierárquicas (de d dimensões). Mostramos que para d-d IND. 1 = 1 a aproximação de desordem fraca produz um ponto fixo não físico, indicando que o comportamento crítico não pode ser descrito por um esquema perturbativo. Para d-d IND.1>1, a desordem é relevante, produzindo um ponto fixo fisicamente aceitável. Estabelecemos um critério de relevância baseado no expoente de crossover. Em seguida examinamos modelos aleatórios com interações competitivas de p spins esféricos, na versão de Curie-Weiss, que podem ser resolvidos sem o método de réplicas. Obtemos o diagrama de fases de modelos incluindo interações de 2 e 4 spins, supondo formas simples (de acordo com os esquemas de Hopfield ou de van Hemmen para os termos aleatórios. Mostramos que as escolhas de Hopfield ou de van Hemmen não mudam a topologia dos diagramas de fase. Finalmente, apresentamos uma revisão da construção do espaço de Fock para sistemas hamiltonianos, originalmente proposta por M Schöenberg a fim de obter a mecânica estatística clássica a partir da equação de Liouville. O mesmo tipo de formalismo pode ser aplicado à equação mestra de um sistemas estocástico. Como exemplo, deduzimos o operador de evolução do modelo de Glauber linear na representação número.
89

"Ensaio clínico controlado randomizado aberto com metil-prednisolona em portadores de mielopatia associada ao HTLV-1 paraparesia espástica tropical" / Clinical controlled randomized open trial with methylprednisolone in myelopathy associated to HTLV-1 / tropical spastic paraparesis

Tauil, Carlos Bernardo 23 March 2004 (has links)
Estudamos a avaliação clínica de longo termo da resposta de pacientes com diagnóstico precoce de HAM/TSP ao tratamento com metil-prednisolona. Objetivamos pesquisar em relação ao tempo de evolução e apresentação da doença a eficácia deste tratamento. Realizamos o acompanhamento dos pacientes utilizando como parâmetros as escalas de critérios clínicos de Osame e Kurtzke e comparamos com um grupo controle que não recebeu este tipo de tratamento.Os pacientes do grupo experimental e do grupo controle que realizaram fisioterapia mantiveram-se estáveis ou obtiveram melhora de alguns sintomas da doença / We studied the long-term clinical response of patients with early diagnoses of HAM/TSP to treatment with methylprednisolone. The aim was to study this treatment in relation to the time of evolution and presentation of the disease and its effectiveness. The patients were followed using the scales of clinical criteria by Osame and Kurtzke, and compared with a control group of patients who did not receive this treatment type. We observed that patients in the experimental group and the control group, having been followed up with physiotherapy, either remained stable or presented improvement for some symptoms of the disease
90

Modelos lineares mistos para dados longitudinais em ensaio fatorial com tratamento adicional / Mixed linear models for longitudinal data in a factorial experiment with additional treatment

Rocha, Gilson Silvério da 09 October 2015 (has links)
Em experimentos agronômicos são comuns ensaios planejados para estudar determinadas culturas por meio de múltiplas mensurações realizadas na mesma unidade amostral ao longo do tempo, espaço, profundidade entre outros. Essa forma com que as mensurações são coletadas geram conjuntos de dados que são chamados de dados longitudinais. Nesse contexto, é de extrema importância a utilização de metodologias estatísticas que sejam capazes de identificar possíveis padrões de variação e correlação entre as mensurações. A possibilidade de inclusão de efeitos aleatórios e de modelagem das estruturas de covariâncias tornou a metodologia de modelos lineares mistos uma das ferramentas mais apropriadas para a realização desse tipo de análise. Entretanto, apesar de todo o desenvolvimento teórico e computacional, a utilização dessa metodologia em delineamentos mais complexos envolvendo dados longitudinais e tratamentos adicionais, como os utilizados na área de forragicultura, ainda é passível de estudos. Este trabalho envolveu o uso do diagrama de Hasse e da estratégia top-down na construção de modelos lineares mistos no estudo de cortes sucessivos de forragem provenientes de um experimento de adubação com boro em alfafa (Medicago sativa L.) realizado no campo experimental da Embrapa Pecuária Sudeste. Primeiramente, considerou-se uma abordagem qualitativa para todos os fatores de estudo e devido à complexidade do delineamento experimental optou-se pela construção do diagrama de Hasse. A incorporação de efeitos aleatórios e seleção de estruturas de covariâncias para os resíduos foram realizadas com base no teste da razão de verossimilhanças calculado a partir de parâmetros estimados pelo método da máxima verossimilhança restrita e nos critérios de informação de Akaike (AIC), Akaike corrigido (AICc) e bayesiano (BIC). Os efeitos fixos foram testados por meio do teste Wald-F e, devido aos efeitos significativos das fontes de variação associadas ao fator longitudinal, desenvolveu-se um estudo de regressão. A construção do diagrama de Hasse foi fundamental para a compreensão e visualização simbólica do relacionamento de todos os fatores presentes no estudo, permitindo a decomposição das fontes de variação e de seus graus de liberdade, garantindo que todos os testes fossem realizados corretamente. A inclusão de efeito aleatório associado à unidade experimental foi essencial para a modelagem do comportamento de cada unidade e a estrutura de componentes de variância com heterogeneidade, incorporada aos resíduos, foi capaz de modelar eficientemente a heterogeneidade de variâncias presente nos diferentes cortes da cultura da alfafa. A verificação do ajuste foi realizada por meio de gráficos de diagnósticos de resíduos. O estudo de regressão permitiu avaliar a produtividade de matéria seca da parte aérea da planta (kg ha-1) de cortes consecutivos da cultura da alfafa, envolvendo a comparação de adubações com diferentes fontes e doses de boro. Os melhores resultados de produtividade foram observados para a combinação da fonte ulexita com as doses 3, 6 e 9 kg ha-1 de boro. / Assays aimed at studying some crops through multiple measurements performed in the same sample unit along time, space, depth etc. have been frequently adopted in agronomical experiments. This type of measurement originates a dataset named longitudinal data, in which the use of statistical procedures capable of identifying possible standards of variation and correlation among measurements has great importance. The possibility of including random effects and modeling of covariance structures makes the methodology of mixed linear models one of the most appropriate tools to perform this type of analysis. However, despite of all theoretical and computational development, the use of such methodology in more complex designs involving longitudinal data and additional treatments, such as those used in forage crops, still needs to be studied. The present work covered the use of the Hasse diagram and the top-down strategy in the building of mixed linear models for the study of successive cuts from an experiment involving boron fertilization in alfalfa (Medicago sativa L.) carried out in the field area of Embrapa Southeast Livestock. First, we considered a qualitative approach for all study factors and we chose the Hasse diagram building due to the model complexity. The inclusion of random effects and selection of covariance structures for residues were performed based on the likelihood ratio test, calculated based on parameters estimated through the restricted maximum likelihood method, the Akaike\'s Information Criterion (AIC), the Akaike\'s information criterion corrected (AICc) and the Bayesian Information Criterion (BIC). The fixed effects were analyzed through the Wald-F test and we performed a regression study due to the significant effects of the variation sources associated with the longitudinal factor. The Hasse diagram building was essential for understanding and symbolic displaying regarding the relation among all factors present in the study, thus allowing variation sources and their degrees of freedom to be decomposed, assuring that all tests were correctly performed. The inclusion of random effect associated with the sample unit was essential for modeling the behavior of each unity. Furthermore, the structure of variance components with heterogeneity, added to the residues, was capable of modeling efficiently the heterogeneity of variances present in the different cuts of alfalfa plants. The fit was checked by residual diagnostic plots. The regression study allowed us to evaluate the productivity of shoot dry matter (kg ha-1) related to successive cuts of alfalfa plants, involving the comparison of fertilization with different boron sources and doses. We observed the best productivity in the combination of the source ulexite with the doses 3, 6 and 9 kg ha-1 boron.

Page generated in 0.1087 seconds