• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 490
  • 18
  • 5
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 523
  • 330
  • 267
  • 224
  • 120
  • 97
  • 86
  • 79
  • 74
  • 71
  • 69
  • 64
  • 60
  • 56
  • 50
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
261

Utilização de cópulas com dinâmica semiparamétrica para estimação de medidas de risco de mercado

Silveira Neto, Paulo Corrêa da January 2015 (has links)
A análise de risco de mercado, o risco associado a perdas financeiras resultantes de utilizações de preços de mercado, é fundamental para instituições financeiras e gestores de carteiras. A alocação dos ativos nas carteiras envolve decisões risco/retorno eficientes, frequentemente limitadas por uma política de risco. Muitos modelos tradicionais simplificam a estimação do risco de mercado impondo muitas suposições, como distribuições simétricas, correlações lineares, normalidade, entre outras. A utilização de cópulas exibiliza a estimação da estrutura de dependência dessas séries de tempo, possibilitando a modelagem de séries de tempo multivariadas em dois passos: estimações marginais e da dependência entre as séries. Neste trabalho, utilizou-se um modelo de cópulas com dinâmica semiparamétrica para medição de risco de mercado. A estrutura dinâmica das cópulas conta com um parâmetro de dependência que varia ao longo do tempo, em que a proposta semiparamétrica possibilita a modelagem de qualquer tipo de forma funcional que a estrutura dinâmica venha a apresentar. O modelo proposto por Hafner e Reznikova (2010), de dinâmica semiparamétrica, é comparado com o modelo sugerido por Patton (2006), que apresenta dinâmica paramétrica. Todas as cópulas no trabalho são bivariadas. Os dados consistem em quatro séries de tempo do mercado brasileiro de ações. Para cada um desses pares, utilizou-se modelos ARMA-GARCH para a estimação das marginais, enquanto a dependência entre as séries foi estimada utilizando os dois modelos de cópulas dinâmicas mencionados. Para comparar as metodologias estimaram-se duas medidas de risco de mercado: Valor em Risco e Expected Shortfall. Testes de hipóteses foram implementados para verificar a qualidade das estimativas de risco. / Market risk management, i.e. managing the risk associated with nancial loss resulting from market price uctuations, is fundamental to nancial institutions and portfolio managers. Allocations involve e cient risk/return decisions, often restricted by an investment policy statement. Many traditional models simplify risk estimation imposing several assumptions, like symmetrical distributions, the existence of only linear correlations, normality, among others. The modelling of the dependence structure of these time series can be exibly achieved by using copulas. This approach can model a complex multivariate time series structure by analyzing the problem in two blocks: marginal distributions estimation and dependence estimation. The dynamic structure of these copulas can account for a dependence parameter that changes over time, whereas the semiparametric option makes it possible to model any kind of functional form in the dynamic structure. We compare the model suggested by Hafner and Reznikova (2010), which is a dynamic semiparametric one, with the model suggested by Patton (2006), which is also dynamic but fully parametric. The copulas in this work are all bivariate. The data consists of four Brazilian stock market time series. For each of these pairs, ARMA-GARCH models have been used to model the marginals, while the dependences between the series are modeled by using the two methods mentioned above. For the comparison between these methodologies, we estimate Value at Risk and Expected Shortfall of the portfolios built for each pair of assets. Hypothesis tests are implemented to verify the quality of the risk estimates.
262

Modelagem de volatilidade via modelos GARCH com erros assimétricos: abordagem Bayesiana / Volatility modeling through GARCH models with asymetric errors: Bayesian approach

Fioruci, José Augusto 12 June 2012 (has links)
A modelagem da volatilidade desempenha um papel fundamental em Econometria. Nesta dissertação são estudados a generalização dos modelos autorregressivos condicionalmente heterocedásticos conhecidos como GARCH e sua principal generalização multivariada, os modelos DCC-GARCH (Dynamic Condicional Correlation GARCH). Para os erros desses modelos são consideradas distribuições de probabilidade possivelmente assimétricas e leptocúrticas, sendo essas parametrizadas em função da assimetria e do peso nas caudas, necessitando assim de estimar esses parâmetros adicionais aos modelos. A estimação dos parâmetros dos modelos é feita sob a abordagem Bayesiana e devido às complexidades destes modelos, métodos computacionais baseados em simulações de Monte Carlo via Cadeias de Markov (MCMC) são utilizados. Para obter maior eficiência computacional os algoritmos de simulação da distribuição a posteriori dos parâmetros são implementados em linguagem de baixo nível. Por fim, a proposta de modelagem e estimação é exemplificada com dois conjuntos de dados reais / The modeling of volatility plays a fundamental role in Econometrics. In this dissertation are studied the generalization of known autoregressive conditionally heteroscedastic (GARCH) models and its main principal multivariate generalization, the DCCGARCH (Dynamic Conditional Correlation GARCH) models. For the errors of these models are considered distribution of probability possibility asymmetric and leptokurtic, these being parameterized as a function of asymmetry and the weight on the tails, thus requiring estimate the models additional parameters. The estimation of parameters is made under the Bayesian approach and due to the complexities of these models, methods computer-based simulations Monte Carlo Markov Chain (MCMC) are used. For more computational efficiency of simulation algorithms of posterior distribution of the parameters are implemented in low-level language. Finally, the proposed modeling and estimation is illustrated with two real data sets
263

Uma abordagem de múltiplos aspectos para alinhamento de ontologias baseado em Cluster Ensembles Bayesianos. / A multi-aspect approach for ontology matching based on Bayesian Cluster Ensembles.

Ippolito, André 22 May 2017 (has links)
Ontologias são especificações formais e explícitas usadas para descrever entidades de um domínio e seus relacionamentos. Estatísticas recentes do projeto Linked Open Data (LOD) indicam a existência de milhares de ontologias heterogêneas publicadas na nuvem do LOD, impondo um desafio para a integração de ontologias. Um passo fundamental na integração é o emparelhamento, processo que obtém elementos correspondentes entre ontologias heterogêneas. Visando superar o desafio de efetuar o emparelhamento em larga escala, desenvolveu-se uma estratégia baseada em clusterização das ontologias, a qual particiona as ontologias em subontologias, clusteriza as subontologias e restringe o processo de emparelhamento aos elementos de um mesmo cluster. Porém, observa-se que as soluções do estado da arte necessitam explorar mais os múltiplos aspectos que as subontologias possuem. As clusterizações de cada aspecto podem ser combinadas, por meio de um consenso. Cluster Ensembles é uma técnica que permite obter esse consenso. Além disso, estudos comparativos indicaram que o uso de Cluster Ensembles Bayesianos (CEB) resulta em uma clusterização de maior acurácia do que a obtida por outras técnicas de Cluster Ensembles. Um dos principais objetivos deste trabalho foi desenvolver uma nova metodologia de emparelhamento de ontologias baseada em clusterização consensual de múltiplos aspectos de comunidades, de forma a estruturar um arcabouço metodológico, por meio do qual diferentes técnicas e aspectos podem ser incorporados e testados. De acordo com a metodologia desenvolvida neste trabalho, inicialmente aplicaram-se técnicas de Detecção de Comunidades para particionar as ontologias. Em seguida, consideraram-se os seguintes aspectos das comunidades obtidas: terminológico, estrutural e extensional. Fez-se, separadamente, a clusterização das comunidades segundo cada aspecto e aplicaram-se diferentes técnicas de clusterização consensual para obter um consenso entre as clusterizações de cada aspecto: CEB, técnicas baseadas em similaridades e técnicas baseadas em métodos diretos. Para os diferentes consensos, o processo de emparelhamento foi feito apenas entre elementos das ontologias que pertencessem a um mesmo cluster consensual. As soluções consensuais destacaram-se nos estudos de caso efetuados quanto à precisão e cobertura dos alinhamentos, enquanto a solução baseada no aspecto terminológico destacou-se quanto ao valor de F-measure. A principal contribuição deste trabalho relaciona-se à metodologia desenvolvida, que constitui um arcabouço metodológico, por meio do qual diferentes aspectos e técnicas podem ser incorporados e testados quanto ao seu desempenho de clusterização e de alinhamento de ontologias. / Ontologies are formal and explicit specifications used to describe entities of a domain and its relationships. Recent statistics of the Linked Open Data (LOD) project indicate the existence of thousands of heterogeneous ontologies in the LOD cloud, posing a challenge to ontology integration. A fundamental step in integration is matching, a process that finds correspondent elements between heterogeneous ontologies. Aiming to overcome the challenge of large-scale ontology matching, researchers developed a strategy based on clustering, which divides ontologies into subontologies, clusters subontologies and restricts the matching process to elements of the same cluster. However, state-of-the-art solutions need to explore more the multiple aspects that subontologies have. Clustering solutions of each aspect can be combined, by means of a consensus. Cluster Ensembles is a technique that allows obtaining this consensus. Besides, comparative studies indicated that Bayesian Cluster Ensembles has higher clustering accuracy than other Cluster Ensembles techniques. One of the main goals of this work was to develop a new methodology for ontology matching based on consensus clustering of multiple aspects of communities, structuring a methodological framework that enables the use and tests of different techniques and aspects. According to the methodology adopted in this work, initially, Community Detection techniques were applied to partition the ontologies. In the sequence, the following aspects of the communities were considered: terminological, structural and extensional. Clustering according to each aspect was performed separately and different consensus clustering techniques were applied to obtain a consensus among clustering solutions of each aspect: Bayesian Cluster Ensembles, techniques based on similarities and techniques based on direct methods. For the different consensuses, matching was done only between elements of the two ontologies that belonged to the same consensual cluster. For the case studies applied in this work, the consensual solutions were a standout in precision and recall, while the terminological-based solution was a standout in F-measure. The main contribution of this work is related to the developed methodology, which constitutes a methodological framework, through which different aspects and techniques can be incorporated and tested concerning their ontology clustering and alignment performance.
264

Interações gênicas usando redes booleanas limiarizadas modeladas como um problema de satisfação de restrições / Gene interactions using thresholded boolean networks modeled as a constraint satsfaction problem

Andrade, Tales Pinheiro de 03 April 2012 (has links)
As reações químicas que resultam da expressão de genes são complexas e ainda não são total- mente compreendidas. Sabe-se que os genes enviam, recebem, e processam informações formando uma complexa rede de comunicação, mas a arquitetura e dinâmica destas redes não são totalmente conhecidas. Dessa forma, um problema importante é determinar como os genes se relacionam dentro da célula. Esse processo de determinar o relacionamento entre os genes é conhecido como inferência de redes gênicas. Uma das formas para representar o relacionamento entre os genes é usar modelos matemáticos e computacionais de Redes Gênicas. Em especial, um dos modelos de grande interesse é o de Redes Booleanas (BN - do inglês Boolean Networks), no qual os genes podem assumir dois estados, ativo ou inativo, se estão, respectivamente, expressos ou não. Estes estados podem variar ao longo do tempo, dependendo de como os genes se relacionam. Nosso interesse está em estudar um caso particular deste modelo, conhecido como Redes Booleanas Limiarizadas, onde apenas uma classe de funções booleanas é utilizada para construir as BNs. Para inferir as Redes Booleanas Limiarizadas, usamos um algoritmo constituído de dois passos. Primeiro, usamos o arcabouço do Problema de Satisfação de Restrições (CSP - do inglês Constraint Satisfaction Problem) para inferir conjuntos de soluções consistentes com uma dada série temporal de um conjunto de genes. Em seguida analisamos o comportamento dinâmico das soluções encon- tradas , filtrando conjuntos de soluções de maior interesse para testes práticos em laboratório. Usando o arcabouço do CSP, construímos um solver, usando a biblioteca Gecode,1 para inferência de redes consistentes, usando como entrada uma série temporal oriunda de dados de microarrays. Em seguida, através da simulação da dinâmica de uma amostra das redes encontradas no passo anterior, fomos capazes de determinar algumas restrições interessantes para filtrar o conjunto de redes. Aplicamos o nosso método para três conjuntos de dados: dois artificiais, e para validação, usamos uma série temporal de uma rede artificial conhecida na literatura. Com isso fomos capazes de inferir conjuntos de redes gênicas de possível interesse para testes em laboratório. / The chemical reactions that result in gene expression are complex and not yet fully understood. It is known that genes send, receive and process information to form a complex network of com- munication, but the architecture and dynamics of these networks are not fully known. Thus, one major problem is to determine how genes are linked within the cell. This process of determining the relationship between genes is known as inference of genetic networks. One way to represent the relationship between genes is to use mathematical and computer models of genetic networks. In particular, one of the models of great interest are Boolean Networks (BN), in which genes can take two states, active or inactive, if they are, respectively, expressed or not. These states may vary over time, depending on how genes are related. Our interest is in studying a case of this particular model, known as thresholded Boolean networks, where only one class of Boolean functions is used to build the GNs. To infer the thresholded Boolean networks, we use an algorithm that consists of two steps. First, we use the framework of Constraint Satisfaction Problem (CSP) to infer sets of solutions consistent with a time series of a given set of genes. Then analyze the dynamic behavior of the solutions, filtering sets of solutions with interest for practical tests in the laboratory. Using the framework of the CSP, we constructed a solver, using the library Gecode, 2 for in- ference of consistent networks, using as input a time series arising from microarrays data. Then, by simulating the dynamics of a sample of networks found in the previous step, we were able to determine some interesting constraints to filter the set of networks. We apply our method to three datasets: two artificial, and for validation, we use a time series of an artificial network known from literature. Thus we were able to infer genetic networks sets of possible interest for laboratory tests.
265

Estudo da interação genótipo x ambiente sobre a produção de leite em rebanhos da raça Parodo-Suiço no Brasil, utilizando inferência Bayesiana

REZENDE, Gisele do Socorro Amaral 04 August 2008 (has links)
Submitted by Edisangela Bastos (edisangela@ufpa.br) on 2014-02-03T21:25:02Z No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_EstudoInteracaoGenotipo.pdf: 386149 bytes, checksum: e9a5e00bd658830d2afbabddf3d52048 (MD5) / Approved for entry into archive by Ana Rosa Silva(arosa@ufpa.br) on 2014-02-04T15:21:14Z (GMT) No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_EstudoInteracaoGenotipo.pdf: 386149 bytes, checksum: e9a5e00bd658830d2afbabddf3d52048 (MD5) / Made available in DSpace on 2014-02-04T15:21:14Z (GMT). No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_EstudoInteracaoGenotipo.pdf: 386149 bytes, checksum: e9a5e00bd658830d2afbabddf3d52048 (MD5) Previous issue date: 2008 / Verifica a presença de heterogeneidade de variâncias sobre a produção de leite na primeira lactação de fêmeas da raça Pardo-Suíço e, seu impacto sobre a avaliação genética dos reprodutores, utilizando a inferência Bayesiana por meio de amostrador de Gibbs, foram utilizados 2981 registros referentes às produções de leite e idade da vaca ao parto, em primeiras lactações de vacas da raça Pardo-Suíço, distribuídos em 62 rebanhos. Os registros foram provenientes do serviço de controle leiteiro da Associação Brasileira de Criadores de Gado Pardo Suíço, com os partos ocorridos entre os anos de 1980 a 2002. Foram estabelecidas duas classes de desvio-padrão fenotípico para produção de leite. Posteriormente, os dados foram analisados desconsiderando e considerando as classes de desvio-padrão. As médias observadas e desvio-padrão para produção de leite nas classes de alto e baixo desviopadrão e em análise geral foram iguais a 5802,02 ± 1929,96, 4844,37 ± 1592,99, 5373,47 ± 1849,13, respectivamente. As médias posteriores para os componentes de variâncias foram maiores na classe de alto desvio-padrão. A herdabilidade obtida na classe de alto desviopadrão foi próxima do valor observado na análise geral e inferior ao valor encontrado na classe de baixo desvio-padrão fenotípico. A correlação genética para a produção de leite entre as classes de desvio-padrão foi igual a 0,48. As correlações de Pearson e Spearman entre os valores genéticos para a produção de leite obtidos na análise geral, com os valores obtidos em cada classe de desvio-padrão foram todas maiores que 0,80, quando se considerou todos os reprodutores. Porém, refinando a amostra de reprodutores verifica-se que, as correlações diminuem em magnitude. Existindo uma maior variabilidade nos rebanhos presentes na classe de alto desvio-padrão e, o impacto dessa heterogeneidade de variância sobre a avaliação genética de reprodutores, é pequeno, pois a fonte principal dessa heterogeneidade é decorrente de fatores genéticos confirmando a presença de heterogeneidade de variâncias. / Checks for the presence of heterogeneity of variances on milk production in first lactation of females of Brown Swiss and, impact on genetic evaluation of breeding, using the Bayesian inference using Gibbs sampling we used 2981 records on milk yield and age at calving in first lactation of Holstein Brown Swiss, distributed in 62 herds. The records were from the service of dairy control of the Brazilian Association of Breeders of Brown Swiss cattle, with births occurring between the years 1980 to 2002. Established two classes of phenotypic standard deviation for milk production. Subsequently, the data were analyzed ignoring and considering the classes of standard deviation. The means and standard deviations for milk production in the classes of high and low standard deviation and analysis were generally equal to 5802.02 ± 1929.96, 4844.37 ± 1592.99, 5373.47 ± 1849.13 respectively. The averages for the later components of variance were higher in the high standard deviation. The heritability obtained in the high standard deviation was close to the value observed in the overall analysis and less than the value found in the low phenotypic standard deviation. The genetic correlation for milk production between the classes of standard deviation was equal to 0.48. Pearson and Spearman correlation coefficients and coefficient between breeding values for milk production obtained in the overall analysis, with the values obtained for each class of standard deviation were all higher than 0.80, when considering all breeding. However, refining the sample of players shows that the correlations decrease in magnitude. If there is a greater variability present in flocks in the high standard deviation, and the impact of this heterogeneity of variance on genetic evaluation of breeding is small because the main source of this heterogeneity is due to genetic factors confirming the presence of heterogeneity of variances.
266

Desenvolvimento e aplicação do índice de desempenho energético da iluminação pública utilizando lógica nebulosa: estudo de caso da Cidade Universitária \"Armando de Salles Oliveira\" da Universidade de São Paulo. / Development and application of energy performance index of public lighting using fuzzy logic: a case study of University City \"Armando de Salles Oliveira\" of the Universidade de São Paulo.

César Augusto Palacio Dantas 04 November 2015 (has links)
A eficiência e a racionalidade energética da iluminação pública têm relevante importância no sistema elétrico, porque contribui para diminuir a necessidade de investimentos na construção de novas fontes geradoras de energia elétrica e nos desperdícios energéticos. Apresenta-se como objetivo deste trabalho de pesquisa o desenvolvimento e aplicação do IDE (índice de desempenho energético), fundamentado no sistema de inferência nebulosa e indicadores de eficiência e racionalidade de uso da energia elétrica. A opção em utilizar a inferência nebulosa deve-se aos fatos de sua capacidade de reproduzir parte do raciocínio humano, e estabelecer relação entre a diversidade de indicadores envolvidos. Para a consecução do sistema de inferência nebulosa, foram definidas como variáveis de entrada: os indicadores de eficiência e racionalidade; o método de inferência foi baseado em regras produzidas por especialista em iluminação pública, e como saída um número real que caracteriza o IDE. Os indicadores de eficiência e racionalidade são divididos em duas classes: globais e específicos. Os indicadores globais são: FP (fator de potência), FC (fator de carga) e FD (fator de demanda). Os indicadores específicos são: FU (fator de utilização), ICA (consumo de energia por área iluminada), IE (intensidade energética) e IL (intensidade de iluminação natural). Para a aplicação deste trabalho, foi selecionada e caracterizada a iluminação pública da Cidade Universitária \"Armando de Salles Oliveira\" da Universidade de São Paulo. Sendo assim, o gestor do sistema de iluminação, a partir do índice desenvolvido neste trabalho, dispõe de condições para avaliar o uso da energia elétrica e, desta forma, elaborar e simular estratégias com o objetivo de economizá-la. / The energy efficiency and rationality of public lighting have great importance in the electrical system, because it contributes to reduce the need for investment in building new sources of power and energy waste. It presented as objective of this work research development and application of IDE (Energy Performance Index), based on the fuzzy inference system and indicators of efficiency and rationality of use of electricity. The option to use the fuzzy inference is due to the facts of his ability to play part of human reasoning, and establish the relationship between indicators of diversity involved. To achieve the fuzzy inference system, it was defined as input variables: the efficiency and rationality indicators; the inference rules-based method was produced by expert in public lighting and as output a real number that characterizes the IDE. Efficiency and rationality indicators are divided into two classes: global and specific. The global indicators are: PF (power factor), FC (load factor) and FD (demand factor). Specific indicators are: FU (utilization factor), ICA (energy consumption per lit area), IE (energy intensity) and IL (daylight intensity). For the application of this work was selected and characterized the public lighting of the University City \"Armando de Salles Oliveira\" the University of São Paulo. Thus, the lighting system manager from the index developed in this work, have conditions to evaluate the use of electricity and thus prepare and simulate strategies in order to save it.
267

Controles por seleção e rejeição em discriminações condicionais em humanos e pombos / Select control and reject control in conditional discriminations in humans and pigeons

Edson Massayuki Huziwara 07 May 2010 (has links)
O estudo do responder controlado por relações de seleção ou rejeição insere-se no âmbito de investigações sobre as condições necessárias e suficientes para a formação de classes de estímulos equivalentes. O presente projeto pretendeu investigar aspectos relacionados ao tema em experimentos conduzidos com humanos e pombos. O primeiro experimento teve por objetivo avaliar se o registro do comportamento de olhar, em termos do tempo de observação dos estímulos e padrões de rastreamento exibidos ao longo do treino de discriminações condicionais, poderia fornecer medidas auxiliares sobre o processo de aquisição dos controles por seleção e rejeição durante o treino de discriminações condicionais em participantes humanos. Para esta finalidade era importante preparar uma situação experimental que, previsivelmente, gerasse diferenças nos resultados da aprendizagem discriminativa. Desse modo, seria possível verificar se o olhar poderia fornecer dicas adicionais sobre o estabelecimento do responder controlado por relações de seleção ou rejeição. Estudos anteriores mostraram que, em procedimentos de MTS, utilizar o teclado ou o mouse produz diferentes resultados nos testes de formação de classes. Objetivou-se assim verificar se diferentes topografias de resposta gerariam resultados diferentes na aquisição das discriminações condicionais e nos testes de formação de classes e, adicionalmente, se gerariam padrões de rastreamento diferentes em termos do tempo de observação dos estímulos. Estudantes universitários foram submetidos aos treinos de discriminações condicionais envolvendo seis conjuntos de estímulos (treinos EF, DE, CD, BC e AB) enquanto utilizam um equipamento que registrava o comportamento de olhar. Os resultados sugerem que diferentes topografias de respostas dão origem a diferentes padrões de rastreamento dos estímulos, entretanto não foram encontradas evidências de que tais padrões estariam relacionados ao estabelecimento de relações controladas por seleção ou rejeição. O segundo experimento teve por objetivo verificar a existência de relações de transitividade a partir de um treino condicional envolvendo estímulos temporais. Foram utilizados 12 pombos (Columba lívia) experimentalmente ingênuos e mantidos a 80% do seu peso ad lib. O equipamento utilizado consistia em uma caixa experimental padrão contendo três discos de respostas dispostos horizontalmente. Uma tentativa de treino ocorria da seguinte forma: a luz ambiente e o disco central de respostas eram acesos ao mesmo tempo. Se, por exemplo, o estímulo temporal programado fosse de 4 s, uma luz branca no disco central permanecia ligada por esse período. Após 4 s, a luz do disco central era apagada e cores eram apresentadas nos discos laterais. Uma bicada em qualquer um dos discos laterais encerrava a tentativa. Respostas corretas eram seguidas por um curto período de acesso ao comedouro e um IET de 20 s. Respostas incorretas eram seguidas pelo IET e pela reapresentação da mesma tentativa (procedimento de correção). O procedimento era composto por três fases de treino: nas tentativas do Treino A, os sujeitos aprenderam a bicar o disco iluminado pela cor vermelha diante do modelo 1 s e a bicar o disco iluminado pela cor verde diante de 4 s. Nas tentativas do Treino B, eles aprenderam a bicar o disco iluminado pela cor azul diante de 4 s e a bicar o disco iluminado pela cor amarela diante de 16 s. Durante o Treino C, os sujeitos aprenderam a bicar o disco iluminado pela cor azul diante do modelo verde e a bicar o disco iluminado pela cor amarela diante do modelo vermelho. Considerando os treinos A e B, as cores azul e verde foram relacionadas ao mesmo estímulo temporal 4 s, enquanto que as cores vermelho e amarelo não partilharam qualquer estímulo comum durante o treino anterior. Os resultados sugerem que as relações entre azul e verde foram adquiridas mais rapidamente, fato de parece comprovar a formação de relações de transitividade em fases ix anteriores do treino / The study of responding controlled by selection or rejection relations is within the scope of research on the necessary and sufficient conditions for the formation of equivalent stimuli classes. This project sought to investigate aspects related to this subject by performing experiments with humans and pigeons. The first experiment evaluated whether the record of eye movement - in terms of stimuli observation time and tracking patterns exhibited throughout conditional discrimination training - could provide ancillary measures on the acquisition process of control by selection rejection during the conditional discrimination training on human participants. For this purpose it was important to prepare an experimental situation that predictably generate differences in the discriminative learning outcomes. Thus, it would be possible to verify if the eye movement could provide additional clues about the establishment of responding controlled by relations of selection or rejection. Previous studies have shown that using the keyboard or mouse, in MTS tasks, produces different results in class formation testing. The objective was, therefore, to check if different response topographies would generate different results in conditional discrimination acquisition and class formation tests and, furthermore, if it would generate different tracking patterns, in terms of stimuli observation time. College students were subjected to conditional discriminations training involving six sets of stimuli (training EF, DE, CD, BC and AB) while using a device that recorded eye movement. Results suggest that different response topographies originate different patterns of stimulus tracking, however there was no evidence that such patterns referred to the establishment of relations controlled by selection or rejection. The second experiment sought verifying the existence of transitivity relations from conditional training involving temporal stimuli. Subjects were 12 pigeons (Columba livia) experimentally naive and kept at 80% of their ad lib weight. The equipment used consisted of a box containing three standard experimental response keys horizontally arranged. A training attempt occurred as follows: house light and the central key were lit at the same time. If, for example, the programmed interval was 4 s, a white light in the central key remained on for that period. After 4 s, the light from the central key was turned off and colors were presented on the side keys. A peck on either of the side keys ended the attempt. Correct answers were followed by a short period of access to the feeder and an ITI of 20 s. Incorrect answers were followed by the ITI and the repetition of the same trial (correction procedure). The procedure consisted of three phases of training: in Training A attempts, the subjects learned to choose the red colored key when the 1 s model was presented, and to choose the green colored key when the 4 s model was presented. In Training B attempts, they learned to choose the blue colored key when the 4 s model was presented and to choose the yellow colored key when the 16 s model was presented. During Training C, subjects learned to choose the blue colored key when green color was presented and to choose yellow colored key when red color model was presented. Regarding A and B trainings, blue and green stimuli were related to the same temporal stimulus 4 s, while red and yellow ones did not share any common temporal stimulus during earlier training. Results suggest that relations between blue and green were acquired more quickly, a fact that seems to demonstrate formation of transitivity relations in earlier stages of training
268

Metanálise caso a caso sob a perspectiva bayesiana / Meta-analysis case by case using Bayesian approach

Camila Bertini Martins 29 November 2013 (has links)
O papel da metanálise de sumarizar estudos publicados de mesmo objetivo, por meio da estatística, torna-se cada dia mais fundamental em razão do avanço da ciência e do desejo de usar o menor número de seres humanos em ensaios clínicos, desnecessários, em vários casos. A síntese das informações disponíveis facilita o entendimento e possibilita conclusões robustas. O aumento de estudos clínicos, por exemplo, promove um crescimento da necessidade de metanálises, fazendo com que seja necessário o desenvolvimento de técnicas sofisticadas. Desse modo, o objetivo deste trabalho foi propor uma metodologia bayesiana para a realização de metanálises. O procedimento proposto consiste na mistura das distribuições a posteriori do parâmetro de interesse de cada estudo pertencente à metanálise; ou seja, a medida metanalítica proposta foi uma distribuição de probabilidade e não uma simples medida-resumo. A metodologia apresentada pode ser utilizada com qualquer distribuição a priori e qualquer função de verossimilhança. O cálculo da medida metanalítica pode ser utilizado, desde problemas simples até os mais sofisticados. Neste trabalho, foram apresentados exemplos envolvendo diferentes distribuições de probabilidade e dados de sobrevivência. Em casos, em que se há uma estatística suficiente disponível para o parâmetro em questão, a distribuição de probabilidade a posteriori depende dos dados apenas por meio dessa estatística e, assim, em muitos casos, há a redução de dimensão sem perda de informação. Para alguns cálculos, utilizou-se o método de simulação de Metropolis-Hastings. O software estatístico utilizado neste trabalho foi o R. / The meta-analysis role of using Statistics to summarize published studies that have the same goal becomes more essential day by day, due to the improvement of Science and the desire of using the least possible number of human beings in clinical trials, which in many cases is unnecessary. By match the available information it makes the understanding easier and it leads to more robust conclusions. For instance, the increase in the number of clinical researches also makes the need for meta-analysis go higher, arising the need for developing sophisticated techniques. Then our goal in this work is to propose a Bayesian methodology to conduct meta-analysis. The proposed procedure is a blend of posterior distributions from interest parameters of each work we are considering when doing meta-analysis. As a consequence, we have a probability distribution as a meta-analytic measure, rather than just a statistical summary. The methodology we are presenting can be used with any prior probability distribution and any likelihood function. The calculation of the meta-analytic measure has its uses from small to more complex problems. In this work we present some examples that consider various probability distributions and also survival data. There is a sufficient statistic available for the parameter of interest, the posterior probability distribution depends on the data only through this statistic and thus, in many cases, we can reduce our data without loss of information. Some calculations were performed through Metropolis-Hastings simulation algorithm. The statistical software used in this work was the R.
269

Análise Bayesiana de modelos de mistura finita com dados censurados / Bayesian analysis of finite mixture models with censored data

Brian Alvarez Ribeiro de Melo 21 February 2017 (has links)
Misturas finitas são modelos paramétricos altamente flexíveis, capazes de descrever diferentes características dos dados em vários contextos, especialmente na análise de dados heterogêneos (Marin, 2005). Geralmente, nos modelos de mistura finita, todas as componentes pertencem à mesma família paramétrica e são diferenciadas apenas pelo vetor de parâmetros associado a essas componentes. Neste trabalho, propomos um novo modelo de mistura finita, capaz de acomodar observações censuradas, no qual as componentes são as densidades das distribuições Gama, Lognormal e Weibull (mistura GLW). Essas densidades são reparametrizadas, sendo reescritas em função da média e da variância, uma vez que estas quantidades são mais difundidas em diversas áreas de estudo. Assim, construímos o modelo GLW e desenvolvemos a análise de tal modelo sob a perspectiva bayesiana de inferência. Essa análise inclui a estimação, através de métodos de simulação, dos parâmetros de interesse em cenários com censura e com fração de cura, a construção de testes de hipóteses para avaliar efeitos de covariáveis e pesos da mistura, o cálculo de medidas para comparação de diferentes modelos e estimação da distribuição preditiva de novas observações. Através de um estudo de simulação, avaliamos a capacidade da mistura GLW em recuperar a distribuição original dos tempos de falha utilizando testes de hipóteses e estimativas do modelo. Os modelos desenvolvidos também foram aplicados no estudo do tempo de seguimento de pacientes com insuficiência cardíaca do Instituto do Coração da Faculdade de Medicina da Universidade de São Paulo. Nesta aplicação, os resultados mostram uma melhor adequação dos modelos de mistura em relação à utilização de apenas uma distribuição na modelagem dos tempos de seguimentos. Por fim, desenvolvemos um pacote para o ajuste dos modelos apresentados no software R. / Finite mixtures are highly flexible parametric models capable of describing different data features and are widely considered in many contexts, especially in the analysis of heterogeneous data (Marin, 2005). Generally, in finite mixture models, all the components belong to the same parametric family and are only distinguished by the associated parameter vector. In this thesis, we propose a new finite mixture model, capable of handling censored observations, in which the components are the densities from the Gama, Lognormal and Weibull distributions (the GLW finite mixture). These densities are rewritten in such a way that the mean and the variance are the parameters, since the interpretation of such quantities is widespread in various areas of study. In short, we constructed the GLW model and developed its analysis under the bayesian perspective of inference considering scenarios with censorship and cure rate. This analysis includes the parameter estimation, wich is made through simulation methods, construction of hypothesis testing to evaluate covariate effects and to assess the values of the mixture weights, computatution of model adequability measures, which are used to compare different models and estimation of the predictive distribution for new observations. In a simulation study, we evaluated the feasibility of the GLW mixture to recover the original distribution of failure times using hypothesis testing and some model estimated quantities as criteria for selecting the correct distribution. The models developed were applied in the study of the follow-up time of patients with heart failure from the Heart Institute of the University of Sao Paulo Medical School. In this application, results show a better fit of mixture models, in relation to the use of only one distribution in the modeling of the failure times. Finally, we developed a package for the adjustment of the presented models in software R.
270

Modelo bayesiano para dados de sobrevivência com riscos semicompetitivos baseado em cópulas / Bayesian model for survival data with semicompeting risks based on copulas

Elizabeth González Patiño 23 March 2018 (has links)
Motivados por um conjunto de dados de pacientes com insuficiência renal crônica (IRC), propomos uma nova modelagem bayesiana que envolve cópulas da família Arquimediana e um modelo misto para dados de sobrevivência com riscos semicompetitivos. A estrutura de riscos semicompetitivos é bastante comum em estudos clínicos em que dois eventos são de interesse, um intermediário e outro terminal, de forma tal que a ocorrência do evento terminal impede a ocorrência do intermediário mas não vice-versa. Nesta modelagem provamos que a distribuição a posteriori sob a cópula de Clayton é própria. Implementamos os algoritmos de dados aumentados e amostrador de Gibbs para a inferência bayesiana, assim como os criterios de comparação de modelos: LPML, DIC e BIC. Realizamos um estudo de simulação para avaliar o desempenho da modelagem e finalmente aplicamos a metodologia proposta para analisar os dados dos pacientes com IRC, além de outros de pacientes que receberam transplante de medula óssea. / Motivated by a dataset of patients with chronic kidney disease (CKD), we propose a new bayesian model including the Arquimedean copula and a mixed model for survival data with semicompeting risks. The structure of semicompeting risks appears frequently in clinical studies where two-types of events are involved: a nonterminal and a terminal event such that the occurrence of terminal event precludes the occurrence of the non-terminal event but not viceversa. In this work we prove that the posterior distribution is proper when the Clayton copula is used. We implement the data augmentation algorithm and Gibbs sampling for the bayesian inference, as well as some bayesian model selection criteria: LPML, BIC and DIC. We carry out a simulation study for assess the model performance and finally, our methodology is illustrated with the chronic kidney disease study.

Page generated in 0.0437 seconds