101 |
Uso de métodos bayesianos na análise de dados de sobrevida para pacientes com câncer na mama na presença de censuras, fração de cura e covariáveis / Use of Bayesian methods in the analysis of survival data for pacients with breast cancer in presence of censoring, cure fraction and covariatesTatiana Reis Icuma 10 June 2016 (has links)
Introdução: A maior causa de mortes no mundo é devido ao câncer, cerca de 8,2 milhões em 2012 (World Cancer Report, 2014). O câncer de mama é a forma mais comum de câncer entre as mulheres e a segunda neoplasia mais frequente, seguida do câncer de pele não melanoma, representando cerca de 25% de todos os tipos de cânceres diagnosticados. Modelos estatísticos de análise sobrevivência podem ser úteis para a identificação e compreensão de fatores de risco, fatores de prognóstico, bem como na comparação de tratamentos. Métodos: Modelos estatísticos de análise de sobrevivência foram utilizados para evidenciar fatores que afetam os tempos de sobrevida livre da doença e total de um estudo retrospectivo realizado no Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo, Ribeirão Preto, referente a 54 pacientes com câncer de mama localmente avançado com superexpressão do Her-2 que iniciaram a quimioterapia neoadjuvante associada com o medicamento Herceptin® (Trastuzumabe) no período de 2008 a 2012. Utilizaram-se modelos univariados com distribuição Weibull sem e com a presença de fração de cura sob o enfoque frequentista e bayesiano. Utilizou-se modelos assumindo uma estrutura de dependência entre os tempos observados baseados na distribuição exponencial bivariada de Block Basu, na distribuição geométrica bivariada de Arnold e na distribuição geométrica bivariada de Basu-Dhar. Resultados: Resultados da análise univariada sem a presença de covariáveis, o modelo mais adequado às características dos dados foi o modelo Weibull com a presença de fração de cura sob o enfoque bayesiano. Ao incorporar nos modelos as covariáveis, observou-se melhor ajuste dos modelos com fração de cura, que evidenciaram o estágio da doença como um fator que afeta a sobrevida livre da doença e total. Resultados da análise bivariada sem a presença de covariáveis estimam médias de tempo de sobrevida livre da doença para os modelos Block e Basu, Arnold e Basu-Dhar de 108, 140 e 111 meses, respectivamente e de 232, 343, 296 meses para o tempo de sobrevida total. Ao incorporar as covariáveis, os modelos evidenciam que o estágio da doença afeta a sobrevida livre da doença e total. No modelo de Arnold a covariável tipo de cirurgia também se mostrou significativa. Conclusões: Os resultados do presente estudo apresentam alternativas para a análise de sobrevivência com tempos de sobrevida na presença de fração de cura, censuras e várias covariaveis. O modelo de riscos proporcionais de Cox nem sempre se adequa às características do banco de dados estudado, sendo necessária a busca de modelos estatísticos mais adequados que produzam inferências consistentes. / Introduction: The leading worldwide cause of deaths is due to cancer, about 8.2 million in 2012 (World Cancer Report, 2014). Breast cancer is the most common form of cancer among women and the second most common cancer, followed by non-melanoma skin cancer, accounting for about 25% of all diagnosed types of cancers. Statistical analysis of survival models may be useful for the identification and understanding of risk factors, prognostic factors, and the comparison treatments. Methods: Statistical lifetimes models were used to highlight the important factors affecting the disease-free times and the total lifetime about a retrospective study conducted at the Hospital das Clinicas, Faculty of Medicine, University of São Paulo, Ribeirão Preto, referring to 54 patients with locally advanced breast cancer with Her-2 overexpression who started neoadjuvant chemotherapy associated with the drug Herceptin® (Trastuzumab) in the time period ranging from years 2008 to 2012. It was used univariate models assuming Weibull distribution with and without the presence of cure fraction under the frequentist and Bayesian approaches. It was also assumed models assuming a dependence structure between the observed times based on the bivariate Block-Basu exponential distribution, on the bivariate Arnold geometric distribution and on the bivariate Basu-Dhar geometric distribution. Results: From the results of the univariate analysis without the presence of covariates, the most appropriate model for the data was the Weibull model in presence of cure rate under a Bayesian approach. By incorporating the covariates in the models, there was best fit of models with cure fraction, which showed that the stage of the disease was a factor affecting disease-free survival and overall survival. From the bivariate analysis results without the presence of covariates, the estimated means for free survival time of the disease assuming the Block- Basu, Arnold and Basu-Dhar models were respectively given by 108, 140 and 111; for the overall survival times the means were given respectively by, 232, 343, 296 months. In presence of covariates, the models showed that the stage of the disease affects the disease-free survivals and the overall survival times. Assuming the Arnold model, the covariate type of surgery also was significant. Conclusions: The results of this study present alternatives for the analysis of survival times in the presence of cure fraction, censoring and covariates. The Cox proportional hazards model not always is apropriate to the database characteristics studied, which requires the search for more suitable statistical models that produce consistent inferences.
|
102 |
Aplicações de mecânica estatística a especiação simpátrica e inferência aproximativa / Applications of statistical mechanics to sympatric speciation and aproximative inferenceRibeiro, Fabiano Lemes 19 June 2009 (has links)
Apresenta-se nesta tese os resultados de aplicações do formalismo da Mecânica Estatística em dois problemas independentes. O primeiro diz respeito a um modelo para Evolução do Acasalamento Preferencial no processo de Especiação Simpátrica; enquanto que o segundo refere-se ao desenvolvimento de um algoritmo de aprendizado por meio de Inferência Aproximativa. No problema biológico estudado, cada indivíduo em um modelo de agentes é composto por dois traços. Enquanto um é responsável pela ecologia do indivíduo, o outro dita uma aparência física descorrelacionada com a adaptabilidade. Esses traços são expressos por diferentes loci que estão ligados entre si por uma taxa de recombinação. O modelo inclui também a possibilidade de evolução da preferência sexual dos indivíduos. Foi construído para esse modelo um diagrama de fases no espaço dos parâmetros que descrevem o ambiente como, por exemplo, quantidades de recursos e deficiência do indivíduo híbrido. Foram encontradas três fases de equilíbrio: (i) emergência de Acasalamento Preferencial; (ii) extinção de um dos alelos do locus responsável pela ecologia e (iii) equilíbrio Hardy-Weinberg. Foi verificado que o acasalamento preferencial pode emergir ou mesmo ser perdido (e vice-versa) em resposta a mudanças no ambiente. Além disso, o sistema apresenta memória característica típica de transições de primeira ordem, o que permitiu a descrição desse sistema biológico por meio do arcabouço da Mecânica Estatística. Em relação à Inferência Aproximativa, está-se interessado na construção de um algoritmo de aprendizado supervisionado por meio da técnica de Propagação de Expectativas. Mais especificamente, pretende-se inferir os parâmetros que compõem um Perceptron Professor a partir do conjunto de pares - entradas e saídas - que formam o conjunto de dados disponíveis. A estimativa desses parâmetros será feita pela substituição de uma distribuição Posterior original, geralmente intratável, por uma distribuição aproximativa tratável. o algoritmo Propagação de Expectativas foi adotado para a atualização, passo a passo, dos termos que compõem essa distribuição aproximativa. Essa atualização deve ser repetida até que a convergência seja atingida. Utilizando o Teorema do Limite Central e o método de Cavidade, foi possível obter um algoritmo genérico e que apresentou desempenho bastante evidente em dois modelos estudados: o modelo do Perceptron Binário e o modelo do Perceptron Gaussiano, com desempenho ótimo em ambos os casos. / This thesis presents applications of the framework of Statistical Mechanics to two independent problems. The first corresponds to a computational model for the evolution of Assortative Mating in the Sympatric Speciation process; and the second a learning algorithm built by means of a Bayesian Inference approach. In the biological problem each individual in an agent-based model is composed of two traits. One trait, called the ecological trait, is directly related with the fitness; the other, called the marker trait, has no bearing on the fitness. The traits are determined by different loci which are linked by a recombination rate. There is also the possibility of evolution of mating preferences, which are inherited from the mother and subject to random variations. The study of the phase diagram in the spa e of parameters describing the environment (like carrying capacity and disruptive selection) reveals the existence of three phases: (i) assortative mating; (ii) extinction of one allele from ecological loci; and (iii) Hardy-Weinberg equilibrium. It was verifed that the assortative mating an emerge or even be lost (and vice-versa) acording with the environmental hanges. Moreover, the system shows memory of the initial condition, characterising a hysteresis. Hysteresis is the signature of first order phase transition, which allows the description of the system by means of the Statistical Mechanics framework. In relation to the Bayesian Inference, a supervised learning algorithm was constructed by means of the Expectation Propagation approach. The idea is to estimate the parameters which compose a Teacher Perceptron by the substitution of the original posterior distribution, intra table, by a tractable approximative distribution. The step-by-step update of the terms composing the approximative distribution was performed by using the Expectation Propagation algorithm. The update must be repeated until the convergence ocurrs. Using the Central Limit Theorem and the Cavity Approah, it was possible to get a generic algorithm that has shown a very good performance in two application scenarios: The Binary Perceptron Model and the Gaussian Perceptron Model.
|
103 |
Statistical Mechanics of Economic Systems / Mecânica estatística de sistemas econômicosAndrade, João Pedro Jericó de 25 November 2016 (has links)
In this thesis, we explore the potential of employing Statistical Mechanics techniques to study economic systems, showing how such an approach could greatly contribute by allowing the study of very complex systems, exhibiting rich behavior such as phase transitions, criticality and glassy phases, which are not found in the usual economic models. We exemplify this potential via three specific problems: (i) a Statistical Mechanics framework for dealing with irrational consumers, in which the rationality is set by a parameter akin to a temperature which controls deviations from the maximum of his utility function. We show that an irrational consumer increases the economic activity while decreasing his own utility; (ii) an analysis using Information Theory of real world Input-Output matrices, showing that the aggregation methods used to build them most likely underestimated the dependency of the production chain on a few crucial sectors, having important consequences for the analysis of these data; (iii) a zero intelligence model in which agents with a power law distributed initial wealth randomly trade goods of different prices. We show that this initial inequality generates a higher inequality in free cash, reducing the overall liquidity in the economy and slowing down the number of trades. We discuss the insights obtained with these three problems, along with their relevance for the larger picture in Economics. / Nesta tese, exploramos o potencial de ser usar técnicas de Mecânica Estatística para o estudo de sistemas econômicos, mostrando como tal abordagem pode contribuir significativamente ao permitir o estudo de sistemas complexos que exibem comportamentos ricos como transições de fase, criticalidade e fases vítreas, não encontradas normalmente em modelos econômicos tradicionais. Exemplificamos este potencial através de três problemas específicos: (i) um framework de Mecânica Estatística para lidar com consumidores irracionais, no qual a racionalidade é controlada pela temperatura do sistema, que define o tamanho dos desvios do estado de máxima utilidade. Mostramos que um consumidor irracional aumenta a atividade econômica ao mesmo tempo que diminui seu próprio bem estar; (ii) uma anáise usando Teoria da Informação de matrizes Input-Output de economias reais, mostrando que os métodos de agregação utilizados para construí-las provavelmente subestima a dependência das cadeias de produção em certos setores cruciais, com consequências importantes para a analíse destes dados; (iii) um modelo em que agentes com uma riqueza inicial distributida como lei de potências trocam aleatoriamente objetos com preços distintos. Mostramos que esta desigualdade inicial gera uma desigualdade ainda maior em dinheiro livre, reduzindo a liquidez total na economia e diminuindo a quantidade de trocas. Discutimos as consequências dos resultados destes três problemas, bem como sua relevância na perspectiva geral em Economia.
|
104 |
Diretrizes para aplicação de inferência Bayesiana aproximada para modelos lineares generalizados e dados georreferenciados / Approximate Bayesian inference guidelines for generalized linear models and georeferenced dataFrade, Djair Durand Ramalho 15 August 2018 (has links)
Neste trabalho, exploramos e propusemos diretrizes para a análise de dados utilizando o método Integrated Nested Laplace Approxímation - INLA para os modelos lineares generalizados (MLG\'s) e modelos baseados em dados georreferenciados. No caso dos MLG\'s, verificou-se o impacto do método de aproximação utilizado para aproximar a distribuição a posteriori conjunta. Nos dados georreferenciados, avaliou-se e propôs-se diretrizes para construção das malhas, passo imprescindível para obtenção de resultados mais precisos. Em ambos os casos, foram realizados estudos de simulação. Para selecionar os melhores modelos, foram calculadas medidas de concordância entre as observações e os valores ajustados pelos modelos, por exemplo, erro quadrático médio e taxa de cobertura. / In this work, we explore and propose guidelines for data analysis using the Integrated Nested Laplace Approximation (INLA) method for generalized linear models (GLM) and models based on georeferenced data. In the case of GLMs, the impact of the approximation method used to approximate the a posteriori joint distribution was verified. In the georeferenced data, we evaluated and proposed guidelines for the construction of the meshes, an essential step for obtaining more precise results. In both cases, simulation studies were performed. To select the best models, agreement measures were calculated between observations and models, for example, mean square error and coverage rate.
|
105 |
Um estudo comparativo entre abordagens Bayesianas à testes de hipóteses / A comparative study of Bayesian approaches to hypothesis testingMelo, Brian Alvarez Ribeiro de 04 March 2013 (has links)
Neste trabalho, consideramos uma população finita composta por N elementos, sendo que para cada unidade está associado um número (ou vetor) de tal forma que temos para a população o vetor de valores X = (X1, ... ,XN), onde Xi denota a característica de interesse do i-ésimo indivíduo da população, que suporemos desconhecida. Aqui assumimos que a distribuição do vetor X é permutável e que existe disponível uma amostra composta por n < N elementos. Os objetivos são a construção de testes de hipóteses para os parâmetros operacionais, através das distribuições a posteriori obtidas sob a abordagem preditivista para populações finitas e a comparação com os resultados obtidos a partir dos modelos Bayesianos de superpopulação. Nas análises consideramos os modelos Bernoulli, Poisson, Uniforme Discreto e Multinomial. A partir dos resultados obtidos, conseguimos ilustrar situações nas quais as abordagens produzem resultados diferentes, como prioris influenciam os resultados e quando o modelo de populações finitas apresenta melhores resultados que o modelo de superpopulação. / We consider a finite population consisting of N units and to each unit there is a number (or vector) associated such that we have for the population the vector of values X = (X1, ..., XN), where Xi denotes the characteristic of interest of the i-th individual in the population, which we will suppose unknown. Here we assume that the distribution of the vector X is exchangeable and that there is available a sample of size n < N from this population. The goals are to derive tests of hipotheses for the operational parameters through the corresponding posterior distributions obtained under the predictivistic approach for finite populations and to compare them with the results obtained from the usual Bayesian procedures of superpopulation models. In the analysis, the following models are considered: Bernoulli, Poisson, Discrete Uniform and Multinomial. From the results, we can identify situations in which the approaches yield dierent results, how priors influence the results of hipothesis testing and when the finite population model performs better than the superpopulation one.
|
106 |
Aprimoramento de método para inferência de espectro de ondas a partir de movimentos de sistemas oceânicos. / Enhancement of method for wave spectrum inference from ocean systems motions.Bispo, Iuri Baldaconi da Silva 09 November 2011 (has links)
Este trabalho envolve dois diferentes aspectos da estimação de espectros direcionais de onda a partir de movimentos de 1a ordem da embarcação. Sendo a estimação do espectro de ondas feita por meio de um método Bayesiano, existe a necessidade da calibração dos hiperparâmetros derivados da modelagem Bayesiana. O primeiro assunto abordado é a determinação de uma metodologia de calibração dos hiperparâmetros necessários à estimação do espectro direcional de ondas. Desenvolve-se ao longo deste uma primeira análise de um método aplicável a qualquer embarcação do tipo FPSO para a determinação a priori de valores de dois hiperparâmetros de controle da suavização da estimativa. Obtém-se resultados indicativos de que é possível definir valores destes hiperparâmetros dependentes de quantidades observáveis como calado da embarcação e período das ondas, de modo que os erros de estimação ainda se mantém muito próximos aos encontrados por valores ótimos dos hiperparâmetros. Isto leva à conclusão de que na abordagem atual, com valores fixos a cada calado, erros excessivos e desnecessários podem ocorrer no processo de estimação. O segundo tema trata da estimação paramétrica de espectros, utilizando modelos paramétricos de descrição de espectros como forma de obtenção de estatísticas de mar. Abordam-se também os assuntos de mares cruzados, donde se faz necessária a identificação da bimodalidade dos espectros para a estimação correta das estatísticas de mar. / In this work, two differents aspects of directional wave spectra estimation from 1st order ship motions are presented. As the estimation of wave spectrum is made by means of a Bayesian method, it is necessary to calibrate the hyperparameters derived from Bayesian modeling. The first addressed subject is the determination of a calibration methodology of the hyperparameters needed for the directional wave spectrum estimation. It is developed through this work a first analysis of an applicable method to any vessel of FPSO type for the prior determination of values for this two hyperparameters depending on observable quantities, such as draft of the vessel and wave period, in such a way that the estimation errors are still very close to those found by optimum values of the hyperparameters. This leads to the conclusion that in the current approach excessive and unnecessary errors can occur on the estimation process. The second subject addresses the parametric estimation of spectra, using parametric models of spectrum description to acquire the sea statistics. For this purpose, it became necessary the study of crossed-sea states, which was employed in the bimodal spectrum identification for the correct estimation of sea statistics.
|
107 |
Classification of phylogenetic data via Bayesian mixture modellingLoza Reyes, Elisa January 2010 (has links)
Conventional probabilistic models for phylogenetic inference assume that an evolutionary tree,andasinglesetofbranchlengthsandstochasticprocessofDNA evolutionare sufficient to characterise the generating process across an entire DNA alignment. Unfortunately such a simplistic, homogeneous formulation may be a poor description of reality when the data arise from heterogeneous processes. A well-known example is when sites evolve at heterogeneous rates. This thesis is a contribution to the modelling and understanding of heterogeneityin phylogenetic data. Weproposea methodfor the classificationof DNA sites based on Bayesian mixture modelling. Our method not only accounts for heterogeneous data but also identifies the underlying classes and enables their interpretation. We also introduce novel MCMC methodology with the same, or greater, estimation performance than existing algorithms but with lower computational cost. We find that our mixture model can successfully detect evolutionary heterogeneity and demonstrate its direct relevance by applying it to real DNA data. One of these applications is the analysis of sixteen strains of one of the bacterial species that cause Lyme disease. Results from that analysis have helped understanding the evolutionary paths of these bacterial strains and, therefore, the dynamics of the spread of Lyme disease. Our method is discussed in the context of DNA but it may be extendedto othertypesof molecular data. Moreover,the classification scheme thatwe propose is evidence of the breadth of application of mixture modelling and a step forwards in the search for more realistic models of theprocesses that underlie phylogenetic data.
|
108 |
Estudo e aplicação de diferentes métodos para redução de falsos alarmes no monitoramento de frequência cardíacaBorges, Gabriel de Morais January 2015 (has links)
O monitoramento automático de pacientes é um recurso essencial em hospitais para o bom gerenciamento de cuidados médicos. Enquanto que alarmes devido a condições fisiológicas anormais são importantes para o rápido tratamento, estes também podem ser uma fonte de ruídos desnecessários devido a falsos alarmes causados por interferência eletromagnética ou movimentação de sensores. Uma fonte significativa de falsos alarmes é relacionada com a frequência cardíaca, o qual é disparado quando o ritmo cardíaco do paciente está muito rápido ou muito lento. Neste trabalho, a fusão de diferentes sensores fisiológicos é explorada para fazer uma estimativa robusta de frequência cardíaca. Um conjunto de algoritmos utilizando índice de variabilidade cardíaca, inferência bayesiana, redes neurais, lógica fuzzy e votador majoritário são propostos para fundir a informação do eletrocardiograma, pressão sanguínea e fotopletismograma. Três informações básicas são extraídas de cada sensor: variabilidade cardíaca, a diferença de frequência cardíaca entre os sensores e a análise espectral. Estas informações são usadas como entradas para os algoritmos. Quarenta gravações selecionadas do banco de dados MIMIC são usadas para validar o sistema. Finalmente, a frequência cardíaca calculada é comparada com as anotações do banco de dados. Resultados mostram que a fusão utilizando redes neurais apresenta a melhor redução de falsos alarmes de 89.33%, enquanto que a técnica bayesiana apresenta uma redução de 83.76%. A lógica fuzzy mostrou uma redução de 77.96%, o votador majoritário 61.25% e o índice de variabilidade cardíaca de 65.43%. Portanto, os algoritmos propostos mostraram bom desempenho e podem ser muito úteis em monitores de sinais vitais modernos. / Automatic patient monitoring is an essential resource in hospitals for good health care management. While alarms due to abnormal physiological conditions are important to deliver fast treatment, it can be also a source of unnecessary noise due to false alarms caused by electromagnetic interference or motion artifacts. One significant source of false alarms are those related to heart rate, which is triggered when the heart rhythm of the patient is too fast or too slow. In this work, the fusion of different physiological sensors is explored in order to create a robust heart rate estimation. A set of algorithms using heart rate variability index, bayesian inference, neural networks, fuzzy logic and majority voting is proposed to fuse information from electrocardiogram, arterial blood pressure and photoplethysmogram. Three basic informations are extracted from each source, namely, heart rate variability, the heart rate difference between sensors and the spectral analysis. These informations are used as inputs to the algorithms. Forty selected recordings from MIMIC database was used to validate the system. Finally, the calculated heart rate is compared with the database annotation. Results show that neural networks fusion presents the best false alarms reduction of 89.33%, while the bayesian technique presents an error reduction of 83.76%. Fuzzy logic showed an error reduction of 77.96%, majority voting 61.25% and the heart rate variability index 65.43%. Therefore, the proposed algorithms showed good performance and can be very useful for modern bedside monitors.
|
109 |
Modelos para a análise de dados de contagens longitudinais com superdispersão: estimação INLA / Models for data analysis of longitudinal counts with overdispersion: INLA estimationRocha, Everton Batista da 04 September 2015 (has links)
Em ensaios clínicos é muito comum a ocorrência de dados longitudinais discretos. Para sua análise é necessário levar em consideração que dados observados na mesma unidade experimental ao longo do tempo possam ser correlacionados. Além dessa correlação inerente aos dados é comum ocorrer o fenômeno de superdispersão (ou sobredispersão), em que, existe uma variabilidade nos dados além daquela captada pelo modelo. Um caso que pode acarretar a superdispersão é o excesso de zeros, podendo também a superdispersão ocorrer em valores não nulos, ou ainda, em ambos os casos. Molenberghs, Verbeke e Demétrio (2007) propuseram uma classe de modelos para acomodar simultaneamente a superdispersão e a correlação em dados de contagens: modelo Poisson, modelo Poisson-gama, modelo Poisson-normal e modelo Poisson-normal-gama (ou modelo combinado). Rizzato (2011) apresentou a abordagem bayesiana para o ajuste desses modelos por meio do Método de Monte Carlo com Cadeias de Markov (MCMC). Este trabalho, para modelar a incerteza relativa aos parâmetros desses modelos, considerou a abordagem bayesiana por meio de um método determinístico para a solução de integrais, INLA (do inglês, Integrated Nested Laplace Approximations). Além dessa classe de modelos, como objetivo, foram propostos outros quatros modelos que também consideram a correlação entre medidas longitudinais e a ocorrência de superdispersão, além da ocorrência de zeros estruturais e não estruturais (amostrais): modelo Poisson inacionado de zeros (ZIP), modelo binomial negativo inacionado de zeros (ZINB), modelo Poisson inacionado de zeros - normal (ZIP-normal) e modelo binomial negativo inacionado de zeros - normal (ZINB-normal). Para ilustrar a metodologia desenvolvida, um conjunto de dados reais referentes à contagens de ataques epilépticos sofridos por pacientes portadores de epilepsia submetidos a dois tratamentos (um placebo e uma nova droga) ao longo de 27 semanas foi considerado. A seleção de modelos foi realizada utilizando-se medidas preditivas baseadas em validação cruzada. Sob essas medidas, o modelo selecionado foi o modelo ZIP-normal, sob o modelo corrente na literatura, modelo combinado. As rotinas computacionais foram implementadas no programa R e são parte deste trabalho. / Discrete and longitudinal structures naturally arise in clinical trial data. Such data are usually correlated, particularly when the observations are made within the same experimental unit over time and, thus, statistical analyses must take this situation into account. Besides this typical correlation, overdispersion is another common phenomenon in discrete data, defined as a greater observed variability than that nominated by the statistical model. The causes of overdispersion are usually related to an excess of observed zeros (zero-ination), or an excess of observed positive specific values or even both. Molenberghs, Verbeke e Demétrio (2007) have developed a class of models that encompasses both overdispersion and correlation in count data: Poisson, Poisson-gama, Poisson-normal, Poissonnormal- gama (combined model) models. A Bayesian approach was presented by Rizzato (2011) to fit these models using the Markov Chain Monte Carlo method (MCMC). In this work, a Bayesian framework was adopted as well and, in order to consider the uncertainty related to the model parameters, the Integrated Nested Laplace Approximations (INLA) method was used. Along with the models considered in Rizzato (2011), another four new models were proposed including longitudinal correlation, overdispersion and zero-ination by structural and random zeros, namely: zero-inated Poisson (ZIP), zero-inated negative binomial (ZINB), zero-inated Poisson-normal (ZIP-normal) and the zero-inated negative binomial-normal (ZINB-normal) models. In order to illustrate the developed methodology, the models were fit to a real dataset, in which the response variable was taken to be the number of epileptic events per week in each individual. These individuals were split into two groups, one taking placebo and the other taking an experimental drug, and they observed up to 27 weeks. The model selection criteria were given by different predictive measures based on cross validation. In this setting, the ZIP-normal model was selected instead the usual model in the literature (combined model). The computational routines were implemented in R language and constitute a part of this work.
|
110 |
Construção de mapas de objetos para navegação de robôs. / Building object-based maps for robot navigation.Selvatici, Antonio Henrique Pinto 20 March 2009 (has links)
Como a complexidade das tarefas realizadas por robôs móveis vêm aumentando a cada dia, a percepção do robô deve ser capaz de capturar informações mais ricas do ambiente, que permitam a tomada de decisões complexas. Entre os possíveis tipos de informação que podem ser obtidos do ambiente, as informações geométricas e semânticas têm papéis importantes na maioria das tarefas designadas a robôs. Enquanto as informações geométricas revelam como os objetos e obstáculos estão distribuídos no espaço, as informações semânticas capturam a presença de estruturas complexas e eventos em andamento no ambiente, e os condensam em descrições abstratas. Esta tese propõe uma nova técnica probabilística para construir uma representação do ambiente baseada em objetos a partir de imagens capturadas por um robô navegando com uma câmera de vídeo solidária a ele. Esta representação, que fornece descrições geométricas e semânticas de objetos, é chamada O-Map, e é a primeira do gênero no contexto de navegação de robôs. A técnica de mapeamento proposta é também nova, e resolve concomitantemente os problemas de localização, mapeamento e classificação de objetos, que surgem quando da construção de O-Maps usando imagens processadas por detectores imperfeitos de objetos e sem um sensor de localização global. Por este motivo, a técnica proposta é chamada O-SLAM, e é o primeiro algoritmo que soluciona simultaneamente os problemas de localização e mapeamento usando somente odometria e o resultado de algoritmos de reconhecimento de objetos. Os resultados obtidos através da aplicação de O-SLAM em imagens processadas por uma técnica simples de detecção de objetos mostra que o algoritmo proposto é capaz de construir mapas que descrevem consistentemente os objetos do ambiente, dado que o sistema de visão computacional seja capaz de detectá-los regularmente. Em particular, O-SLAM é eficaz em fechar voltas grandes na trajetória do robô, e obtém sucesso mesmo se o sistema de detecção de objetos posuir falhas, relatando falsos positivos e errando a classe do objeto algumas vezes, consertando estes erros. Dessa forma, O-SLAM é um passo em direção à solução integrada do problema de localização, mapeamento e reconhecimento de objetos, a qual deve prescindir de um sistema pronto de reconhecimento de objetos e gerar O-Maps somente pela fusão de informações geométricas e visuais obtidas pelo robô. / As tasks performed by mobile robots are increasing in complexity, robot perception must be able to capture richer information from the environment in order to allow complex decision making. Among the possible types of information that can be retrieved from the environment, geometric and semantic information play important roles in most of the tasks assigned to robots. While geometric information reveals how objects and obstacles are distributed in space, semantic information captures the presence of complex structures and ongoing events from the environment and summarize them in abstract descriptions. This thesis proposes a new probabilistic technique to build an object-based representation of the robot surrounding environment using images captured by an attached video camera. This representation, which provides geometric and semantic descriptions of the objects, is called O-Map, and is the first of its kind in the robot navigation context. The proposed mapping technique is also new, and concurrently solves the localization, mapping and object classification problems arisen from building O-Maps using images processed by imperfect object detectors and no global localization sensor. Thus, the proposed technique is called O-SLAM, and is the first algorithm to solve the simultaneous localization and mapping problem using solely odometers and the output from object recognition algorithms. The results obtained by applying O-SLAM to images processed by simple a object detection technique show that the proposed algorithm is able to build consistent maps describing the objects in the environment, provided that the computer vision system is able to detect them on a regular basis. In particular, O-SLAM is effective in closing large loops in the trajectory, and is able to perform well even if the object detection system makes spurious detections and reports wrong object classes, fixing these errors. Thus, O-SLAM is a step towards the solution of the simultaneous localization, mapping and object recognition problem, which must drop the need for an off-the-shelf object recognition system and generate O-Maps only by fusing geometric and appearance information gathered by the robot.
|
Page generated in 0.0779 seconds