• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 177
  • 156
  • 30
  • 13
  • 12
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 467
  • 467
  • 176
  • 160
  • 88
  • 86
  • 60
  • 58
  • 54
  • 53
  • 53
  • 49
  • 49
  • 44
  • 43
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Classification of phylogenetic data via Bayesian mixture modelling

Loza Reyes, Elisa January 2010 (has links)
Conventional probabilistic models for phylogenetic inference assume that an evolutionary tree,andasinglesetofbranchlengthsandstochasticprocessofDNA evolutionare sufficient to characterise the generating process across an entire DNA alignment. Unfortunately such a simplistic, homogeneous formulation may be a poor description of reality when the data arise from heterogeneous processes. A well-known example is when sites evolve at heterogeneous rates. This thesis is a contribution to the modelling and understanding of heterogeneityin phylogenetic data. Weproposea methodfor the classificationof DNA sites based on Bayesian mixture modelling. Our method not only accounts for heterogeneous data but also identifies the underlying classes and enables their interpretation. We also introduce novel MCMC methodology with the same, or greater, estimation performance than existing algorithms but with lower computational cost. We find that our mixture model can successfully detect evolutionary heterogeneity and demonstrate its direct relevance by applying it to real DNA data. One of these applications is the analysis of sixteen strains of one of the bacterial species that cause Lyme disease. Results from that analysis have helped understanding the evolutionary paths of these bacterial strains and, therefore, the dynamics of the spread of Lyme disease. Our method is discussed in the context of DNA but it may be extendedto othertypesof molecular data. Moreover,the classification scheme thatwe propose is evidence of the breadth of application of mixture modelling and a step forwards in the search for more realistic models of theprocesses that underlie phylogenetic data.
72

Estudo e aplicação de diferentes métodos para redução de falsos alarmes no monitoramento de frequência cardíaca

Borges, Gabriel de Morais January 2015 (has links)
O monitoramento automático de pacientes é um recurso essencial em hospitais para o bom gerenciamento de cuidados médicos. Enquanto que alarmes devido a condições fisiológicas anormais são importantes para o rápido tratamento, estes também podem ser uma fonte de ruídos desnecessários devido a falsos alarmes causados por interferência eletromagnética ou movimentação de sensores. Uma fonte significativa de falsos alarmes é relacionada com a frequência cardíaca, o qual é disparado quando o ritmo cardíaco do paciente está muito rápido ou muito lento. Neste trabalho, a fusão de diferentes sensores fisiológicos é explorada para fazer uma estimativa robusta de frequência cardíaca. Um conjunto de algoritmos utilizando índice de variabilidade cardíaca, inferência bayesiana, redes neurais, lógica fuzzy e votador majoritário são propostos para fundir a informação do eletrocardiograma, pressão sanguínea e fotopletismograma. Três informações básicas são extraídas de cada sensor: variabilidade cardíaca, a diferença de frequência cardíaca entre os sensores e a análise espectral. Estas informações são usadas como entradas para os algoritmos. Quarenta gravações selecionadas do banco de dados MIMIC são usadas para validar o sistema. Finalmente, a frequência cardíaca calculada é comparada com as anotações do banco de dados. Resultados mostram que a fusão utilizando redes neurais apresenta a melhor redução de falsos alarmes de 89.33%, enquanto que a técnica bayesiana apresenta uma redução de 83.76%. A lógica fuzzy mostrou uma redução de 77.96%, o votador majoritário 61.25% e o índice de variabilidade cardíaca de 65.43%. Portanto, os algoritmos propostos mostraram bom desempenho e podem ser muito úteis em monitores de sinais vitais modernos. / Automatic patient monitoring is an essential resource in hospitals for good health care management. While alarms due to abnormal physiological conditions are important to deliver fast treatment, it can be also a source of unnecessary noise due to false alarms caused by electromagnetic interference or motion artifacts. One significant source of false alarms are those related to heart rate, which is triggered when the heart rhythm of the patient is too fast or too slow. In this work, the fusion of different physiological sensors is explored in order to create a robust heart rate estimation. A set of algorithms using heart rate variability index, bayesian inference, neural networks, fuzzy logic and majority voting is proposed to fuse information from electrocardiogram, arterial blood pressure and photoplethysmogram. Three basic informations are extracted from each source, namely, heart rate variability, the heart rate difference between sensors and the spectral analysis. These informations are used as inputs to the algorithms. Forty selected recordings from MIMIC database was used to validate the system. Finally, the calculated heart rate is compared with the database annotation. Results show that neural networks fusion presents the best false alarms reduction of 89.33%, while the bayesian technique presents an error reduction of 83.76%. Fuzzy logic showed an error reduction of 77.96%, majority voting 61.25% and the heart rate variability index 65.43%. Therefore, the proposed algorithms showed good performance and can be very useful for modern bedside monitors.
73

Modelos para a análise de dados de contagens longitudinais com superdispersão: estimação INLA / Models for data analysis of longitudinal counts with overdispersion: INLA estimation

Rocha, Everton Batista da 04 September 2015 (has links)
Em ensaios clínicos é muito comum a ocorrência de dados longitudinais discretos. Para sua análise é necessário levar em consideração que dados observados na mesma unidade experimental ao longo do tempo possam ser correlacionados. Além dessa correlação inerente aos dados é comum ocorrer o fenômeno de superdispersão (ou sobredispersão), em que, existe uma variabilidade nos dados além daquela captada pelo modelo. Um caso que pode acarretar a superdispersão é o excesso de zeros, podendo também a superdispersão ocorrer em valores não nulos, ou ainda, em ambos os casos. Molenberghs, Verbeke e Demétrio (2007) propuseram uma classe de modelos para acomodar simultaneamente a superdispersão e a correlação em dados de contagens: modelo Poisson, modelo Poisson-gama, modelo Poisson-normal e modelo Poisson-normal-gama (ou modelo combinado). Rizzato (2011) apresentou a abordagem bayesiana para o ajuste desses modelos por meio do Método de Monte Carlo com Cadeias de Markov (MCMC). Este trabalho, para modelar a incerteza relativa aos parâmetros desses modelos, considerou a abordagem bayesiana por meio de um método determinístico para a solução de integrais, INLA (do inglês, Integrated Nested Laplace Approximations). Além dessa classe de modelos, como objetivo, foram propostos outros quatros modelos que também consideram a correlação entre medidas longitudinais e a ocorrência de superdispersão, além da ocorrência de zeros estruturais e não estruturais (amostrais): modelo Poisson inacionado de zeros (ZIP), modelo binomial negativo inacionado de zeros (ZINB), modelo Poisson inacionado de zeros - normal (ZIP-normal) e modelo binomial negativo inacionado de zeros - normal (ZINB-normal). Para ilustrar a metodologia desenvolvida, um conjunto de dados reais referentes à contagens de ataques epilépticos sofridos por pacientes portadores de epilepsia submetidos a dois tratamentos (um placebo e uma nova droga) ao longo de 27 semanas foi considerado. A seleção de modelos foi realizada utilizando-se medidas preditivas baseadas em validação cruzada. Sob essas medidas, o modelo selecionado foi o modelo ZIP-normal, sob o modelo corrente na literatura, modelo combinado. As rotinas computacionais foram implementadas no programa R e são parte deste trabalho. / Discrete and longitudinal structures naturally arise in clinical trial data. Such data are usually correlated, particularly when the observations are made within the same experimental unit over time and, thus, statistical analyses must take this situation into account. Besides this typical correlation, overdispersion is another common phenomenon in discrete data, defined as a greater observed variability than that nominated by the statistical model. The causes of overdispersion are usually related to an excess of observed zeros (zero-ination), or an excess of observed positive specific values or even both. Molenberghs, Verbeke e Demétrio (2007) have developed a class of models that encompasses both overdispersion and correlation in count data: Poisson, Poisson-gama, Poisson-normal, Poissonnormal- gama (combined model) models. A Bayesian approach was presented by Rizzato (2011) to fit these models using the Markov Chain Monte Carlo method (MCMC). In this work, a Bayesian framework was adopted as well and, in order to consider the uncertainty related to the model parameters, the Integrated Nested Laplace Approximations (INLA) method was used. Along with the models considered in Rizzato (2011), another four new models were proposed including longitudinal correlation, overdispersion and zero-ination by structural and random zeros, namely: zero-inated Poisson (ZIP), zero-inated negative binomial (ZINB), zero-inated Poisson-normal (ZIP-normal) and the zero-inated negative binomial-normal (ZINB-normal) models. In order to illustrate the developed methodology, the models were fit to a real dataset, in which the response variable was taken to be the number of epileptic events per week in each individual. These individuals were split into two groups, one taking placebo and the other taking an experimental drug, and they observed up to 27 weeks. The model selection criteria were given by different predictive measures based on cross validation. In this setting, the ZIP-normal model was selected instead the usual model in the literature (combined model). The computational routines were implemented in R language and constitute a part of this work.
74

Um estudo de métodos bayesianos para dados de sobrevivência com omissão nas covariáveis / A study of Bayesian methods for survival data with missing covariates.

Polli, Demerson Andre 14 March 2007 (has links)
O desenvolvimento de métodos para o tratamento de omissões nos dados é recente na estatística e tem sido alvo de muitas pesquisas. A presença de omissões em covariáveis é um problema comum na análise estatística e, em particular nos modelos de análise de sobrevivência, ocorrendo com freqüência em pesquisas clínicas, epidemiológicas e ambientais. Este trabalho apresenta propostas bayesianas para a análise de dados de sobrevivência com omissões nas covariáveis considerando modelos paramétricos da família Weibull e o modelo semi-paramétrico de Cox. Os métodos estudados foram avaliados tanto sob o enfoque paramétrico quanto o semiparamétrico considerando um conjunto de dados de portadores de insuficiência cardíaca. Além disso, é desenvolvido um estudo para avaliar o impacto de diferentes proporções de omissão. / The development of methods dealing with missing data is recent in Statistics and is the target of many researchers. The presence of missing values in the covariates is very common in statistical analysis and, in particular, in clinical, epidemiological and enviromental studies for survival data. This work considers a bayesian approach to analise data with missing covariates for parametric models in the Weibull family and for the Cox semiparametric model. The studied methods are evaluated for the parametric and semiparametric approaches considering a dataset of patients with heart insufficiency. Also, the impact of different omission proportions is assessed.
75

Uma abordagem bayesiana para mapeamento de QTLs em populações experimentais / A Bayesian approach for mapping QTL in experimental populations

Andréia da Silva Meyer 03 April 2009 (has links)
Muitos caracteres em plantas e animais são de natureza quantitativa, influenciados por múltiplos genes. Com o advento de novas técnicas moleculares tem sido possível mapear os locos que controlam os caracteres quantitativos, denominados QTLs (Quantitative Trait Loci). Mapear um QTL significa identificar sua posição no genoma, bem como, estimar seus efeitos genéticos. A maior dificuldade para realizar o mapeamento de QTLs, se deve ao fato de que o número de QTLs é desconhecido. Métodos bayesianos juntamente com método Monte Carlo com Cadeias de Markov (MCMC), têm sido implementados para inferir conjuntamente o número de QTLs, suas posições no genoma e os efeitos genéticos . O desafio está em obter a amostra da distribuição conjunta a posteriori desses parâmetros, uma vez que o número de QTLs pode ser considerado desconhecido e a dimensão do espaço paramétrico muda de acordo com o número de QTLs presente no modelo. No presente trabalho foi implementado, utilizando-se o programa estatístico R uma abordagem bayesiana para mapear QTLs em que múltiplos QTLs e os efeitos de epistasia são considerados no modelo. Para tanto foram ajustados modelos com números crescentes de QTLs e o fator de Bayes foi utilizado para selecionar o modelo mais adequado e conseqüentemente, estimar o número de QTLs que controlam os fenótipos de interesse. Para investigar a eficiência da metodologia implementada foi feito um estudo de simulação em que foram considerados duas diferentes populações experimentais: retrocruzamento e F2, sendo que para ambas as populações foi feito o estudo de simulação considerando modelos com e sem epistasia. A abordagem implementada mostrou-se muito eficiente, sendo que para todas as situações consideradas o modelo selecionado foi o modelo contendo o número verdadeiro de QTLs considerado na simulação dos dados. Além disso, foi feito o mapeamento de QTLs de três fenótipos de milho tropical: altura da planta (AP), altura da espiga (AE) e produção de grãos utilizando a metodologia implementada e os resultados obtidos foram comparados com os resultados encontrados pelo método CIM. / Many traits in plants and animals have quantitative nature, influenced by multiple genes. With the new molecular techniques, it has been possible to map the loci, which control the quantitative traits, called QTL (Quantitative Trait Loci). Mapping a QTL means to identify its position in the genome, as well as to estimate its genetics effects. The great difficulty of mapping QTL relates to the fact that the number of QTL is unknown. Bayesian approaches used with Markov Chain Monte Carlo method (MCMC) have been applied to infer QTL number, their positions in the genome and their genetic effects. The challenge is to obtain the sample from the joined distribution posterior of these parameters, since the number of QTL may be considered unknown and hence the dimension of the parametric space changes according to the number of QTL in the model. In this study, a Bayesian approach was applied, using the statistical program R, in order to map QTL, considering multiples QTL and epistasis effects in the model. Models were adjusted with the crescent number of QTL and Bayes factor was used to select the most suitable model and, consequently, to estimate the number of QTL that control interesting phenotype. To evaluate the efficiency of the applied methodology, a simulation study was done, considering two different experimental populations: backcross and F2, accomplishing the simulation study for both populations, considering models with and without epistasis. The applied approach resulted to be very efficient, considering that for all the used situations, the selected model was the one containing the real number of QTL used in the data simulation. Moreover, the QTL mapping of three phenotypes of tropical corn was done: plant height, corn-cob height and grain production, using the applied methodology and the results were compared to the results found by the CIM method.
76

Regressão binária bayesiana com o uso de variáveis auxiliares / Bayesian binary regression models using auxiliary variables

Rafael Braz Azevedo Farias 27 April 2007 (has links)
A inferência Bayesiana está cada vez mais dependente de algoritmos de simulação estocástica, e sua eficiência está diretamente relacionada à eficiência do algoritmo considerado. Uma prática bastante utilizada é a introdução de variáveis auxiliares para obtenção de formas conhecidas para as distribuições {\\it a posteriori} condicionais completas, as quais facilitam a implementação do amostrador de Gibbs. No entanto, a introdução dessas variáveis pode produzir algoritmos onde os valores simulados são fortemente correlacionados, fato esse que prejudica a convergência. O agrupamento das quantidades desconhecidas em blocos, de tal maneira que seja viável a simulação conjunta destas quantidades, é uma alternativa para redução da autocorrelação, e portanto, ajuda a melhorar a eficiência do procedimento de simulação. Neste trabalho, apresentamos propostas de simulação em blocos no contexto de modelos de regressão binária com o uso de variáveis auxiliares. Três classes de funções de ligação são consideradas: probito, logito e probito-assimétrico. Para as duas primeiras apresentamos e implementamos as propostas de atualização conjunta feitas por Holmes e Held (2006). Para a ligação probito-assimétrico propomos quatro diferentes maneiras de construir os blocos, e comparamos estes algoritmos através de duas medidas de eficiência (distância média Euclidiana entre atualizações e tamanho efetivo da amostra). Concluímos que os algoritmos propostos são mais eficientes que o convencional (sem blocos), sendo que um deles proporcionou ganho superior a 160\\% no tamanho efetivo da amostra. Além disso, discutimos uma etapa bastante importante da modelagem, denominada análise de resíduos. Nesta parte adaptamos e implementamos os resíduos propostos para a ligação probito para os modelos logístico e probito-assimétrico. Finalmente, utilizamos os resíduos propostos para verificar a presença de observações discrepantes em um conjunto de dados simulados. / The Bayesian inference is getting more and more dependent of stochastic simulation algorithms, and its efficiency is directly related with the efficiency of the considered algorithm. The introduction of auxiliary variables is a technique widely used for attainment of the full conditional distributions, which facilitate the implementation of the Gibbs sampling. However, the introduction of these auxiliary variables can produce algorithms with simulated values highly correlated, this fact harms the convergence. The grouping of the unknow quantities in blocks, in such way that the joint simulation of this quantities is possible, is an alternative for reduction of the autocorrelation, and therefore, improves the efficiency of the simulation procedure. In this work, we present proposals of simulation using the Gibbs block sampler in the context of binary response regression models using auxiliary variables. Three class of links are considered: probit, logit and skew-probit. For the two first we present and implement the scheme of joint update proposed by Holmes and Held (2006). For the skew-probit, we consider four different ways to construct the blocks, and compare these algorithms through two measures of efficiency (the average Euclidean update distance between interactions and effective sample size). We conclude that the considered algorithms are more efficient than the conventional (without blocks), where one of these leading to around 160\\% improvement in the effective sample size. Moreover, we discuss one important stage of the modelling, called residual analysis. In this part we adapt and implement residuals considered in the probit model for the logistic and skew-probit models. For a simulated data set we detect the presence of outlier used the residuals proposed here for the different models.
77

Análise estatística para dados de contagem longitudinais  na presença de covariáveis: aplicações na área médica / Statistical Analyze For Longitudinal Counting Data in Presence of Covariates: Application in Medical Research

Emilio Augusto Coelho Barros 09 February 2009 (has links)
COELHO-BARROS, E. A. Analise estatstica para dados de contagem longitudinais na presenca de covariaveis: Aplicações na area medica. Dissertação (mestrado) - Faculdade de Medicina de Ribeirão Preto - USP, Ribeirão Preto - SP - Brasil, 2009. Dados de contagem ao longo do tempo na presenca de covariaveis são muito comuns em estudos na area da saude coletiva, por exemplo; numero de doenças que uma pessoa, com alguma caracteristica especifica, adquiriu ao longo de um período de tempo; numero de internações hospitalares em um período de tempo, devido a algum tipo de doença; numero de doadores de orgãos em um período de tempo. Nesse trabalho são apresentados diferentes modelos estatsticos de\\fragilidade\" de Poisson para a analise estatística de dados de contagem longitudinais. Teoricamente, a distribuição de Poisson exige que a media seja igual a variância, quando isto não ocorre tem-se a presenca de uma variabilidade extra-Poisson. Os modelos estatsticos propostos nesta dissertação incorporam a variabilidade extra-Poisson e capturam uma possvel correlação entre as contagens para o mesmo indivduo. Para cada modelo foi feito uma analise Bayesiana Hierarquica considerando os metodos MCMC (Markov Chain Monte Carlo). Utilizando bancos de dados reais, cedidos por pesquisadores auxiliados pelo CEMEQ (Centro de Metodos Quantitativos, USP/FMRP), foram discutidos alguns aspectos de discriminação Bayesiana para a escolha do melhor modelo. Um exemplo de banco de dados reais, discutido na Seção 4 dessa dissertação, que se encaixa na area da saude coletiva, e composto de um estudo prospectivo, aberto e randomizado, realizado em pacientes infectados pelo HIV que procuraram atendimento na Unidade Especial de Terapia de Doencas Infecciosas (UETDI) do Hospital das Clnicas da Faculdade de Medicina de Ribeirão Preto da Universidade de São Paulo (HCFMRP-USP). Os esquemas terapêuticos estudados consistiam em zidovudina e lamivudina, associadas ao efavirenz ou lopinavir. Entre setembro de 2004 e maio de 2006 foram avaliados 66 pacientes, sendo 43 deles includos no estudo. Destes, 39 participantes alcançaram a semana 24 de acompanhamento, enquanto 27 atingiram a semana 48. Os grupos de pacientes apresentavam características basais semelhantes, quanto a idade, sexo, mediana de CD4 e carga viral. O interesse desse experimento e estudar a contagem de CD4 considerando os dois esquemas terapêuticos (efavirenz e lopinavir). / COELHO-BARROS, E. A. Analise estatstica para dados de contagem longitudinais na presenca de covariaveis: Aplicac~oes na area medica. Dissertac~ao (mestrado) - Faculdade de Medicina de Ribeir~ao Preto - USP, Ribeir~ao Preto - SP - Brasil, 2009. Longitudinal counting data in the presence of covariates is very common in many applications, especially considering medical data. In this work we present dierent \\frailty\"models to analyze longitudinal Poisson data in the presence of covariates. These models incorporate the extra-Poisson variability and the possible correlation among the repeated counting data for each individual. A hierarchical Bayesian analysis is introduced for each dierent model considering usual MCMC (Markov Chain Monte Carlo) methods. Considering reals biological data set (obtained from CEMEQ, Medical School of Ribeir~ao Preto, University of S~ao Paulo, Brazil), we also discuss some Bayesian discrimination aspects for the choice of the best model. In Section 4 is considering a data set related to an open prospective and randomized study, considering of HIV infected patients, free of treatments, which entered the Infection Diseases Therapy Special Unit (UETDI) of the Clinical Hospital of the Medical School of Ribeir~ao Preto, University of S~ao Paulo (HCFMRP-USP). The therapeutic treatments consisted of the drugs Zidovudine and Lamivudine, associated to Efavirenz and Lopinavir. The data set was related to 66 patients followed from September, 2004 to may, 2006, from which, 43 were included in the study. The patients groups presented similar basal characteristics in terms of sex, age, CD4 counting median and viral load. The main goal of this study was to compare the CD4 cells counting for the two treatments, based on the drugs Efavirenz and Lopinavir, recently adopted as preferencial for the initial treatment of the disease.
78

Análise Bayesiana de ensaios fatoriais 2k usando os princípios dos efeitos esparsos, da hierarquia e da hereditariedade / Bayesian analysis of 2k factorial designs using the sparse eects, hierarchy and heredity principles

Guilherme Biz 29 January 2010 (has links)
No Planejamento de experimentos para o ajuste de modelos polinomiais envolvendo k fatores principais e respectivas interações, e bastante comum a utilização dos fatoriais 2k, 3k ou frações dos mesmos. Para as analises dos resultados desses experimentos, freqüentemente se considera o princípio da hereditariedade, ou seja, uma vez constatada uma interação significativa entre fatores, os fatores que aparecem nesta interação e respectivas interações devem também estar presentes no modelo. Neste trabalho, esse princípio e incorporado diretamente a priori, para um método de seleção de variáveis Bayesiana, seguindo as idéias propostas por Chipman, Hamada e Wu (1997), porem com uma alteração dos valores sugeridos pelos autores para os hiperparâmetros. Essa alteração, proposta neste trabalho, promove uma melhoria considerável na metodologia original. A metodologia e então ilustrada por meio da analise dos resultados de um experimento fatorial para a elaboração de biofilmes de amido originado da ervilha. / In experimental planning for adjustment of polynomials models involving k main factors and their interactions, it is frequent to adopt the 2k, 3k designs or its fractions. Furthermore, it is not unusual, when analysing the results of such experiments, to consider the heredity principle. In other words, once detected a signicant interaction between factors, the factors that appear in this interaction and respective interactions should also be present in the model. In this work, this principle is incorporated directly in the prior, following the ideas proposed by Chipman, Hamada and Wu (1997), but changing some of the hyperparameters. What improves considerably the original methodology. Finally the methodology is illustrated by the analysis of the results of an experiment for the elaboration of pea starch biolms.
79

Estatística em bioequivalência: garantia na qualidade do medicamento genérico / Statistics on Bioequivalence: Guarantee in quality of generic drug

Roberto Molina de Souza 16 February 2009 (has links)
SOUZA, R. M. \\Estatstica em Bioequivaência: Garantia na qualidade do medicamento generico\". 2008. 42 f Dissertação (Mestrado em Saude na Comunidade) Faculdade de Medicina de Ribeir~ao Preto - USP Como alternativa aos medicamentos de uso humano de grande circulação no mercado brasileiro foram regulamentados os medicamentos genericos, conforme a Lei dos genericos no 9787/99, que evidenciaram os estudos de bioequivalência e biodisponibilidade no Brasil com o objetivo de avaliar a bioequivalência das formulações genericas, tomando-se como referências os medicamentos ja existentes no mercado e com eficacia comprovada. Duas formulações de um mesmo medicamento são consideradas bioequivalentes se suas biodisponibilidades não apresentam evidências de diferenças signicativas segundo limites clinicamente especificados, denominados limites de bioequivalência. Os estudos de bioequivalência são realizados mediante a administração de duas formulações, sendo que uma esta em teste e a outra e a referência, em um numero de voluntários previamente denidos, usando-se um planejamento experimental, na maioria das vêzes do tipo crossover. Apos a retirada de sucessivas amostras sanguíneas ou urinárias em tempos pre-determinados, estudam-se alguns parâmetros farmacocinéticos como area sob a curva de concentrac~ao, concentrac~ao maxima do farmaco e tempo em que a concentração ao maxima ocorre. Esta dissertação de mestrado introduz alguns conceitos basicos de bioequivalênncia para, logo em seguida, apresentar analises Bayesianas para medidas de bioequivalência tanto univariada como multivariada assumindo a distribuição ao normal multivariada para os dados e também a distribuição de Student multivariada. Uma aplicação a de exemplicar o que foi introduzido e apresentada e, para o conjunto de dados em estudo têm, por meio de criterios de seleção ao de modelos, evidências favoraveis a escolha dos modelos multivariados para a condução deste estudo de bioequivalência media. / SOUZA, R. M. \\Statistics on Bioequivalence: Guarantee in quality of generic drug\". 2008. 42 s Dissertation (Master Degree) Faculdade de Medicina de Ribeir~ao Preto - USP As an alternative to medicines for human use of great movement in Brazil, the use of generic medicines were regulated, according to the law of the generic no 9787/99, which establish the studies of bioavailability and bioequivalence in Brazil in order to evaluate bioequivalence of generic formulations, considering as reference existing medicinal products, with proved ecacy. Two formulations of the same drug are considered bioequivalents if your bioavailability do not present evidence of signicant dierences according to clinically specied limits known as bioequivalence limits. Bioequivalence studies are carried out by the administration of two formulations (one is in test and the other one is the reference) in a pre-dened number of volunteers using an experimental plan that is often the crossover one. After the withdrawn of successive blood or urinary samples in predetermined intervals, some pharmacokinetic parameters were studied, such as area under concentration curve, maximum concentration of drug and time that the maximum concentration occurs. This dissertation introduces some basic concepts of bioequivalence and following that, it is presented Bayesian analysis for both as univariate and as multivariate bioequivalence measures assuming the multivariate normal distribution for the data and also the distribution of multivariate t student distribution. An application in order to illustrate what was introduced is presented in this work, and by using means of selection criteria of models, it was observed that for all data on study, there were evidences that lead to choose the multivariates models in order to conduct this study of average bioequivalence.
80

Construção de mapas de objetos para navegação de robôs. / Building object-based maps for robot navigation.

Antonio Henrique Pinto Selvatici 20 March 2009 (has links)
Como a complexidade das tarefas realizadas por robôs móveis vêm aumentando a cada dia, a percepção do robô deve ser capaz de capturar informações mais ricas do ambiente, que permitam a tomada de decisões complexas. Entre os possíveis tipos de informação que podem ser obtidos do ambiente, as informações geométricas e semânticas têm papéis importantes na maioria das tarefas designadas a robôs. Enquanto as informações geométricas revelam como os objetos e obstáculos estão distribuídos no espaço, as informações semânticas capturam a presença de estruturas complexas e eventos em andamento no ambiente, e os condensam em descrições abstratas. Esta tese propõe uma nova técnica probabilística para construir uma representação do ambiente baseada em objetos a partir de imagens capturadas por um robô navegando com uma câmera de vídeo solidária a ele. Esta representação, que fornece descrições geométricas e semânticas de objetos, é chamada O-Map, e é a primeira do gênero no contexto de navegação de robôs. A técnica de mapeamento proposta é também nova, e resolve concomitantemente os problemas de localização, mapeamento e classificação de objetos, que surgem quando da construção de O-Maps usando imagens processadas por detectores imperfeitos de objetos e sem um sensor de localização global. Por este motivo, a técnica proposta é chamada O-SLAM, e é o primeiro algoritmo que soluciona simultaneamente os problemas de localização e mapeamento usando somente odometria e o resultado de algoritmos de reconhecimento de objetos. Os resultados obtidos através da aplicação de O-SLAM em imagens processadas por uma técnica simples de detecção de objetos mostra que o algoritmo proposto é capaz de construir mapas que descrevem consistentemente os objetos do ambiente, dado que o sistema de visão computacional seja capaz de detectá-los regularmente. Em particular, O-SLAM é eficaz em fechar voltas grandes na trajetória do robô, e obtém sucesso mesmo se o sistema de detecção de objetos posuir falhas, relatando falsos positivos e errando a classe do objeto algumas vezes, consertando estes erros. Dessa forma, O-SLAM é um passo em direção à solução integrada do problema de localização, mapeamento e reconhecimento de objetos, a qual deve prescindir de um sistema pronto de reconhecimento de objetos e gerar O-Maps somente pela fusão de informações geométricas e visuais obtidas pelo robô. / As tasks performed by mobile robots are increasing in complexity, robot perception must be able to capture richer information from the environment in order to allow complex decision making. Among the possible types of information that can be retrieved from the environment, geometric and semantic information play important roles in most of the tasks assigned to robots. While geometric information reveals how objects and obstacles are distributed in space, semantic information captures the presence of complex structures and ongoing events from the environment and summarize them in abstract descriptions. This thesis proposes a new probabilistic technique to build an object-based representation of the robot surrounding environment using images captured by an attached video camera. This representation, which provides geometric and semantic descriptions of the objects, is called O-Map, and is the first of its kind in the robot navigation context. The proposed mapping technique is also new, and concurrently solves the localization, mapping and object classification problems arisen from building O-Maps using images processed by imperfect object detectors and no global localization sensor. Thus, the proposed technique is called O-SLAM, and is the first algorithm to solve the simultaneous localization and mapping problem using solely odometers and the output from object recognition algorithms. The results obtained by applying O-SLAM to images processed by simple a object detection technique show that the proposed algorithm is able to build consistent maps describing the objects in the environment, provided that the computer vision system is able to detect them on a regular basis. In particular, O-SLAM is effective in closing large loops in the trajectory, and is able to perform well even if the object detection system makes spurious detections and reports wrong object classes, fixing these errors. Thus, O-SLAM is a step towards the solution of the simultaneous localization, mapping and object recognition problem, which must drop the need for an off-the-shelf object recognition system and generate O-Maps only by fusing geometric and appearance information gathered by the robot.

Page generated in 0.0522 seconds