• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 490
  • 18
  • 5
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 523
  • 330
  • 267
  • 224
  • 120
  • 97
  • 86
  • 79
  • 74
  • 71
  • 69
  • 64
  • 60
  • 56
  • 50
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Estimação de funções do redshift de galáxias com base em dados fotométricos / Galaxies redshift function estimation using photometric data

Ferreira, Gretta Rossi 18 September 2017 (has links)
Em uma quantidade substancial de problemas de astronomia, tem-se interesse na estimação do valor assumido, para diversas funções g, de alguma quantidade desconhecida z ∈ ℜ com base em covariáveis x ∈ ℜd. Isto é feito utilizando-se uma amostra (X1, Z1), ... (Xn, Zn). As duas abordagens usualmente utilizadas para resolver este problema consistem em (1) estimar a regressão de Z em x, e plugar esta na função g ou (2)estimar a densidade condicional f (z Ι x) e plugá-la em ∫ g(z) f (z Ι x)dz. Infelizmente, poucos estudos apresentam comparações quantitativas destas duas abordagens. Além disso, poucos métodos de estimação de densidade condicional tiveram seus desempenhos comparados nestes problemas. Em vista disso, o objetivo deste trabalho é apresentar diversas comparações de técnicas de estimação de funções de uma quantidade desconhecida. Em particular, damos destaque para métodos não paramétricos. Além dos estimadores (1) e (2), propomos também uma nova abordagem que consistem em estimar diretamente a função de regressão de g(Z) em x. Essas abordagens foram testadas em diferentes funções nos conjuntos de dados DEEP2 e Sheldon 2012. Para quase todas as funções testadas, o estimador (1) obteve os piores resultados, exceto quando utilizamos florestas aleatórias. Em diversos casos, a nova abordagem proposta apresentou melhores resultados, assim como o estimador (2). Em particular, verificamos que métodos via florestas aleatórias, em geral, levaram a bons resultados. / In a substantial a mount of astronomy problems, we are interested in estimating values assumed of some unknown quantity z ∈ ℜ, for many function g, based on covariates x ∈ ℜd. This is made using a sample (X1, Z1), ..., (Xn, Zn). Two approaches that are usually used to solve this problem consist in (1) estimating a regression function of Z in x and plugging it into the g or (2) estimating a conditional density f (z Ι x) and plugging it into ∫ g(z) f (z Ι x)dz. Unfortunately, few studies exhibit quantitative comparisons between these two approaches.Besides that, few conditional density estimation methods had their performance compared in these problems.In view of this, the objective of this work is to show several comparisons of techniques used to estimate functions of unknown quantity. In particular we highlight nonparametric methods. In addition to estimators (1) and (2), we also propose a new ap proach that consists in directly estimating the regression function from g(Z) on x. These approaches were tested in different functions in the DEEP 2 and Sheldon 2012 datasets. For almost all the functions tested, the estimator (1) obtained the worst results, except when we use the random forests methods. In several cases, the proposed new approach presented better results, as well as the estimator (2) .In particular, we verified that random forests methods generally present to good results.
132

Construção de mapas de objetos para navegação de robôs. / Building object-based maps for robot navigation.

Selvatici, Antonio Henrique Pinto 20 March 2009 (has links)
Como a complexidade das tarefas realizadas por robôs móveis vêm aumentando a cada dia, a percepção do robô deve ser capaz de capturar informações mais ricas do ambiente, que permitam a tomada de decisões complexas. Entre os possíveis tipos de informação que podem ser obtidos do ambiente, as informações geométricas e semânticas têm papéis importantes na maioria das tarefas designadas a robôs. Enquanto as informações geométricas revelam como os objetos e obstáculos estão distribuídos no espaço, as informações semânticas capturam a presença de estruturas complexas e eventos em andamento no ambiente, e os condensam em descrições abstratas. Esta tese propõe uma nova técnica probabilística para construir uma representação do ambiente baseada em objetos a partir de imagens capturadas por um robô navegando com uma câmera de vídeo solidária a ele. Esta representação, que fornece descrições geométricas e semânticas de objetos, é chamada O-Map, e é a primeira do gênero no contexto de navegação de robôs. A técnica de mapeamento proposta é também nova, e resolve concomitantemente os problemas de localização, mapeamento e classificação de objetos, que surgem quando da construção de O-Maps usando imagens processadas por detectores imperfeitos de objetos e sem um sensor de localização global. Por este motivo, a técnica proposta é chamada O-SLAM, e é o primeiro algoritmo que soluciona simultaneamente os problemas de localização e mapeamento usando somente odometria e o resultado de algoritmos de reconhecimento de objetos. Os resultados obtidos através da aplicação de O-SLAM em imagens processadas por uma técnica simples de detecção de objetos mostra que o algoritmo proposto é capaz de construir mapas que descrevem consistentemente os objetos do ambiente, dado que o sistema de visão computacional seja capaz de detectá-los regularmente. Em particular, O-SLAM é eficaz em fechar voltas grandes na trajetória do robô, e obtém sucesso mesmo se o sistema de detecção de objetos posuir falhas, relatando falsos positivos e errando a classe do objeto algumas vezes, consertando estes erros. Dessa forma, O-SLAM é um passo em direção à solução integrada do problema de localização, mapeamento e reconhecimento de objetos, a qual deve prescindir de um sistema pronto de reconhecimento de objetos e gerar O-Maps somente pela fusão de informações geométricas e visuais obtidas pelo robô. / As tasks performed by mobile robots are increasing in complexity, robot perception must be able to capture richer information from the environment in order to allow complex decision making. Among the possible types of information that can be retrieved from the environment, geometric and semantic information play important roles in most of the tasks assigned to robots. While geometric information reveals how objects and obstacles are distributed in space, semantic information captures the presence of complex structures and ongoing events from the environment and summarize them in abstract descriptions. This thesis proposes a new probabilistic technique to build an object-based representation of the robot surrounding environment using images captured by an attached video camera. This representation, which provides geometric and semantic descriptions of the objects, is called O-Map, and is the first of its kind in the robot navigation context. The proposed mapping technique is also new, and concurrently solves the localization, mapping and object classification problems arisen from building O-Maps using images processed by imperfect object detectors and no global localization sensor. Thus, the proposed technique is called O-SLAM, and is the first algorithm to solve the simultaneous localization and mapping problem using solely odometers and the output from object recognition algorithms. The results obtained by applying O-SLAM to images processed by simple a object detection technique show that the proposed algorithm is able to build consistent maps describing the objects in the environment, provided that the computer vision system is able to detect them on a regular basis. In particular, O-SLAM is effective in closing large loops in the trajectory, and is able to perform well even if the object detection system makes spurious detections and reports wrong object classes, fixing these errors. Thus, O-SLAM is a step towards the solution of the simultaneous localization, mapping and object recognition problem, which must drop the need for an off-the-shelf object recognition system and generate O-Maps only by fusing geometric and appearance information gathered by the robot.
133

Um estudo de métodos bayesianos para dados de sobrevivência com omissão nas covariáveis / A study of Bayesian methods for survival data with missing covariates.

Polli, Demerson Andre 14 March 2007 (has links)
O desenvolvimento de métodos para o tratamento de omissões nos dados é recente na estatística e tem sido alvo de muitas pesquisas. A presença de omissões em covariáveis é um problema comum na análise estatística e, em particular nos modelos de análise de sobrevivência, ocorrendo com freqüência em pesquisas clínicas, epidemiológicas e ambientais. Este trabalho apresenta propostas bayesianas para a análise de dados de sobrevivência com omissões nas covariáveis considerando modelos paramétricos da família Weibull e o modelo semi-paramétrico de Cox. Os métodos estudados foram avaliados tanto sob o enfoque paramétrico quanto o semiparamétrico considerando um conjunto de dados de portadores de insuficiência cardíaca. Além disso, é desenvolvido um estudo para avaliar o impacto de diferentes proporções de omissão. / The development of methods dealing with missing data is recent in Statistics and is the target of many researchers. The presence of missing values in the covariates is very common in statistical analysis and, in particular, in clinical, epidemiological and enviromental studies for survival data. This work considers a bayesian approach to analise data with missing covariates for parametric models in the Weibull family and for the Cox semiparametric model. The studied methods are evaluated for the parametric and semiparametric approaches considering a dataset of patients with heart insufficiency. Also, the impact of different omission proportions is assessed.
134

Impacto do sobrepeso e obesidade ao longo da vida na ocorrência de doença periodontal: evidências de revisões sistemáticas e de estudos transversais e longitudinais / Impact of life-course overweight and obesity on periodontal disease: findings from cross-sectional study, longitudinal studies and systematic reviews

Nascimento, Gustavo Giacomelli 08 July 2015 (has links)
Submitted by Márcio Ropke (ropke13marcio@gmail.com) on 2017-06-13T14:35:58Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Impacto de sobrepeso e obesidade ao longo da vida na ocorrência de doença.pdf: 9261303 bytes, checksum: 008bc4333ac6715cee1911dc225815b0 (MD5) / Made available in DSpace on 2017-06-13T14:35:58Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Impacto de sobrepeso e obesidade ao longo da vida na ocorrência de doença.pdf: 9261303 bytes, checksum: 008bc4333ac6715cee1911dc225815b0 (MD5) Previous issue date: 2015-07-08 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / As doenças periodontais afetam a gengiva e os tecidos dentários de suporte, sendo classificadas em gengivite, inflamação reversível da gengiva marginal, e periodontite, quando há destruição das estruturas que suportam o dente. Estas doenças possuem natureza infecciosa e o grau de destruição observado depende da resposta do sistema imune do hospedeiro. Enquanto algumas condições sistêmicas, como diabetes são indicadas como fatores de risco para o desenvolvimento e para a progressão das doenças periodontais, o papel de outras, como a obesidade, ainda não é totalmente claro. Obesidade caracteriza-se pelo acúmulo excessivo de gordura corporal responsável por causar danos à saúde geral, tendo sido apontada como um fator de risco para outras doenças sistêmicas como diabetes, doença cardiovascular e câncer. Revisões sistemáticas têm demonstrado a associação entre obesidade e doenças periodontais, especialmente em adultos. Os resultados destas revisões, entretanto, são basicamente provenientes de estudos transversais, o que impossibilita o estabelecimento de uma relação causal entre estas condições. Assim, as revisões sistemáticas que compõem esta tese têm como objetivo demonstrar os efeitos da obesidade nas condições periodontais. Na primeira revisão, buscou-se evidenciar o efeito do tratamento periodontal nos indivíduos obesos, e posteriormente, fazer uma comparação com o efeito do tratamento periodontal em indivíduos não-obesos. Os resultados, originados de poucos estudos, sugerem que o tratamento periodontal é efetivo para promover a melhora do quadro periodontal dos indivíduos obesos; ainda, que não há diferença entre o efeito da terapia periodontal entre obesos e não obesos. A segunda revisão sistemática explorou os efeitos do ganho de peso no desenvolvimento de novos casos de periodontite em adultos. Foram incluídos apenas cinco estudos prospectivos longitudinais que evidenciaram a associação entre o ganho de peso e a incidência de periodontite. Os achados demonstraram que os indivíduos que se tornaram obesos tiveram maior risco para desenvolver periodontite, seguido por aqueles com sobrepeso, quando comparados aos indivíduos que permaneceram eutróficos. Três artigos originais fazem parte desta tese: o primeiro, de desenho transversal, explora a associação entre sobrepeso/obesidade e sangramento gengival em escolares da cidade de Pelotas-RS. Os resultados demonstraram que, entre os meninos, o excesso de peso está associado ao aumento do sangramento gengival. Este estudo, embora transversal, demonstra a associação precoce entre sobrepeso/obesidade e condições periodontais. O segundo artigo original objetivou estimar o efeito controlado direto do sobrepeso/obesidade em desfechos periodontais (perda de inserção periodontal; sangramento à sondagem) em uma coorte de adultos da cidade de Florianópolis-SC (EpiFloripa) por meio de métodos de inferência causal (marginal structural model with inverse-probability weighting). Os achados deste estudo evidenciaram o efeito 11 direto do sobrepeso/obesidade, especialmente da forma abdominal, em desfechos periodontais desfavoráveis. Finalmente, o último artigo deste volume pretendeu estimar o risco de periodontite na coorte de nascimentos de Pelotas de 1982. Neste estudo foram realizadas intervenções hipotéticas sobre o efeito do aumento do sobrepeso e da obesidade ao longo da vida, independente e em associação com hábitos não saudáveis, no risco de periodontite nesta população. Para isso, foi empregada a g-formula paramétrica, levando em consideração as variáveis tempodependentes. Os achados deste estudo sugerem que o aumento do sobrepeso e da obesidade aumentam o risco para periodontite. Além disso, quando o excesso de peso é combinado com outros hábitos não saudáveis, como fumo e dieta rica em gordura e carboidratos, o risco torna-se ainda maior. De forma geral, os resultados apresentados pelos artigos componentes desta tese suportam a associação entre excesso de peso e doença periodontal nas diferentes fases da vida. Ainda, os achados sugerem que existe uma relação causal entre sobrepeso/obesidade e doença periodontal em adultos. / Periodontal diseases affect the gingiva and the supporting tissues of the teeth. These diseases can be classified as gingivitis, a reversible inflammation of the marginal gingiva, and periodontitis, a destructive inflammation affecting the supporting structures of the teeth. Periodontal diseases are infectious conditions and depend on the host immune response. While some systemic conditions, such as diabetes are identified as a risk factor for development and progression of periodontal diseases, the role played by other systemic diseases, such as obesity, remains unclear. Obesity can be defined as a systemic disease characterized by excessive body fat accumulation that can lead to adverse impacts on health conditions. Studies have shown that obesity is also an important risk factor for other systemic diseases, such as diabetes, cardiovascular disease and cancer. Systematic reviews have demonstrated the association between obesity and periodontal diseases especially in adults. Results of these reviews, however, are originated from cross-sectional studies, which do not allow the establishment of causal relationship. Thus, the two systematic reviews included in this thesis aimed to estimate the effects of obesity on periodontal conditions. The first review aimed to look at the effects of periodontal therapy amongst obese individuals and to compare the effects of periodontal therapy of obese and non-obese subjects. Results, originated from few studies, suggest that periodontal therapy is effective to improve periodontal condition in obese individuals; also, that there is no difference between the effects of periodontal therapy in obese and in non-obese individuals. The second systematic review aimed to explore the effects of weight gain on the incidence of periodontitis in adults. Five prospective longitudinal studies were included. Pooled results demonstrated that individuals that became obese presented higher risk of periodontitis establishment, followed by those that became overweight comparing with individuals that remained eutrophic. Three original studies are part of this thesis: the first original article, a cross-sectional study, investigated the association between overweight/obesity and gingival bleeding in schoolchildren from Pelotas, Brazil. Results showed that excess of weight is associated with greater prevalence of gingivitis among boys. Even though this study presents a cross-sectional design, it demonstrates the precocious association between overweight/obesity and gingival bleeding. The second original article aimed to estimate the controlled direct effect of overweight/obesity on periodontal outcomes (clinical attachment loss; bleeding on probing) in a cohort of adults from Florianópolis, Brazil. Causal inference methods (marginal structural model with inverse-probability weighting) were applied. Results demonstrated a direct effect of overweight/obesity, especially central obesity, on unfavourable periodontal outcomes. Finally, the last original article of this thesis intended to estimate the risk of periodontitis in the 1982 Pelotas birth cohort. In this study hypothetical interventions on life-course overweight and obesity were set, independently and associated with unhealthy habits, to estimate the risk of periodontitis in this specific population. The parametric g-formula was employed 13 accounting for the time-varying variables. The findings suggest that the increase of overweight and obesity increase the risk of periodontitis. Furthermore, when excess of weight is associated with other unhealthy habits, such as smoking and high consumption of fat and carbohydrates, the risk is even greater. In summary, the results presented by the articles included in this thesis support the association between excess of weight and periodontal disease in different stages of life. Moreover, the findings suggest a causal relationship between overweight/obesity and periodontal disease in adults.
135

Seleção de características em inferência de redes de interação gênica a partir de conjuntos reduzidos de amostras

Cubas, Carlos Fernando Montoya January 2014 (has links)
Orientador: Prof. Dr. David Correa Martins Junior / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Ciência da Computação, 2014.
136

Uma abordagem bayesiana para mapeamento de QTLs em populações experimentais / A Bayesian approach for mapping QTL in experimental populations

Andréia da Silva Meyer 03 April 2009 (has links)
Muitos caracteres em plantas e animais são de natureza quantitativa, influenciados por múltiplos genes. Com o advento de novas técnicas moleculares tem sido possível mapear os locos que controlam os caracteres quantitativos, denominados QTLs (Quantitative Trait Loci). Mapear um QTL significa identificar sua posição no genoma, bem como, estimar seus efeitos genéticos. A maior dificuldade para realizar o mapeamento de QTLs, se deve ao fato de que o número de QTLs é desconhecido. Métodos bayesianos juntamente com método Monte Carlo com Cadeias de Markov (MCMC), têm sido implementados para inferir conjuntamente o número de QTLs, suas posições no genoma e os efeitos genéticos . O desafio está em obter a amostra da distribuição conjunta a posteriori desses parâmetros, uma vez que o número de QTLs pode ser considerado desconhecido e a dimensão do espaço paramétrico muda de acordo com o número de QTLs presente no modelo. No presente trabalho foi implementado, utilizando-se o programa estatístico R uma abordagem bayesiana para mapear QTLs em que múltiplos QTLs e os efeitos de epistasia são considerados no modelo. Para tanto foram ajustados modelos com números crescentes de QTLs e o fator de Bayes foi utilizado para selecionar o modelo mais adequado e conseqüentemente, estimar o número de QTLs que controlam os fenótipos de interesse. Para investigar a eficiência da metodologia implementada foi feito um estudo de simulação em que foram considerados duas diferentes populações experimentais: retrocruzamento e F2, sendo que para ambas as populações foi feito o estudo de simulação considerando modelos com e sem epistasia. A abordagem implementada mostrou-se muito eficiente, sendo que para todas as situações consideradas o modelo selecionado foi o modelo contendo o número verdadeiro de QTLs considerado na simulação dos dados. Além disso, foi feito o mapeamento de QTLs de três fenótipos de milho tropical: altura da planta (AP), altura da espiga (AE) e produção de grãos utilizando a metodologia implementada e os resultados obtidos foram comparados com os resultados encontrados pelo método CIM. / Many traits in plants and animals have quantitative nature, influenced by multiple genes. With the new molecular techniques, it has been possible to map the loci, which control the quantitative traits, called QTL (Quantitative Trait Loci). Mapping a QTL means to identify its position in the genome, as well as to estimate its genetics effects. The great difficulty of mapping QTL relates to the fact that the number of QTL is unknown. Bayesian approaches used with Markov Chain Monte Carlo method (MCMC) have been applied to infer QTL number, their positions in the genome and their genetic effects. The challenge is to obtain the sample from the joined distribution posterior of these parameters, since the number of QTL may be considered unknown and hence the dimension of the parametric space changes according to the number of QTL in the model. In this study, a Bayesian approach was applied, using the statistical program R, in order to map QTL, considering multiples QTL and epistasis effects in the model. Models were adjusted with the crescent number of QTL and Bayes factor was used to select the most suitable model and, consequently, to estimate the number of QTL that control interesting phenotype. To evaluate the efficiency of the applied methodology, a simulation study was done, considering two different experimental populations: backcross and F2, accomplishing the simulation study for both populations, considering models with and without epistasis. The applied approach resulted to be very efficient, considering that for all the used situations, the selected model was the one containing the real number of QTL used in the data simulation. Moreover, the QTL mapping of three phenotypes of tropical corn was done: plant height, corn-cob height and grain production, using the applied methodology and the results were compared to the results found by the CIM method.
137

Estratégias para o desenvolvimento de modelos de credit score com inferência de rejeitados. / Strategies for the development of credit score with the inference rejected

Mauro Correia Alves 03 September 2008 (has links)
Modelos de credit score são usualmente desenvolvidos somente com informações dos proponentes aceitos. Neste trabalho foram consideradas estratégias que podem ser utilizadas para o desenvolvimento de modelos de credit score com a inclusão das informações dos rejeitados. Foram avaliadas as seguintes técnicas de inferência de rejeitados: classificação dos rejeitados como clientes Maus, parcelamento, dados aumentados, uso de informações de mercado e ainda a estratégia de aceitar proponentes rejeitados para acompanhamento e desenvolvimento de novos modelos de risco de crédito. Para a avaliação e comparação dos modelos foram utilizadas as medidas de desempenho: estatística de Kolmogorov-Smirnov (KS), área sob a curva de Lorentz (ROC), área entre as curvas de distribuição acumulada dos escores (AEC), diferença entre as taxas de inadimplência nos intervalos do escore definidos pelos decis e coeficiente de Gini. Concluiu-se que dentre as quatro primeiras técnicas avaliadas, o uso de informaçõoes de mercado foi a que apresentou melhor desempenho. Quanto à estratégia de aceitar proponentes rejeitados, observou-se que há um ganho em relação ao modelo ajustado só com base nos proponentes aceitos. / Credit scoring models are usually built using only information of accepted applicants. This text considered strategies that can be used to develop credit score models with inclusion of the information of the rejects. We evaluated the techniques of reject inference: classification of rejected customers as bad, parceling, augmentation, use of market information and the strategy of accepting rejected proponents for monitoring and developing new models of credit risk. For the evaluation and comparison between models were used performance measures: Kolmogorov-Smirnov statistics (KS), the area under the Lorentz Curve (ROC), area between cumulative distribution curves of the scores (AEC), difference among the delinquency rate in the score buckets based on deciles (DTI) and the Gini coefficient. We concluded that among the first four techniques evaluated, the fourth (use of market information) had the best performance. For the strategy to accept rejected bidders, it was observed that there is a gain in relation to the model that uses only information of accepted applicants.
138

Regressão binária bayesiana com o uso de variáveis auxiliares / Bayesian binary regression models using auxiliary variables

Rafael Braz Azevedo Farias 27 April 2007 (has links)
A inferência Bayesiana está cada vez mais dependente de algoritmos de simulação estocástica, e sua eficiência está diretamente relacionada à eficiência do algoritmo considerado. Uma prática bastante utilizada é a introdução de variáveis auxiliares para obtenção de formas conhecidas para as distribuições {\\it a posteriori} condicionais completas, as quais facilitam a implementação do amostrador de Gibbs. No entanto, a introdução dessas variáveis pode produzir algoritmos onde os valores simulados são fortemente correlacionados, fato esse que prejudica a convergência. O agrupamento das quantidades desconhecidas em blocos, de tal maneira que seja viável a simulação conjunta destas quantidades, é uma alternativa para redução da autocorrelação, e portanto, ajuda a melhorar a eficiência do procedimento de simulação. Neste trabalho, apresentamos propostas de simulação em blocos no contexto de modelos de regressão binária com o uso de variáveis auxiliares. Três classes de funções de ligação são consideradas: probito, logito e probito-assimétrico. Para as duas primeiras apresentamos e implementamos as propostas de atualização conjunta feitas por Holmes e Held (2006). Para a ligação probito-assimétrico propomos quatro diferentes maneiras de construir os blocos, e comparamos estes algoritmos através de duas medidas de eficiência (distância média Euclidiana entre atualizações e tamanho efetivo da amostra). Concluímos que os algoritmos propostos são mais eficientes que o convencional (sem blocos), sendo que um deles proporcionou ganho superior a 160\\% no tamanho efetivo da amostra. Além disso, discutimos uma etapa bastante importante da modelagem, denominada análise de resíduos. Nesta parte adaptamos e implementamos os resíduos propostos para a ligação probito para os modelos logístico e probito-assimétrico. Finalmente, utilizamos os resíduos propostos para verificar a presença de observações discrepantes em um conjunto de dados simulados. / The Bayesian inference is getting more and more dependent of stochastic simulation algorithms, and its efficiency is directly related with the efficiency of the considered algorithm. The introduction of auxiliary variables is a technique widely used for attainment of the full conditional distributions, which facilitate the implementation of the Gibbs sampling. However, the introduction of these auxiliary variables can produce algorithms with simulated values highly correlated, this fact harms the convergence. The grouping of the unknow quantities in blocks, in such way that the joint simulation of this quantities is possible, is an alternative for reduction of the autocorrelation, and therefore, improves the efficiency of the simulation procedure. In this work, we present proposals of simulation using the Gibbs block sampler in the context of binary response regression models using auxiliary variables. Three class of links are considered: probit, logit and skew-probit. For the two first we present and implement the scheme of joint update proposed by Holmes and Held (2006). For the skew-probit, we consider four different ways to construct the blocks, and compare these algorithms through two measures of efficiency (the average Euclidean update distance between interactions and effective sample size). We conclude that the considered algorithms are more efficient than the conventional (without blocks), where one of these leading to around 160\\% improvement in the effective sample size. Moreover, we discuss one important stage of the modelling, called residual analysis. In this part we adapt and implement residuals considered in the probit model for the logistic and skew-probit models. For a simulated data set we detect the presence of outlier used the residuals proposed here for the different models.
139

Análise bayesiana de densidades aleatórias simples / Bayesian analysis of simple random densities

Paulo Cilas Marques Filho 19 December 2011 (has links)
Definimos, a partir de uma partição de um intervalo limitado da reta real formada por subintervalos, uma distribuição a priori sobre uma classe de densidades em relação à medida de Lebesgue construindo uma densidade aleatória cujas realizações são funções simples não negativas que assumem um valor constante em cada subintervalo da partição e possuem integral unitária. Utilizamos tais densidades aleatórias simples na análise bayesiana de um conjunto de observáveis absolutamente contínuos e provamos que a distribuição a priori é fechada sob amostragem. Exploramos as distribuições a priori e a posteriori via simulações estocásticas e obtemos soluções bayesianas para o problema de estimação de densidade. Os resultados das simulações exibem o comportamento assintótico da distribuição a posteriori quando crescemos o tamanho das amostras dos dados analisados. Quando a partição não é conhecida a priori, propomos um critério de escolha a partir da informação contida na amostra. Apesar de a esperança de uma densidade aleatória simples ser sempre uma densidade descontínua, obtemos estimativas suaves resolvendo um problema de decisão em que os estados da natureza são realizações da densidade aleatória simples e as ações são densidades suaves de uma classe adequada. / We define, from a known partition in subintervals of a bounded interval of the real line, a prior distribution over a class of densities with respect to Lebesgue measure constructing a random density whose realizations are nonnegative simple functions that integrate to one and have a constant value on each subinterval of the partition. These simple random densities are used in the Bayesian analysis of a set of absolutely continuous observables and the prior distribution is proved to be closed under sampling. We explore the prior and posterior distributions through stochastic simulations and find Bayesian solutions to the problem of density estimation. Simulations results show the asymptotic behavior of the posterior distribution as we increase the size of the analyzed data samples. When the partition is unknown, we propose a choice criterion based on the information contained in the sample. In spite of the fact that the expectation of a simple random density is always a discontinuous density, we get smooth estimates solving a decision problem where the states of nature are realizations of the simple random density and the actions are smooth densities of a suitable class.
140

Modelagem de processo de extração de conhecimento em banco de dados para sistemas de suporte à decisão. / Modeling of knowledge discovery in databases for decision systems.

Sonia Kaoru Shiba 26 June 2008 (has links)
Este trabalho apresenta a modelagem de um processo de extração de conhecimento, onde a aquisição de informações para a análise de dados têm como origem os bancos de dados transacionais e data warehouse. A mineração de dados focou-se na geração de modelos descritivos a partir de técnicas de classificação baseada no Teorema de Bayes e no método direto de extração de regras de classificação, definindo uma metodologia para a geração de modelos de aprendizagem. Foi implementado um processo de extração de conhecimento para a geração de modelos de aprendizagem para suporte à decisão, aplicando técnicas de mineração de dados para modelos descritivos e geração de regras de classificação. Explorou-se a possibilidade de transformar os modelos de aprendizagem em bases de conhecimento utilizando um banco de dados relacional, disponível para acesso via sistema especialista, para a realização de novas classificações de registros, ou então possibilitar a visualização dos resultados a partir de planilhas eletrônicas. No cenário descrito neste trabalho, a organização dos procedimentos da etapa de pré-processamento permitiu que a extração de atributos adicionais ou transformação de dados fosse realizada de forma iterativa, sem a necessidade de implementação de novos programas de extração de dados. Desta forma, foram definidas todas as atividades essenciais do pré-processamento e a seqüência em que estas devem ser realizadas, além de possibilitar a repetição dos procedimentos sem perdas das unidades codificadas para o processo de extração de dados. Um modelo de processo de extração de conhecimento iterativo e quantificável, em termos das etapas e procedimentos, foi configurado vislumbrando um produto final com o projeto da base de conhecimento para ações de retenção de clientes e regras para ações específicas com segmentos de clientes. / This work presents a model of knowledge discovery in databases, where the information for data analysis comes from a repository of transactional information systems and data-warehouse. The data mining focused on the generation of descriptive models by means of classification techniques based on the Bayes\' theorem and a extraction method of classification rules, defining a methodology to propose new learning models. The process of knowledge extraction was implemented for the generation of learning models for support the make decision, applying data mining for descriptive models and generation of classification rules. This work explored the possibility of transforming the learning models in knowledge database using a relational database, to be accessible by a specialist system, to classify new records or to allow the visualization of the results through electronic tables. The organization of the procedures in the pre-processing allowed to extract additional attributes or to transform information in an interactive process, with no need of new programs to extract the information. This way, all the essential activities of the pre-processing were defined and the sequence in which these should be developed. Additionally, this allowed the repetition of the procedures with no loss of units for the process of information extraction. A model of process for the interactive and quantifiable extraction of knowledge, in terms of the stages and procedures, was idealized in order to develop a product with the project of the knowledge databases for actions of retention of clients and rules for specific actions within clients\' segments.

Page generated in 0.0693 seconds