• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 209
  • 193
  • 31
  • 18
  • 12
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 555
  • 555
  • 214
  • 196
  • 106
  • 101
  • 73
  • 67
  • 67
  • 67
  • 66
  • 57
  • 54
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Regressão binária bayesiana com o uso de variáveis auxiliares / Bayesian binary regression models using auxiliary variables

Rafael Braz Azevedo Farias 27 April 2007 (has links)
A inferência Bayesiana está cada vez mais dependente de algoritmos de simulação estocástica, e sua eficiência está diretamente relacionada à eficiência do algoritmo considerado. Uma prática bastante utilizada é a introdução de variáveis auxiliares para obtenção de formas conhecidas para as distribuições {\\it a posteriori} condicionais completas, as quais facilitam a implementação do amostrador de Gibbs. No entanto, a introdução dessas variáveis pode produzir algoritmos onde os valores simulados são fortemente correlacionados, fato esse que prejudica a convergência. O agrupamento das quantidades desconhecidas em blocos, de tal maneira que seja viável a simulação conjunta destas quantidades, é uma alternativa para redução da autocorrelação, e portanto, ajuda a melhorar a eficiência do procedimento de simulação. Neste trabalho, apresentamos propostas de simulação em blocos no contexto de modelos de regressão binária com o uso de variáveis auxiliares. Três classes de funções de ligação são consideradas: probito, logito e probito-assimétrico. Para as duas primeiras apresentamos e implementamos as propostas de atualização conjunta feitas por Holmes e Held (2006). Para a ligação probito-assimétrico propomos quatro diferentes maneiras de construir os blocos, e comparamos estes algoritmos através de duas medidas de eficiência (distância média Euclidiana entre atualizações e tamanho efetivo da amostra). Concluímos que os algoritmos propostos são mais eficientes que o convencional (sem blocos), sendo que um deles proporcionou ganho superior a 160\\% no tamanho efetivo da amostra. Além disso, discutimos uma etapa bastante importante da modelagem, denominada análise de resíduos. Nesta parte adaptamos e implementamos os resíduos propostos para a ligação probito para os modelos logístico e probito-assimétrico. Finalmente, utilizamos os resíduos propostos para verificar a presença de observações discrepantes em um conjunto de dados simulados. / The Bayesian inference is getting more and more dependent of stochastic simulation algorithms, and its efficiency is directly related with the efficiency of the considered algorithm. The introduction of auxiliary variables is a technique widely used for attainment of the full conditional distributions, which facilitate the implementation of the Gibbs sampling. However, the introduction of these auxiliary variables can produce algorithms with simulated values highly correlated, this fact harms the convergence. The grouping of the unknow quantities in blocks, in such way that the joint simulation of this quantities is possible, is an alternative for reduction of the autocorrelation, and therefore, improves the efficiency of the simulation procedure. In this work, we present proposals of simulation using the Gibbs block sampler in the context of binary response regression models using auxiliary variables. Three class of links are considered: probit, logit and skew-probit. For the two first we present and implement the scheme of joint update proposed by Holmes and Held (2006). For the skew-probit, we consider four different ways to construct the blocks, and compare these algorithms through two measures of efficiency (the average Euclidean update distance between interactions and effective sample size). We conclude that the considered algorithms are more efficient than the conventional (without blocks), where one of these leading to around 160\\% improvement in the effective sample size. Moreover, we discuss one important stage of the modelling, called residual analysis. In this part we adapt and implement residuals considered in the probit model for the logistic and skew-probit models. For a simulated data set we detect the presence of outlier used the residuals proposed here for the different models.
112

Análise estatística para dados de contagem longitudinais  na presença de covariáveis: aplicações na área médica / Statistical Analyze For Longitudinal Counting Data in Presence of Covariates: Application in Medical Research

Emilio Augusto Coelho Barros 09 February 2009 (has links)
COELHO-BARROS, E. A. Analise estatstica para dados de contagem longitudinais na presenca de covariaveis: Aplicações na area medica. Dissertação (mestrado) - Faculdade de Medicina de Ribeirão Preto - USP, Ribeirão Preto - SP - Brasil, 2009. Dados de contagem ao longo do tempo na presenca de covariaveis são muito comuns em estudos na area da saude coletiva, por exemplo; numero de doenças que uma pessoa, com alguma caracteristica especifica, adquiriu ao longo de um período de tempo; numero de internações hospitalares em um período de tempo, devido a algum tipo de doença; numero de doadores de orgãos em um período de tempo. Nesse trabalho são apresentados diferentes modelos estatsticos de\\fragilidade\" de Poisson para a analise estatística de dados de contagem longitudinais. Teoricamente, a distribuição de Poisson exige que a media seja igual a variância, quando isto não ocorre tem-se a presenca de uma variabilidade extra-Poisson. Os modelos estatsticos propostos nesta dissertação incorporam a variabilidade extra-Poisson e capturam uma possvel correlação entre as contagens para o mesmo indivduo. Para cada modelo foi feito uma analise Bayesiana Hierarquica considerando os metodos MCMC (Markov Chain Monte Carlo). Utilizando bancos de dados reais, cedidos por pesquisadores auxiliados pelo CEMEQ (Centro de Metodos Quantitativos, USP/FMRP), foram discutidos alguns aspectos de discriminação Bayesiana para a escolha do melhor modelo. Um exemplo de banco de dados reais, discutido na Seção 4 dessa dissertação, que se encaixa na area da saude coletiva, e composto de um estudo prospectivo, aberto e randomizado, realizado em pacientes infectados pelo HIV que procuraram atendimento na Unidade Especial de Terapia de Doencas Infecciosas (UETDI) do Hospital das Clnicas da Faculdade de Medicina de Ribeirão Preto da Universidade de São Paulo (HCFMRP-USP). Os esquemas terapêuticos estudados consistiam em zidovudina e lamivudina, associadas ao efavirenz ou lopinavir. Entre setembro de 2004 e maio de 2006 foram avaliados 66 pacientes, sendo 43 deles includos no estudo. Destes, 39 participantes alcançaram a semana 24 de acompanhamento, enquanto 27 atingiram a semana 48. Os grupos de pacientes apresentavam características basais semelhantes, quanto a idade, sexo, mediana de CD4 e carga viral. O interesse desse experimento e estudar a contagem de CD4 considerando os dois esquemas terapêuticos (efavirenz e lopinavir). / COELHO-BARROS, E. A. Analise estatstica para dados de contagem longitudinais na presenca de covariaveis: Aplicac~oes na area medica. Dissertac~ao (mestrado) - Faculdade de Medicina de Ribeir~ao Preto - USP, Ribeir~ao Preto - SP - Brasil, 2009. Longitudinal counting data in the presence of covariates is very common in many applications, especially considering medical data. In this work we present dierent \\frailty\"models to analyze longitudinal Poisson data in the presence of covariates. These models incorporate the extra-Poisson variability and the possible correlation among the repeated counting data for each individual. A hierarchical Bayesian analysis is introduced for each dierent model considering usual MCMC (Markov Chain Monte Carlo) methods. Considering reals biological data set (obtained from CEMEQ, Medical School of Ribeir~ao Preto, University of S~ao Paulo, Brazil), we also discuss some Bayesian discrimination aspects for the choice of the best model. In Section 4 is considering a data set related to an open prospective and randomized study, considering of HIV infected patients, free of treatments, which entered the Infection Diseases Therapy Special Unit (UETDI) of the Clinical Hospital of the Medical School of Ribeir~ao Preto, University of S~ao Paulo (HCFMRP-USP). The therapeutic treatments consisted of the drugs Zidovudine and Lamivudine, associated to Efavirenz and Lopinavir. The data set was related to 66 patients followed from September, 2004 to may, 2006, from which, 43 were included in the study. The patients groups presented similar basal characteristics in terms of sex, age, CD4 counting median and viral load. The main goal of this study was to compare the CD4 cells counting for the two treatments, based on the drugs Efavirenz and Lopinavir, recently adopted as preferencial for the initial treatment of the disease.
113

Análise Bayesiana de ensaios fatoriais 2k usando os princípios dos efeitos esparsos, da hierarquia e da hereditariedade / Bayesian analysis of 2k factorial designs using the sparse eects, hierarchy and heredity principles

Guilherme Biz 29 January 2010 (has links)
No Planejamento de experimentos para o ajuste de modelos polinomiais envolvendo k fatores principais e respectivas interações, e bastante comum a utilização dos fatoriais 2k, 3k ou frações dos mesmos. Para as analises dos resultados desses experimentos, freqüentemente se considera o princípio da hereditariedade, ou seja, uma vez constatada uma interação significativa entre fatores, os fatores que aparecem nesta interação e respectivas interações devem também estar presentes no modelo. Neste trabalho, esse princípio e incorporado diretamente a priori, para um método de seleção de variáveis Bayesiana, seguindo as idéias propostas por Chipman, Hamada e Wu (1997), porem com uma alteração dos valores sugeridos pelos autores para os hiperparâmetros. Essa alteração, proposta neste trabalho, promove uma melhoria considerável na metodologia original. A metodologia e então ilustrada por meio da analise dos resultados de um experimento fatorial para a elaboração de biofilmes de amido originado da ervilha. / In experimental planning for adjustment of polynomials models involving k main factors and their interactions, it is frequent to adopt the 2k, 3k designs or its fractions. Furthermore, it is not unusual, when analysing the results of such experiments, to consider the heredity principle. In other words, once detected a signicant interaction between factors, the factors that appear in this interaction and respective interactions should also be present in the model. In this work, this principle is incorporated directly in the prior, following the ideas proposed by Chipman, Hamada and Wu (1997), but changing some of the hyperparameters. What improves considerably the original methodology. Finally the methodology is illustrated by the analysis of the results of an experiment for the elaboration of pea starch biolms.
114

Estatística em bioequivalência: garantia na qualidade do medicamento genérico / Statistics on Bioequivalence: Guarantee in quality of generic drug

Roberto Molina de Souza 16 February 2009 (has links)
SOUZA, R. M. \\Estatstica em Bioequivaência: Garantia na qualidade do medicamento generico\". 2008. 42 f Dissertação (Mestrado em Saude na Comunidade) Faculdade de Medicina de Ribeir~ao Preto - USP Como alternativa aos medicamentos de uso humano de grande circulação no mercado brasileiro foram regulamentados os medicamentos genericos, conforme a Lei dos genericos no 9787/99, que evidenciaram os estudos de bioequivalência e biodisponibilidade no Brasil com o objetivo de avaliar a bioequivalência das formulações genericas, tomando-se como referências os medicamentos ja existentes no mercado e com eficacia comprovada. Duas formulações de um mesmo medicamento são consideradas bioequivalentes se suas biodisponibilidades não apresentam evidências de diferenças signicativas segundo limites clinicamente especificados, denominados limites de bioequivalência. Os estudos de bioequivalência são realizados mediante a administração de duas formulações, sendo que uma esta em teste e a outra e a referência, em um numero de voluntários previamente denidos, usando-se um planejamento experimental, na maioria das vêzes do tipo crossover. Apos a retirada de sucessivas amostras sanguíneas ou urinárias em tempos pre-determinados, estudam-se alguns parâmetros farmacocinéticos como area sob a curva de concentrac~ao, concentrac~ao maxima do farmaco e tempo em que a concentração ao maxima ocorre. Esta dissertação de mestrado introduz alguns conceitos basicos de bioequivalênncia para, logo em seguida, apresentar analises Bayesianas para medidas de bioequivalência tanto univariada como multivariada assumindo a distribuição ao normal multivariada para os dados e também a distribuição de Student multivariada. Uma aplicação a de exemplicar o que foi introduzido e apresentada e, para o conjunto de dados em estudo têm, por meio de criterios de seleção ao de modelos, evidências favoraveis a escolha dos modelos multivariados para a condução deste estudo de bioequivalência media. / SOUZA, R. M. \\Statistics on Bioequivalence: Guarantee in quality of generic drug\". 2008. 42 s Dissertation (Master Degree) Faculdade de Medicina de Ribeir~ao Preto - USP As an alternative to medicines for human use of great movement in Brazil, the use of generic medicines were regulated, according to the law of the generic no 9787/99, which establish the studies of bioavailability and bioequivalence in Brazil in order to evaluate bioequivalence of generic formulations, considering as reference existing medicinal products, with proved ecacy. Two formulations of the same drug are considered bioequivalents if your bioavailability do not present evidence of signicant dierences according to clinically specied limits known as bioequivalence limits. Bioequivalence studies are carried out by the administration of two formulations (one is in test and the other one is the reference) in a pre-dened number of volunteers using an experimental plan that is often the crossover one. After the withdrawn of successive blood or urinary samples in predetermined intervals, some pharmacokinetic parameters were studied, such as area under concentration curve, maximum concentration of drug and time that the maximum concentration occurs. This dissertation introduces some basic concepts of bioequivalence and following that, it is presented Bayesian analysis for both as univariate and as multivariate bioequivalence measures assuming the multivariate normal distribution for the data and also the distribution of multivariate t student distribution. An application in order to illustrate what was introduced is presented in this work, and by using means of selection criteria of models, it was observed that for all data on study, there were evidences that lead to choose the multivariates models in order to conduct this study of average bioequivalence.
115

Construção de mapas de objetos para navegação de robôs. / Building object-based maps for robot navigation.

Antonio Henrique Pinto Selvatici 20 March 2009 (has links)
Como a complexidade das tarefas realizadas por robôs móveis vêm aumentando a cada dia, a percepção do robô deve ser capaz de capturar informações mais ricas do ambiente, que permitam a tomada de decisões complexas. Entre os possíveis tipos de informação que podem ser obtidos do ambiente, as informações geométricas e semânticas têm papéis importantes na maioria das tarefas designadas a robôs. Enquanto as informações geométricas revelam como os objetos e obstáculos estão distribuídos no espaço, as informações semânticas capturam a presença de estruturas complexas e eventos em andamento no ambiente, e os condensam em descrições abstratas. Esta tese propõe uma nova técnica probabilística para construir uma representação do ambiente baseada em objetos a partir de imagens capturadas por um robô navegando com uma câmera de vídeo solidária a ele. Esta representação, que fornece descrições geométricas e semânticas de objetos, é chamada O-Map, e é a primeira do gênero no contexto de navegação de robôs. A técnica de mapeamento proposta é também nova, e resolve concomitantemente os problemas de localização, mapeamento e classificação de objetos, que surgem quando da construção de O-Maps usando imagens processadas por detectores imperfeitos de objetos e sem um sensor de localização global. Por este motivo, a técnica proposta é chamada O-SLAM, e é o primeiro algoritmo que soluciona simultaneamente os problemas de localização e mapeamento usando somente odometria e o resultado de algoritmos de reconhecimento de objetos. Os resultados obtidos através da aplicação de O-SLAM em imagens processadas por uma técnica simples de detecção de objetos mostra que o algoritmo proposto é capaz de construir mapas que descrevem consistentemente os objetos do ambiente, dado que o sistema de visão computacional seja capaz de detectá-los regularmente. Em particular, O-SLAM é eficaz em fechar voltas grandes na trajetória do robô, e obtém sucesso mesmo se o sistema de detecção de objetos posuir falhas, relatando falsos positivos e errando a classe do objeto algumas vezes, consertando estes erros. Dessa forma, O-SLAM é um passo em direção à solução integrada do problema de localização, mapeamento e reconhecimento de objetos, a qual deve prescindir de um sistema pronto de reconhecimento de objetos e gerar O-Maps somente pela fusão de informações geométricas e visuais obtidas pelo robô. / As tasks performed by mobile robots are increasing in complexity, robot perception must be able to capture richer information from the environment in order to allow complex decision making. Among the possible types of information that can be retrieved from the environment, geometric and semantic information play important roles in most of the tasks assigned to robots. While geometric information reveals how objects and obstacles are distributed in space, semantic information captures the presence of complex structures and ongoing events from the environment and summarize them in abstract descriptions. This thesis proposes a new probabilistic technique to build an object-based representation of the robot surrounding environment using images captured by an attached video camera. This representation, which provides geometric and semantic descriptions of the objects, is called O-Map, and is the first of its kind in the robot navigation context. The proposed mapping technique is also new, and concurrently solves the localization, mapping and object classification problems arisen from building O-Maps using images processed by imperfect object detectors and no global localization sensor. Thus, the proposed technique is called O-SLAM, and is the first algorithm to solve the simultaneous localization and mapping problem using solely odometers and the output from object recognition algorithms. The results obtained by applying O-SLAM to images processed by simple a object detection technique show that the proposed algorithm is able to build consistent maps describing the objects in the environment, provided that the computer vision system is able to detect them on a regular basis. In particular, O-SLAM is effective in closing large loops in the trajectory, and is able to perform well even if the object detection system makes spurious detections and reports wrong object classes, fixing these errors. Thus, O-SLAM is a step towards the solution of the simultaneous localization, mapping and object recognition problem, which must drop the need for an off-the-shelf object recognition system and generate O-Maps only by fusing geometric and appearance information gathered by the robot.
116

Novel methods for biological network inference : an application to circadian Ca2+ signaling network

Jin, Junyang January 2018 (has links)
Biological processes involve complex biochemical interactions among a large number of species like cells, RNA, proteins and metabolites. Learning these interactions is essential to interfering artificially with biological processes in order to, for example, improve crop yield, develop new therapies, and predict new cell or organism behaviors to genetic or environmental perturbations. For a biological process, two pieces of information are of most interest. For a particular species, the first step is to learn which other species are regulating it. This reveals topology and causality. The second step involves learning the precise mechanisms of how this regulation occurs. This step reveals the dynamics of the system. Applying this process to all species leads to the complete dynamical network. Systems biology is making considerable efforts to learn biological networks at low experimental costs. The main goal of this thesis is to develop advanced methods to build models for biological networks, taking the circadian system of Arabidopsis thaliana as a case study. A variety of network inference approaches have been proposed in the literature to study dynamic biological networks. However, many successful methods either require prior knowledge of the system or focus more on topology. This thesis presents novel methods that identify both network topology and dynamics, and do not depend on prior knowledge. Hence, the proposed methods are applicable to general biological networks. These methods are initially developed for linear systems, and, at the cost of higher computational complexity, can also be applied to nonlinear systems. Overall, we propose four methods with increasing computational complexity: one-to-one, combined group and element sparse Bayesian learning (GESBL), the kernel method and reversible jump Markov chain Monte Carlo method (RJMCMC). All methods are tested with challenging dynamical network simulations (including feedback, random networks, different levels of noise and number of samples), and realistic models of circadian system of Arabidopsis thaliana. These simulations show that, while the one-to-one method scales to the whole genome, the kernel method and RJMCMC method are superior for smaller networks. They are robust to tuning variables and able to provide stable performance. The simulations also imply the advantage of GESBL and RJMCMC over the state-of-the-art method. We envision that the estimated models can benefit a wide range of research. For example, they can locate biological compounds responsible for human disease through mathematical analysis and help predict the effectiveness of new treatments.
117

Estimação do índice de abundância de um estoque pesqueiro com estrutura de correlação espacial: uma abordagem bayesiana / Estimation of the indice of abundance of fish stocks considering a structure of spatial correlation: a bayesian approach

Pereira, Júlio César 31 March 2009 (has links)
Dados de captura e esforço estão entre as informações mais importantes a serem obtidas na pesca. Muitas vezes, ao se fazer a avaliação de um estoque pesqueiro, são utilizados índices de abundância baseados na captura por unidade de esforço. Como esses índices são utilizados para a tomada de decisão sobre a regulamentação e distribuição da atividade pesqueira, é importante conhecer quais índices se aplicam melhor em diferentes cenários, bem como a melhor maneira de estimá-los. Na literatura, alguns trabalhos tratam as diferentes localizações geográficas onde ocorrem as pescarias como covariável, considerando que esse é todo o efeito espacial presente nos dados. Entretanto, é possível que ainda haja efeitos remanescentes de segunda ordem. Assim, seria importante utilizar modelos que permitam capturar essa estrutura de correlação espacial. Outros trabalhos, que utilizam métodos geoestatísticos, consideram a razão entre a captura e o esforço como sendo a única variável resposta. Nesse tipo de abordagem, não se considera a relação que pode existir entre a variável esforço em uma localização s qualquer e a captura em outra localização s0 e vice-versa (a covariância cruzada). Esses fatos motivaram a elaboração dos dois artigos apresentados nesta tese. No primeiro artigo foram comparadas estimativas de três índices de abundância relativa, considerando-se dois métodos distintos: 1. usando apenas dados observados nos locais de ocorrência de pesca; 2. usando o método proposto neste artigo, que consiste em se obter estimativas após a interpolação da captura e do esforço nos locais não observados, através de um modelo ajustado aos dados. Para a comparação dos métodos de estimação e das estimativas dos três índices, foram simulados dados de esforço e captura em diferentes cenários. O estudo de simulação realizado mostrou que o segundo método de estimação melhora as estimativas dos índices, principalmente quando se tem correlação entre esforço e captura e correlação espacial. Mostrou ainda, que as estimativas do índice CPUE1, apresentam, em geral, melhores resultados para os diferentes cenários analisados. No segundo artigo, foi realizado um estudo de simulação para comparar estimativas de um índice de abundância relativa, baseado na captura por unidade de esforço considerando-se o ajuste de um modelo geoestatístico univariado para a razão entre captura e esforço, e um bivariado, em que são modelados conjuntamente a captura e o esforço. As estimativas obtidas após o ajuste dos dois modelos apresentaram resultados muito próximos, indicando que não há vantagem em usar o modelo bivariado na estimação do índice, para os cenários analisados. / Catch and effort data are among the most important information to be obtained in fishing. Often when making an assessment of fish stocks, are used indices of abundance based on catch per unit effort. Because these indices are used for decision on regulation and distribution of fishing activity, it is important to know which indices are better applied in different sceneries and the best way to estimate them. Some studies in the literature deal with different geographical locations where occur the fisheries as a covariate, considering that this is the whole spacial effect in the data. However, it is possible that there are still remaining second-round effects. It would be important use models that allow to capture spatial structure of correlation. Other works, using geostatistical methods, consider the ratio between catch and effort as the only response variable. In this approach, it is not considered the relationship that exist between the variable effort in a location s and the catch in any other location s0 and vice versa (the cross-covariance). These facts motivated the development of the two articles in this thesis. In the first article we compared estimates of three indices of relative abundance, considering two distinct methods: 1. using only data observed in places where the fishing occurr, 2. using the proposed method in this article that is to get estimates after the capture and interpolation efforts in places not observed, through a model fitted to data. To compare the estimation methods and the estimates of the three indices were simulated data of effort and catch on different scenarios. The simulation study showed that the second estimation method improves the estimates of the indices, especially when there is correlation between effort and catch and spatial correlation, and that estimates of the indice CPUE1, present, in general, better results for different scenarios analyzed. In the second article was done a simulation study to compare estimates of an indice of abundance based on the catch per unit effort considering the fit of a geostatistical univariate model for the ratio between catch and effort and a bivariate model, where the catch and effort are modeled together. The estimates obtained after the two fitted models showed very similar results, indicating that there is no advantage in using the bivariate model in the estimation of the indice to analyzed scenarios.
118

Inteligência dinâmica nas organizações: a utilização de redes bayesianas na redução de incertezas nos processos de inteligência competitiva / Dynamic intelligence in organizations: the usage of bayesian networks to reduce uncertainties in competitive intelligence processes

Del Rey, Alexandre 24 January 2012 (has links)
O objetivo da dissertação é explorar Redes Bayesianas como ferramenta para reduzir incertezas nos processos de Inteligência Competitiva. Nela, através da revisão de conceitos de Planejamento Estratégico, Tomada de Decisão, Inteligência Competitiva e da capacidade de inferência de Redes Bayesianas é proposta uma abordagem de utilização destas redes com este intuito. Para tanto um estudo de caso apresenta o passo a passo da implementação da abordagem proposta em um ambiente simulado de gestão. No estudo de caso, cada uma das etapas da modelagem de cenários é descrita em detalhes, salientando os cuidados necessários para esta modelagem. Com a modelagem finalizada, dois quase-experimentos foram conduzidos em ambientes simulados para avaliar a percepção e o desempenho dos tomadores de decisão que utilizaram Redes Bayesianas em relação aos tomadores de decisão que não a utilizaram. Os dados obtidos no primeiro quase-experimento não se mostraram confiáveis e no segundo quase-experimento não formaram uma amostra significativa do ponto de vista estatístico. Não obstante, foi possível apresentar contribuições através das observações e dados obtidos nestes quaseexperimentos conduzidos. Do ponto de vista processual, falhas na construção dos quaseexperimento e sugestões de melhoria foram apresentadas. Quanto à ferramenta modelada e construída com base em Redes Bayesianas, foi possível identificar percepções do usuário relativas ao seu uso e sugestões de como aprimorá-la. Quanto aos dados de desempenho obtido, foi possível analisar, no segundo quase-experimento, indícios, mesmo que não conclusivos, que justificam a proposição de novos estudos para aprofundamento. Com base na literatura e nos indícios obtidos é possível acreditar que Redes Bayesianas podem ser usadas na redução de incerteza nos processos de inteligência competitiva e de tomada de decisão. / The aim of this work is to explore Bayesian Networks as a tool to reduce uncertainties in the process of Competitive Intelligence. Here, by reviewing the concepts of Strategic Planning, Decision Making, Competitive Intelligence and the ability to infer of Bayesian Networks, it is proposed an approach for using these networks with this purpose. For this, a case study presents a step by step implementation of the proposed approach in a simulated management environment. In the case study, each step of the modeling scenarios is described in detail, emphasizing the care required for this modeling. With the modeling complete, two quasi-experiments were conducted in simulated environments to assess the perception and performance of decision makers who used Bayesian networks in comparison to the decision makers who have not used it. Data from the first quasi-experiment were not reliable and the second quasi-experiment did not form a representative sample from the statistical point of view. Nevertheless, it was possible to make contributions through the observations and data from these quasi-experiments conducted. From the standpoint of procedural, flaws in the construction of quasiexperiments and suggestions for improvement were presented. Regarding the tool modeled and constructed based on Bayesian Networks, it was possible to identify user perceptions regarding their use and suggestions for how to improve it. As for the performance data obtained, it was possible to examine in the second quasi-experiment, evidence, while not conclusive, that justify the new studies on the subject. Based on the literature and the evidence obtained, it is the possible that Bayesian Networks can be used for reducing uncertainty in the process of competitive intelligence and decisionmaking.
119

Cost-Sensitive Selective Classification and its Applications to Online Fraud Management

January 2019 (has links)
abstract: Fraud is defined as the utilization of deception for illegal gain by hiding the true nature of the activity. While organizations lose around $3.7 trillion in revenue due to financial crimes and fraud worldwide, they can affect all levels of society significantly. In this dissertation, I focus on credit card fraud in online transactions. Every online transaction comes with a fraud risk and it is the merchant's liability to detect and stop fraudulent transactions. Merchants utilize various mechanisms to prevent and manage fraud such as automated fraud detection systems and manual transaction reviews by expert fraud analysts. Many proposed solutions mostly focus on fraud detection accuracy and ignore financial considerations. Also, the highly effective manual review process is overlooked. First, I propose Profit Optimizing Neural Risk Manager (PONRM), a selective classifier that (a) constitutes optimal collaboration between machine learning models and human expertise under industrial constraints, (b) is cost and profit sensitive. I suggest directions on how to characterize fraudulent behavior and assess the risk of a transaction. I show that my framework outperforms cost-sensitive and cost-insensitive baselines on three real-world merchant datasets. While PONRM is able to work with many supervised learners and obtain convincing results, utilizing probability outputs directly from the trained model itself can pose problems, especially in deep learning as softmax output is not a true uncertainty measure. This phenomenon, and the wide and rapid adoption of deep learning by practitioners brought unintended consequences in many situations such as in the infamous case of Google Photos' racist image recognition algorithm; thus, necessitated the utilization of the quantified uncertainty for each prediction. There have been recent efforts towards quantifying uncertainty in conventional deep learning methods (e.g., dropout as Bayesian approximation); however, their optimal use in decision making is often overlooked and understudied. Thus, I present a mixed-integer programming framework for selective classification called MIPSC, that investigates and combines model uncertainty and predictive mean to identify optimal classification and rejection regions. I also extend this framework to cost-sensitive settings (MIPCSC) and focus on the critical real-world problem, online fraud management and show that my approach outperforms industry standard methods significantly for online fraud management in real-world settings. / Dissertation/Thesis / Doctoral Dissertation Computer Science 2019
120

Comparing trend and gap statistics across tests: distributional change using ordinal methods and bayesian inference

Denbleyker, John Nickolas 01 May 2012 (has links)
The shortcomings of the proportion above cut (PAC) statistic used so prominently in the educational landscape renders it a very problematic measure for making correct inferences with student test data. The limitations of PAC-based statistics are more pronounced with cross-test comparisons due to their dependency on cut-score locations. A better alternative is using mean-based statistics that can translate to parametric effect-size measures. However, these statistics as well can be problematic. When Gaussian assumptions are not met, reasonable transformations of a score scale produce non-monotonic outcomes. The present study develops a distribution-wide approach to summarize trend, gap, and gap trend (TGGT) measures. This approach counters the limitations of PAC-based measures and mean-based statistics in addition to addressing TGGT-related statistics in a manner more closely tied to both the data and questions regarding student achievement. This distribution-wide approach encompasses visual graphics such as percentile trend displays and probability-probability plots fashioned after Receiver Operating Characteristic (ROC) curve methodology. The latter is framed as the P-P plot framework that was proposed by Ho (2008) as a way to examine trends and gaps with more consideration given to questions of scale and policy decisions. The extension in this study involves three main components: (1) incorporating Bayesian inference, (2) using a multivariate structure for longitudinal data, and (3) accounting for measurement error at the individual level. The analysis is based on mathematical assessment data comprising Grade 3 to Grade 7 from a large Midwestern school district. Findings suggest that PP-based effect sizes provide a useful framework to measure aggregate test score change and achievement gaps. The distribution-wide perspective adds insight by examining both visually and numerically how trends and gaps are affected throughout the score distribution. Two notable findings using the PP-based effect sizes were (1) achievement gaps were very similar between the Focal and Audit test, and (2) trend measures were significantly larger for the Audit test. Additionally, measurement error corrections using the multivariate Bayesian CTT approach had effect sizes disattenuated from those based on observed scores. Also, the ordinal-based effect size statistics were generally larger than their parametric-based counterparts, and this disattenuation was practically equivalent to that seen by accounting for measurement error. Finally, the rank-based estimator of P(X>Y) via estimated true scores had smaller standard errors than for its parametric-based counterpart.

Page generated in 0.0931 seconds