• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 67
  • 1
  • Tagged with
  • 68
  • 68
  • 27
  • 19
  • 15
  • 14
  • 14
  • 12
  • 12
  • 12
  • 11
  • 10
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Aplicação de técnicas de descobrimento de conhecimento em bases de dados e de inteligência artificial em avaliação de imóveis

Gonzalez, Marco Aurelio Stumpf January 2002 (has links)
A comparação de dados de mercado é o método mais empregado em avaliação de imóveis. Este método fundamenta-se na coleta, análise e modelagem de dados do mercado imobiliário. Porém os dados freqüentemente contêm erros e imprecisões, além das dificuldades de seleção de casos e atributos relevantes, problemas que em geral são solucionados subjetivamente. Os modelos hedônicos de preços têm sido empregados, associados com a análise de regressão múltipla, mas existem alguns problemas que afetam a precisão das estimativas. Esta Tese investigou a utilização de técnicas alternativas para desenvolver as funções de preparação dos dados e desenvolvimento de modelos preditivos, explorando as áreas de descobrimento de conhecimento e inteligência artificial. Foi proposta uma nova abordagem para as avaliações, consistindo da formação de uma base de dados, ampla e previamente preparada, com a aplicação de um conjunto de técnicas para seleção de casos e para geração de modelos preditivos. Na fase de preparação dos dados foram utilizados as técnicas de regressão e redes neurais para a seleção de informação relevante, e o algoritmo de vizinhança próxima para estimação de valores para dados com erros ou omissões. O desenvolvimento de modelos preditivos incluiu as técnicas de regressão com superficies de resposta, modelos aditivos generalizados ajustados com algoritmos genéticos, regras extraídas de redes neurais usando lógica difusa e sistemas de regras difusas obtidos com algoritmos genéticos, os quais foram comparados com a abordagem tradicional de regressão múltipla Esta abordagem foi testada através do desenvolvimento de um estudo empírico, utilizando dados fornecidos pela Prefeitura Municipal de Porto Alegre. Foram desenvolvidos três formatos de avaliação, com modelos para análise de mercado, avaliação em massa e avaliação individual. Os resultados indicaram o aperfeiçoamento da base de dados na fase de preparação e o equilíbrio das técnicas preditivas, com um pequeno incremento de precisão, em relação à regressão múltipla.Os modelos foram similares, em termos de formato e precisão, com o melhor desempenho sendo atingido com os sistemas de regras difusas.
12

Redes Bayesianas aplicadas à análise do risco de crédito. / Bayesian networks applied to the anilysis of credit risk.

Karcher, Cristiane 26 February 2009 (has links)
Modelos de Credit Scoring são utilizados para estimar a probabilidade de um cliente proponente ao crédito se tornar inadimplente, em determinado período, baseadas em suas informações pessoais e financeiras. Neste trabalho, a técnica proposta em Credit Scoring é Redes Bayesianas (RB) e seus resultados foram comparados aos da Regressão Logística. As RB avaliadas foram as Bayesian Network Classifiers, conhecidas como Classificadores Bayesianos, com seguintes tipos de estrutura: Naive Bayes, Tree Augmented Naive Bayes (TAN) e General Bayesian Network (GBN). As estruturas das RB foram obtidas por Aprendizado de Estrutura a partir de uma base de dados real. Os desempenhos dos modelos foram avaliados e comparados através das taxas de acerto obtidas da Matriz de Confusão, da estatística Kolmogorov-Smirnov e coeficiente Gini. As amostras de desenvolvimento e de validação foram obtidas por Cross-Validation com 10 partições. A análise dos modelos ajustados mostrou que as RB e a Regressão Logística apresentaram desempenho similar, em relação a estatística Kolmogorov- Smirnov e ao coeficiente Gini. O Classificador TAN foi escolhido como o melhor modelo, pois apresentou o melhor desempenho nas previsões dos clientes maus pagadores e permitiu uma análise dos efeitos de interação entre variáveis. / Credit Scoring Models are used to estimate the insolvency probability of a customer, in a period, based on their personal and financial information. In this text, the proposed model for Credit Scoring is Bayesian Networks (BN) and its results were compared to Logistic Regression. The BN evaluated were the Bayesian Networks Classifiers, with structures of type: Naive Bayes, Tree Augmented Naive Bayes (TAN) and General Bayesian Network (GBN). The RB structures were developed using a Structure Learning technique from a real database. The models performance were evaluated and compared through the hit rates observed in Confusion Matrix, Kolmogorov-Smirnov statistic and Gini coefficient. The development and validation samples were obtained using a Cross-Validation criteria with 10-fold. The analysis showed that the fitted BN models have the same performance as the Logistic Regression Models, evaluating the Kolmogorov-Smirnov statistic and Gini coefficient. The TAN Classifier was selected as the best BN model, because it performed better in prediction of bad customers and allowed an interaction effects analysis between variables.
13

Construção de mapas genéticos em espécies de polinização aberta: uma abordagem Bayesiana com o uso de uma priori informativa. / Construction of genetics maps in outbreeding species: A Bayesian approach with the use of a prior informative.

Ragonha, Francine 03 March 2005 (has links)
A construção dos mapas Genéticos é importante para o melhoramento genético de plantas, pois são através desses mapas que pode se determinar em que pontos dos cromossomos as unidades hereditárias podem estar. Com o objetivo de verificar se o método Bayesiano incluindo a informação a priori pode ou não ser empregado nos estudos de construção de mapas Genéticos, estimativas Bayesianas e de máxima verossimilhança para a freqüência de recombinação foram obtidas, envolvendo espécies de polinização aberta. Para isso, foram considerados diferentes tipos de marcadores: marcadores completamente informativos e marcadores parcialmente informativos. Através de simulações de conjuntos de dados combinando dois marcadores de cada vez, as estimativas da freqüência de recombinação foram obtidas através de um algoritmo baseado na função de verossimilhança para os dois métodos de estimação usados. A caracterização das fases de ligação foi baseada na distribuição da probabilidade a posteriori dos arranjos de alelos alternativos em dados marcadores para dois cromossomos homólogos de cada genitor, condicional aos fenótipos observados dos marcadores. Os resultados obtidos permitem concluir que o método Bayesiano pode ser usado em estudos de ligação Genética com o uso da informação a priori. Quanto a estimação das fases de ligação, os dois métodos levam sempre à mesma conclusão. / The construction of the Genetic maps are essential for the genetic improvement of plants, because through this maps that it can be determined in which spots within the chromosomes the hereditary unities could be. With the aim of checking whether the Bayesian method including the prior information can or not to be used in the studies of Genetic maps construction, Bayesians estimates and of maximum likelihood for the recombination frequency were obtained, outbreeding species. For that, diferent types of markers were considered containing fully informative markers and partially informative markers. Through simulations of groups of data combining two markers one at a time, the estimates of the recombination frequency were obtained through a general maximum-likelihood based algorithm for the two used estimate methods. The characterization of linkage phases was based in the posterior probable distribution of the assignment of alternative alleles at given markers to two homologous chromosomes of each parent, conditional on the observed phenotypes of the markers.The results obtained allows to conclude that the Bayesian method can be used in studies of Genetic linkage with the use of the priori information. As the estimate of the linkage phases, the two methods always get to the same conclusion.
14

Redes causais nebulosas.

Leilton Scandelari Lemos 00 December 2002 (has links)
Sistemas especialistas que lidam com mundos aleatórios ou condicionados por exceções são de grande utilidade quando definidos por métodos estatísticos. Seja pela melhora da segurança na predição da aleatoriedade ou pela redução das regras que tratam as exceções, estes sistemas tem atraído grande atenção de pesquisadores e da indústria (pois existem muito mais exceções possíveis do que as enumeradas explicitamente). Como um dos sistemas especialistas probabilísticos mais difundidos atualmente, as redes bayesianas representam o conhecimento na forma de grafos e tabelas e por isto são altamente intuitivas e descritivas. Apesar de sua popularidade, as redes bayesianas possuem alguns problemas conhecidos que dificultam seu uso, seja na sua modelagem ou no uso em tempo real. Esta pesquisa propõe o formalismo de um nó codificador e decodificador que visa tratar as incertezas no conhecimento (seja por problemas de definição ou aquisição) e possibilitar a conexão entre conhecimentos heterogêneos. É proposto também um formalismo para outro mecanismo de inferência, a Rede Causal Nebulosa. Além da possibilidade de uma Rede Causal Nebulosa ser usada como substituta à rede bayesiana, há a possibilidade do uso da Rede Causal Nebulosa em controle de sistemas, no lugar dos controladores nebulosos tradicionais, possibilitando assim a modelagem de controladores nebulosos mais complexos, seja pelo acréscimo de: variáveis, dependências indiretas, regras ou graus de certeza. Estas adições à rede bayesiana permitiram: Eliminar a dependência de conhecimento; com o uso do nó codificador e decodificador há a possibilidade de inserir na rede conhecimento sobre os possíveis estados que uma variável pode assumir e as funções que definem os estados. Desta forma, a necessidade do usuário conhecer a modelagem da rede é removida, pois, o usuário não precisa mais tratar o dado bruto de forma a adequá-lo a entrada da rede; melhorar o uso da rede em tempo real; a remoção do tratamento dos dados para sua adequação à interface da rede melhora o uso em tempo real; facilitar a definição de estados às variáveis da rede; o uso de codificadores permite otimizar a definição de estados que a variável pode assumir; o aprendizado das regras e das dependências nos controladores nebulosos pode ser facilitado pelo uso das redes causais nebulosas como ambiente de trabalho.
15

MIDC - um método de inferência difusa para classificação em banco de dados

Strauss Cunha Carvalho 24 June 2014 (has links)
Este trabalho propõe um Método de Inferência Difusa para Classificação em Banco de Dados, denominado MIDC, visando aumentar a eficiência no tratamento de incertezas e imprecisões nas recuperações e classificações de informações a fim de tratá-las, qualitativamente, de modo semelhante ao raciocínio humano. Deste modo, propicia-se aos sistemas de Banco de Dados, por meio da utilização de termos qualitativos (linguísticos), as capacidades de recuperar, classificar e manipular informações, representando-as além das fronteiras da Lógica Clássica. O método proposto utiliza-se de um Sistema de Inferência Difusa (SID), composto de uma base de regras e um mecanismo de inferência, aplicável, também, na tarefa de Classificação da etapa de Mineração de Dados (Data Mining - DM) do Processo de Descoberta de Conhecimento em Banco de Dados (Knowledge Discovery in Databases - KDD). O m ?todo proposto foi verificado em um estudo de caso que propiciou realizar experimentos com grandes volume de dados, a fim compará-lo com um método tradicional de consulta e classificação em Bancos de Dados. Deste modo, propiciou-se uma comparação entre a recuperação e classificação de informações, utilizando-se Lógica Difusa e Lógica Clássica.
16

Modelagem de processo de extração de conhecimento em banco de dados para sistemas de suporte à decisão. / Modeling of knowledge discovery in databases for decision systems.

Shiba, Sonia Kaoru 26 June 2008 (has links)
Este trabalho apresenta a modelagem de um processo de extração de conhecimento, onde a aquisição de informações para a análise de dados têm como origem os bancos de dados transacionais e data warehouse. A mineração de dados focou-se na geração de modelos descritivos a partir de técnicas de classificação baseada no Teorema de Bayes e no método direto de extração de regras de classificação, definindo uma metodologia para a geração de modelos de aprendizagem. Foi implementado um processo de extração de conhecimento para a geração de modelos de aprendizagem para suporte à decisão, aplicando técnicas de mineração de dados para modelos descritivos e geração de regras de classificação. Explorou-se a possibilidade de transformar os modelos de aprendizagem em bases de conhecimento utilizando um banco de dados relacional, disponível para acesso via sistema especialista, para a realização de novas classificações de registros, ou então possibilitar a visualização dos resultados a partir de planilhas eletrônicas. No cenário descrito neste trabalho, a organização dos procedimentos da etapa de pré-processamento permitiu que a extração de atributos adicionais ou transformação de dados fosse realizada de forma iterativa, sem a necessidade de implementação de novos programas de extração de dados. Desta forma, foram definidas todas as atividades essenciais do pré-processamento e a seqüência em que estas devem ser realizadas, além de possibilitar a repetição dos procedimentos sem perdas das unidades codificadas para o processo de extração de dados. Um modelo de processo de extração de conhecimento iterativo e quantificável, em termos das etapas e procedimentos, foi configurado vislumbrando um produto final com o projeto da base de conhecimento para ações de retenção de clientes e regras para ações específicas com segmentos de clientes. / This work presents a model of knowledge discovery in databases, where the information for data analysis comes from a repository of transactional information systems and data-warehouse. The data mining focused on the generation of descriptive models by means of classification techniques based on the Bayes\' theorem and a extraction method of classification rules, defining a methodology to propose new learning models. The process of knowledge extraction was implemented for the generation of learning models for support the make decision, applying data mining for descriptive models and generation of classification rules. This work explored the possibility of transforming the learning models in knowledge database using a relational database, to be accessible by a specialist system, to classify new records or to allow the visualization of the results through electronic tables. The organization of the procedures in the pre-processing allowed to extract additional attributes or to transform information in an interactive process, with no need of new programs to extract the information. This way, all the essential activities of the pre-processing were defined and the sequence in which these should be developed. Additionally, this allowed the repetition of the procedures with no loss of units for the process of information extraction. A model of process for the interactive and quantifiable extraction of knowledge, in terms of the stages and procedures, was idealized in order to develop a product with the project of the knowledge databases for actions of retention of clients and rules for specific actions within clients\' segments.
17

Seleção de características em inferência de redes de interação gênica a partir de conjuntos reduzidos de amostras

Cubas, Carlos Fernando Montoya January 2014 (has links)
Orientador: Prof. Dr. David Correa Martins Junior / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Ciência da Computação, 2014.
18

Modelagem de processo de extração de conhecimento em banco de dados para sistemas de suporte à decisão. / Modeling of knowledge discovery in databases for decision systems.

Sonia Kaoru Shiba 26 June 2008 (has links)
Este trabalho apresenta a modelagem de um processo de extração de conhecimento, onde a aquisição de informações para a análise de dados têm como origem os bancos de dados transacionais e data warehouse. A mineração de dados focou-se na geração de modelos descritivos a partir de técnicas de classificação baseada no Teorema de Bayes e no método direto de extração de regras de classificação, definindo uma metodologia para a geração de modelos de aprendizagem. Foi implementado um processo de extração de conhecimento para a geração de modelos de aprendizagem para suporte à decisão, aplicando técnicas de mineração de dados para modelos descritivos e geração de regras de classificação. Explorou-se a possibilidade de transformar os modelos de aprendizagem em bases de conhecimento utilizando um banco de dados relacional, disponível para acesso via sistema especialista, para a realização de novas classificações de registros, ou então possibilitar a visualização dos resultados a partir de planilhas eletrônicas. No cenário descrito neste trabalho, a organização dos procedimentos da etapa de pré-processamento permitiu que a extração de atributos adicionais ou transformação de dados fosse realizada de forma iterativa, sem a necessidade de implementação de novos programas de extração de dados. Desta forma, foram definidas todas as atividades essenciais do pré-processamento e a seqüência em que estas devem ser realizadas, além de possibilitar a repetição dos procedimentos sem perdas das unidades codificadas para o processo de extração de dados. Um modelo de processo de extração de conhecimento iterativo e quantificável, em termos das etapas e procedimentos, foi configurado vislumbrando um produto final com o projeto da base de conhecimento para ações de retenção de clientes e regras para ações específicas com segmentos de clientes. / This work presents a model of knowledge discovery in databases, where the information for data analysis comes from a repository of transactional information systems and data-warehouse. The data mining focused on the generation of descriptive models by means of classification techniques based on the Bayes\' theorem and a extraction method of classification rules, defining a methodology to propose new learning models. The process of knowledge extraction was implemented for the generation of learning models for support the make decision, applying data mining for descriptive models and generation of classification rules. This work explored the possibility of transforming the learning models in knowledge database using a relational database, to be accessible by a specialist system, to classify new records or to allow the visualization of the results through electronic tables. The organization of the procedures in the pre-processing allowed to extract additional attributes or to transform information in an interactive process, with no need of new programs to extract the information. This way, all the essential activities of the pre-processing were defined and the sequence in which these should be developed. Additionally, this allowed the repetition of the procedures with no loss of units for the process of information extraction. A model of process for the interactive and quantifiable extraction of knowledge, in terms of the stages and procedures, was idealized in order to develop a product with the project of the knowledge databases for actions of retention of clients and rules for specific actions within clients\' segments.
19

Redes Bayesianas aplicadas à análise do risco de crédito. / Bayesian networks applied to the anilysis of credit risk.

Cristiane Karcher 26 February 2009 (has links)
Modelos de Credit Scoring são utilizados para estimar a probabilidade de um cliente proponente ao crédito se tornar inadimplente, em determinado período, baseadas em suas informações pessoais e financeiras. Neste trabalho, a técnica proposta em Credit Scoring é Redes Bayesianas (RB) e seus resultados foram comparados aos da Regressão Logística. As RB avaliadas foram as Bayesian Network Classifiers, conhecidas como Classificadores Bayesianos, com seguintes tipos de estrutura: Naive Bayes, Tree Augmented Naive Bayes (TAN) e General Bayesian Network (GBN). As estruturas das RB foram obtidas por Aprendizado de Estrutura a partir de uma base de dados real. Os desempenhos dos modelos foram avaliados e comparados através das taxas de acerto obtidas da Matriz de Confusão, da estatística Kolmogorov-Smirnov e coeficiente Gini. As amostras de desenvolvimento e de validação foram obtidas por Cross-Validation com 10 partições. A análise dos modelos ajustados mostrou que as RB e a Regressão Logística apresentaram desempenho similar, em relação a estatística Kolmogorov- Smirnov e ao coeficiente Gini. O Classificador TAN foi escolhido como o melhor modelo, pois apresentou o melhor desempenho nas previsões dos clientes maus pagadores e permitiu uma análise dos efeitos de interação entre variáveis. / Credit Scoring Models are used to estimate the insolvency probability of a customer, in a period, based on their personal and financial information. In this text, the proposed model for Credit Scoring is Bayesian Networks (BN) and its results were compared to Logistic Regression. The BN evaluated were the Bayesian Networks Classifiers, with structures of type: Naive Bayes, Tree Augmented Naive Bayes (TAN) and General Bayesian Network (GBN). The RB structures were developed using a Structure Learning technique from a real database. The models performance were evaluated and compared through the hit rates observed in Confusion Matrix, Kolmogorov-Smirnov statistic and Gini coefficient. The development and validation samples were obtained using a Cross-Validation criteria with 10-fold. The analysis showed that the fitted BN models have the same performance as the Logistic Regression Models, evaluating the Kolmogorov-Smirnov statistic and Gini coefficient. The TAN Classifier was selected as the best BN model, because it performed better in prediction of bad customers and allowed an interaction effects analysis between variables.
20

Contágio entre mercados financeiros : uma análise via cópulas não paramétricas

Silva Junior, Julio Cesar Araujo da January 2012 (has links)
O aumento dos fluxos globais comerciais e financeiros, a partir da década de 90, e as diversas crises ocorridas até o atual período fizeram da avaliação de contágio um tema extremamente relevante, tanto para investidores quanto para formuladores de política. Nesse sentido, a presente dissertação tem como objetivo testar a hipótese de contágio financeiro para os mercados de Brasil, Inglaterra e Espanha em face à última crise americana de 2008. Para tanto, desenvolveu-se o artigo que integra o Capítulo 2 - a espinha dorsal deste trabalho - com dados diários dos retornos dos índices de Jan/2004 a Jun/2011. No âmbito da metodologia de cópulas, adotou-se uma estratégia empírica com base em duas etapas: i) a estimativa não paramétrica de cópulas, via kernel, utilizando o método desenvolvido em Fermanian et al. (2002) e a avaliação através de uma abordagem de bootstrap, sobre a ocorrência de um aumento significativo nas medidas de dependência delas extraídas; ii) testes sobre a igualdade entre cópulas empíricas, conforme proposto por Remillard e Scaillet (2009), a fim de verificar se houve mudança na estrutura de dependência a partir da crise. Os resultados obtidos nas duas etapas da estratégia empírica são semelhantes e sugerem a existência de contágio financeiro para os países analisados no período estudado. / The increase in global trade and financial flows since the 90’s, and the various crises in the current period until these days made contagion an extremely important issue for both investors and policy makers. Accordingly, this dissertation aims to test the hypothesis of financial contagion between USA and markets in Brazil, England and Spain in the face of the last USA crisis of 2008. To this end, we produce the article in Chapter 2 - the backbone of this work - with daily data of index-returns from Jan/2004 to Jun/2011. Under the scope of copula methodology, we addopt an empirical strategy based on two steps: i) estimating nonparametric copulas via kernel, using the method developed in Fermanian et al. (2002) and assessing through a bootstrap approach whether a significant change in dependence measures extracts thereof, ii) testing whether two empirical estimated copulas are the same, as proposed by Remillard e Scaillet (2009), to check again whether dependence structures change with crisis. The results obtained in these two steps of the empirical strategy are similar and suggest the existence of financial contagion between the countries analysed in the studied period.

Page generated in 0.0744 seconds