• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 190
  • 15
  • 13
  • 13
  • 12
  • 12
  • 5
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 203
  • 203
  • 203
  • 84
  • 82
  • 54
  • 41
  • 40
  • 38
  • 34
  • 32
  • 30
  • 28
  • 28
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Visualização em multirresolução do fluxo de tópicos em coleções de texto

Schneider, Bruno 21 March 2014 (has links)
Submitted by Bruno Schneider (bruno.sch@gmail.com) on 2014-05-08T17:46:04Z No. of bitstreams: 1 dissertacao_bruno_schneider.pdf.pdf: 8019497 bytes, checksum: 70ff1fddb844b630666397e95c188672 (MD5) / Approved for entry into archive by Janete de Oliveira Feitosa (janete.feitosa@fgv.br) on 2014-05-13T12:56:21Z (GMT) No. of bitstreams: 1 dissertacao_bruno_schneider.pdf.pdf: 8019497 bytes, checksum: 70ff1fddb844b630666397e95c188672 (MD5) / Approved for entry into archive by Marcia Bacha (marcia.bacha@fgv.br) on 2014-05-14T19:44:51Z (GMT) No. of bitstreams: 1 dissertacao_bruno_schneider.pdf.pdf: 8019497 bytes, checksum: 70ff1fddb844b630666397e95c188672 (MD5) / Made available in DSpace on 2014-05-14T19:45:33Z (GMT). No. of bitstreams: 1 dissertacao_bruno_schneider.pdf.pdf: 8019497 bytes, checksum: 70ff1fddb844b630666397e95c188672 (MD5) Previous issue date: 2014-03-21 / The combined use of algorithms for topic discovery in document collections with topic flow visualization techniques allows the exploration of thematic patterns in long corpus. In this task, those patterns could be revealed through compact visual representations. This research has investigated the requirements for viewing data about the thematic composition of documents obtained through topic modeling - where datasets are sparse and has multi-attributes - at different levels of detail through the development of an own technique and the use of an open source library for data visualization, comparatively. About the studied problem of topic flow visualization, we observed the presence of conflicting requirements for data display in different resolutions, which led to detailed investigation on ways of manipulating and displaying this data. In this study, the hypothesis put forward was that the integrated use of more than one visualization technique according to the resolution of data expands the possibilities for exploitation of the object under study in relation to what would be obtained using only one method. The exhibition of the limits on the use of these techniques according to the resolution of data exploration is the main contribution of this work, in order to provide subsidies for the development of new applications. / O uso combinado de algoritmos para a descoberta de tópicos em coleções de documentos com técnicas orientadas à visualização da evolução daqueles tópicos no tempo permite a exploração de padrões temáticos em corpora extensos a partir de representações visuais compactas. A pesquisa em apresentação investigou os requisitos de visualização do dado sobre composição temática de documentos obtido através da modelagem de tópicos – o qual é esparso e possui multiatributos – em diferentes níveis de detalhe, através do desenvolvimento de uma técnica de visualização própria e pelo uso de uma biblioteca de código aberto para visualização de dados, de forma comparativa. Sobre o problema estudado de visualização do fluxo de tópicos, observou-se a presença de requisitos de visualização conflitantes para diferentes resoluções dos dados, o que levou à investigação detalhada das formas de manipulação e exibição daqueles. Dessa investigação, a hipótese defendida foi a de que o uso integrado de mais de uma técnica de visualização de acordo com a resolução do dado amplia as possibilidades de exploração do objeto em estudo em relação ao que seria obtido através de apenas uma técnica. A exibição dos limites no uso dessas técnicas de acordo com a resolução de exploração do dado é a principal contribuição desse trabalho, no intuito de dar subsídios ao desenvolvimento de novas aplicações.
112

Análise lexicográfica da produção acadêmica da Fiocruz: uma proposta de metodologia

Lima, Jefferson da Costa 09 September 2016 (has links)
Submitted by Jefferson da Costa Lima (jeffersonlima@gmail.com) on 2016-10-31T15:52:52Z No. of bitstreams: 1 JeffersonLima-Dissertação.pdf: 1878827 bytes, checksum: bcf4cfbdcd70a96644fa2d4022eac581 (MD5) / Approved for entry into archive by Janete de Oliveira Feitosa (janete.feitosa@fgv.br) on 2016-11-07T12:54:12Z (GMT) No. of bitstreams: 1 JeffersonLima-Dissertação.pdf: 1878827 bytes, checksum: bcf4cfbdcd70a96644fa2d4022eac581 (MD5) / Made available in DSpace on 2016-11-08T17:24:34Z (GMT). No. of bitstreams: 1 JeffersonLima-Dissertação.pdf: 1878827 bytes, checksum: bcf4cfbdcd70a96644fa2d4022eac581 (MD5) Previous issue date: 2016-09-09 / With the objective to meet the health needs of the population, a huge amount of publications are generated each year. Scientific papers, thesis and dissertations become available digitally, but make them accessible to the user requires an understanding of the indexing process, which is usually made manually. This work proposes an experiment on the feasibility of automatically identify valid descriptors for the documents in the field of health. Are extracted n-grams of the texts and, after comparison with terms of vocabulary Health Sciences Descriptors (DeCS), are identified those who can act as descriptors for the works. We believe that this process can be applied to classification of document sets with deficiencies in their indexing and, even, in supporting the re-indexing processes, improving the precision and recall of the searches, and the possibility of establishing metrics of relevance. / Com o objetivo de atender às demandas de saúde da população, uma quantidade enorme de publicações são geradas a cada ano. Artigos científicos, teses e dissertações tornam-se digitalmente disponíveis, mas torná-los acessíveis aos usuário exige a compreensão do processo de indexação, que em geral é feito manualmente. O presente trabalho propõe um experimento sobre a viabilidade de identificar automaticamente descritores válidos para documentos do campo da saúde. São extraídos n-grams dos textos e, após comparação com termos do vocabulário Descritores em Ciências da Saúde (DeCS), são identificados aqueles que podem atuar como descritores para as obras. Acreditamos que este processo pode ser aplicado na classificação de conjuntos de documentos com deficiências na indexação e, até mesmo, no apoio a processos de reindexação, melhorando a precisão e a revocação das buscas, além da possibilidade de estabelecer métricas de relevância.
113

Health care analytics: análise de reincidência e modelagem preditiva para detecção de futuros pacientes de alto custo no sistema de saúde brasileiro

Silva, Renata Galdino Rocha e 31 May 2016 (has links)
Submitted by Renata Galdino Rocha e Silva (renatagrs@hotmail.com) on 2016-11-09T18:51:03Z No. of bitstreams: 1 Dissertação - Final- Renata Galdino v22 09112016.pdf: 5061207 bytes, checksum: 4dd6980b0cbefdfd51254bc5f6025d67 (MD5) / Approved for entry into archive by GILSON ROCHA MIRANDA (gilson.miranda@fgv.br) on 2016-11-22T17:46:11Z (GMT) No. of bitstreams: 1 Dissertação - Final- Renata Galdino v22 09112016.pdf: 5061207 bytes, checksum: 4dd6980b0cbefdfd51254bc5f6025d67 (MD5) / Made available in DSpace on 2016-12-07T11:31:50Z (GMT). No. of bitstreams: 1 Dissertação - Final- Renata Galdino v22 09112016.pdf: 5061207 bytes, checksum: 4dd6980b0cbefdfd51254bc5f6025d67 (MD5) Previous issue date: 2016-05-31 / Healthcare sector analyses have proven that a small portion of individuals with chronic conditions consume the majority of the resources needed for the treatment of these conditions. Therefore, to achieve the industry’s primary objectives of providing healthcare, reducing costs and improving the patients’ overall wellness, the Brazilian healthcare system should employ proactive models of intervention regarding patients who are very likely to become high-cost. Approaches focusing on specific populations and data quality allow decision makers to have a clear comprehension of the needs presented by each specific group - groups are established as per industry practice - and to plan actions oriented toward cost reduction and improved quality of the services provided. This study aims to assess a risk modelling strategy for predicting which specific types of patients are likely to become high-cost individuals in the Brazilian healthcare system. Such modeling is comprised by Health Analytics Strategies that characterize the global insurance industry and seeks to identify potentially high-cost patients by using data mining techniques, historical data and predictive analysis. / Análises do setor de saúde têm confirmado que uma pequena parcela de indivíduos com condições crônicas consome a maior parte dos recursos destinados ao tratamento destas doenças. Neste sentido, para alcançar os objetivos básicos do setor de melhorar a qualidade, reduzir os custos e melhorar a experiência do paciente, o sistema de saúde deve focar-se em modelos orientados à atuação proativa com foco em intervenção nos pacientes que possuem maior risco de migração para o grupo de alto custo. Abordagens focadas em populações específicas e com informações íntegras permitem que os tomadores de decisão entendam as necessidades de acordo com cada grupo avaliado e planejem ações direcionadas, de forma a reduzir custos e melhorar a qualidade dos serviços prestados. Desta forma, este trabalho visa efetuar um estudo sobre estratégia de modelagem de riscos para predição de pacientes de alto custo no sistema de saúde brasileiro. Tal modelagem faz parte da estratégia de Health Analytics dos principais grupos seguradores globais e busca, mediante uso de técnicas de mineração de dados e análises preditivas, a identificação de pacientes de alto custo para o ano seguinte com base no histórico de informações.
114

Reconstrução de curvas isócronas e sua aplicação na identificação de preferências de usuários de modais do transporte urbano

Reis, Kizzy Fernanda Terra Ferreira dos 10 July 2017 (has links)
Submitted by Kizzy Fernanda Terra Ferreira dos Reis (kizzyterra@gmail.com) on 2017-09-06T13:00:50Z No. of bitstreams: 1 texto-final-dissertacao-kizzy.pdf: 21050814 bytes, checksum: defd2f1878efcd46846500f9e0b62ebe (MD5) / Approved for entry into archive by Janete de Oliveira Feitosa (janete.feitosa@fgv.br) on 2017-09-06T14:59:15Z (GMT) No. of bitstreams: 1 texto-final-dissertacao-kizzy.pdf: 21050814 bytes, checksum: defd2f1878efcd46846500f9e0b62ebe (MD5) / Made available in DSpace on 2017-09-26T13:48:45Z (GMT). No. of bitstreams: 1 texto-final-dissertacao-kizzy.pdf: 21050814 bytes, checksum: defd2f1878efcd46846500f9e0b62ebe (MD5) Previous issue date: 2017-07-10 / This study comprises the problem of isochrone maps reconstruction as well as their application in the identification of user mode choice preferences. We propose a computational modeling of isochrones based on the theory of implicit functions in order to draw the curve on a map and evaluate geometrical properties of interest. Besides, we discuss the theory of consumer choice applied to urban transportation, suggesting modifications in the utility function of McFadden e Domenich (DOMENCICH; MCFADDEN, 1975) which models urban travel demand to embody isochrone curves properties. At long last, we implement a concept demonstration that constitutes a public utility application for mobile devices that supports the decision making of users through the transport mode suggestion in order to increase their quality of life and facilitate their daily life / Este trabalho constitui um estudo sobre o problema da reconstrução de mapas isócronos bem como sua aplicação na identificação das preferências dos usuários de modais de transportes. Propõe-se uma modelagem computacional das curvas isócronas baseada na teoria das funções implícitas a fim de permitir que se possa desenhar a curva sobre um mapa e computar propriedades geométricas de interesse. Ademais, discute-se nesse contexto a teoria do consumidor aplicada ao transporte urbano, sugerindo a adaptação da função de utilidade de McFadden e Domenich (DOMENCICH; MCFADDEN, 1975), que modela a escolha de modais, através da incorporação de propriedades de curvas isócronas. Implementa-se uma demonstração de conceito constituída em um aplicativo de utilidade pública para dispositivos móveis que dá suporte às tomadas de decisões dos usuários através da comparação de modais com o intuito de aumentar sua qualidade de vida e facilitar seu cotidiano
115

Análise de técnicas de data mining na aquisição de clientes de cartão de crédito não correntistas

Kisahleitner, Marcelo 23 March 2009 (has links)
Made available in DSpace on 2010-04-20T20:20:25Z (GMT). No. of bitstreams: 1 68060200600.pdf: 1676148 bytes, checksum: 5cff0f07d403683552d0f33e4607dd05 (MD5) Previous issue date: 2009-03-23T00:00:00Z / O trabalho busca analisar e entender se a aplicação de técnicas de Data mining em processos de aquisição de clientes de cartão de crédito, especificamente os que não possuem uma conta corrente em banco, podem trazer resultados positivos para as empresas que contam com processos ativos de conquista de clientes. Serão exploradas três técnicas de amplo reconhecimento na comunidade acadêmica : Regressão logística, Árvores de decisão, e Redes neurais. Será utilizado como objeto de estudo uma empresa do setor financeiro, especificamente nos seus processos de aquisição de clientes não correntistas para o produto cartão de crédito. Serão mostrados resultados da aplicação dos modelos para algumas campanhas passadas de venda de cartão de crédito não correntistas, para que seja possível verificar se o emprego de modelos estatísticos que discriminem os clientes potenciais mais propensos dos menos propensos à contratação podem se traduzir na obtenção de ganhos financeiros. Esses ganhos podem vir mediante redução dos custos de marketing abordando-se somente os clientes com maiores probabilidades de responderem positivamente à campanha. A fundamentação teórica se dará a partir da introdução dos conceitos do mercado de cartões de crédito, do canal telemarketing, de CRM, e das técnicas de data mining. O trabalho apresentará exemplos práticos de aplicação das técnicas mencionadas verificando os potenciais ganhos financeiros. Os resultados indicam que há grandes oportunidades para o emprego das técnicas de data mining nos processos de aquisição de clientes, possibilitando a racionalização da operação do ponto de vista de custos de aquisição.
116

Modelagem de processos erosivos em área de contatos geológicos no Alto Paranaíba / Modelling of erosion processes in area of geological contacts in the Alto Paranaíba

Souza, Ligia Faria Tavares de 24 February 2017 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2017-08-21T13:57:29Z No. of bitstreams: 1 texto completo.pdf: 10325371 bytes, checksum: 5a2fe84257a342f95f098e049fdaf325 (MD5) / Made available in DSpace on 2017-08-21T13:57:29Z (GMT). No. of bitstreams: 1 texto completo.pdf: 10325371 bytes, checksum: 5a2fe84257a342f95f098e049fdaf325 (MD5) Previous issue date: 2017-02-24 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O objetivo do estudo foi averiguar a relação da dinâmica erosiva com os aspectos ambientais do município de Lagoa Formosa, com ênfase na geologia. Para tanto, foi necessário mapear o uso e ocupação do solo e a probabilidade de ocorrência de processos erosivos através de técnicas de Geoprocessamento e Sensoriamento Remoto, além da caracterização dos solos amostrados na região. Para a obtenção dos mapas, foram utilizadas técnicas de mineração de dados através do algoritmo Random Forest para selecionar as covariáveis mais importantes para a classificação do uso e ocupação do solo e para a predição dos processos erosivos. As covariáveis foram obtidas por meio de dados do IBGE, CODEMIG e EMBRAPA, além de imagens Landsat-8 e SRTM, e foram trabalhadas no software R e ArcGIS 10.1. Em campo, foram amostrados seis perfis de solos, com coleta de amostras para cada horizonte. Em laboratório, foram realizadas análises físicas como granulometria, argila dispersa em água, densidade aparente, densidade de partículas, cor dos solos, e estabilidade de agregados via seca e via úmida, além de análises químicas de rotina, metais pesados e carbono orgânico total, e análises mineralógicas da fração argila e da terra fina seca ao ar (TFSA) pelo ataque sulfúrico e pela fluorescência de raios-X. Em Lagoa Formosa, a maior parte do município está ocupada com atividades agropecuárias, sendo que as pastagens influenciam majoritariamente o desenvolvimento de voçorocas e solo exposto, que são os processos erosivos identificados para a região. As análises dos solos mostraram sua relação com o material de origem, sendo mais um indicador da importância da geologia para o desenvolvimento dos solos e dos processos erosivos. A predição dos processos erosivos selecionou a distância dos contatos geológicos, sendo mais uma evidência da sua importância para seu desenvolvimento. As voçorocas da região estão relacionadas ao contato da Formação Lagoa Formosa com as Coberturas Elúvio- Coluvionares principalmente pela diferença textural, que facilita o avanço erosivo em subsuperfície. O solo exposto é resultado da formação de solos rasos sobre as rochas da Formação Lagoa Formosa que estão majoritariamente horizontalizadas, que dificultam a infiltração da água e consequentemente a pedogênese. Há apenas a formação de horizonte A de baixa fertilidade natural, que não se mantem em eventos pluviométricos de alta intensidade e/ou contínuos. / This study aimed to investigate the relations between the erosive dynamics and the environmental aspects of the Lagoa Formosa county, focusing on the geology. For that matter, the land use and land cover and the probability of erosion processes were mapped using Geoprocessing and Remote Sensing techniques, and samples of soil profiles collected on field were analyzed for its characterization. The maps were obtained through data mining techniques using the Random Forest algorithm to select the most important co-variables to the land use and land cover classification and to the prediction of erosion processes. The co-variables were obtained with IBGE, CODEMIG and EMBRAPA and with Landsat-8 and SRTM imagery that were processed on the R software and ArcGIS 10.1. On field, six soil profiles were described and sampled in each horizon. On the laboratory, physical analysis were made to characterize granulometry, water dispersed clay, bulk density, soil color, and aggregate stability on dry and humid conditions. Routine chemical analyses were made including heavy metals and total organic carbon. The mineralogical analyses were determined through sulfuric attack and x-ray fluorescence to the clay fraction and air dried soil samples ( 2 mm). In Lagoa Formosa, the major area of the county is based on farming activities, where pastures influence greatly the development of gullies and exposed soil, these two being the erosion process identified to the area. The soil analyses showed its relation to the parent material, being another indicator of the importance of geology to the development of soils and erosive processes. The prediction of the erosion processes selected the distance from the geological contacts, another evidence of its importance to development of erosion. The gullies are related to the contact between the Lagoa Formosa Formation with the sedimentary covers from the Tertiary, mostly because of the textural difference among them, which makes easier for the erosion to advance in subsurface. The exposed soil is a result of shallow soils generated above the rocks of the Lagoa Formosa Formation that are mostly horizontalized that tend to hamper the water infiltration and consequently the pedogenesis. There is only the formation of an A horizon of low natural fertility that is removed in events of intense and/or continuous rain.
117

Uso combinado de editor de metadados e árvore hiperbólica para auxílio na recuperação de dados em infraestruturas de dados espaciais: caso de estudo da IDE-CEMIG / Use of thesaurus for help on the data retrieval in spatial data infrastructure: SDI-Cemig study case

Montanari, Marcos Vinícius 28 March 2016 (has links)
Submitted by Reginaldo Soares de Freitas (reginaldo.freitas@ufv.br) on 2016-09-08T16:55:43Z No. of bitstreams: 1 texto completo.pdf: 1747269 bytes, checksum: bc200b3c7c7bced3b56c994dd82ac3eb (MD5) / Made available in DSpace on 2016-09-08T16:55:43Z (GMT). No. of bitstreams: 1 texto completo.pdf: 1747269 bytes, checksum: bc200b3c7c7bced3b56c994dd82ac3eb (MD5) Previous issue date: 2016-03-28 / Fundação de Amparo à Pesquisa do Estado de Minas Gerais / O conjunto de informações utilizado para documentar e organizar dados, com o objetivo de minimizar sua redundância e facilitar sua manutenção e obtenção, é denominado metadado. Um mesmo dado acaba sendo, muitas vezes, produzido por diversos produtores de forma isolada. Para tentar evitar a duplicidade de ações e o desperdício de recursos na obtenção de dados espaciais, o governo brasileiro criou a Infraestrutura Nacional de Dados Espaciais (INDE). A INDE tem como objetivo catalogar, integrar e harmonizar os dados geoespaciais produzidos e mantidos pelas diversas instituições governamentais, visando facilitar sua localização, exploração e acesso por qualquer usuário ligado à Internet. Para definir o conjunto estruturado de elementos básicos que retratam as características dos produtos geoespaciais brasileiros, garantindo sua identificação, avaliação e utilização consistente, a Comissão Nacional de Cartografia (CONCAR) criou o Perfil de Metadados Geoespaciais do Brasil (Perfil MGB). Para pesquisar informações dentro de uma Infraestrutura de Dados Espaciais (IDE) é necessário fazer a busca utilizando uma ou mais das seguintes alternativas: palavras-chave; coordenadas espaciais; classificação temática ou período de tempo. Entretanto, muitos usuários podem apresentar dificuldades na busca de dados geoespaciais através de termos específicos, por não terem conhecimento sobre o assunto ou quais critérios deverão ser utilizados na pesquisa. Este trabalho propõe a utilização de uma árvore hiperbólica de termos para a indexação dos metadados, facilitando sua recuperação. Após a indexação, o usuário pode navegar pelos nós da árvore e realizar buscas pelos metadados relacionados com os termos pesquisados. Para ajudar na elaboração de metadados utilizando o perfil MGB foi desenvolvido o edpMGB, que consiste em um editor de metadados classificado como um software livre e está disponibilizado na Web seguindo o modelo de Software como Serviço (SaaS). Este editor foi desenvolvido no SIG corporativo Companhia Energética de Minas Gerais. Os metadados criados por esse editor podem ser validados e indexados aos nós de uma árvore hiperbólica criada para o setor elétrico. / The Information set used to document and organize data, with the objective of minimize its redundancy and obtainment, is called metadata. Different producers can produce a same data many times in an isolated way. To avoid the duplication of efforts and waste of resources, the Brazilian government has created the National Spatial Data Infrastructure (Infraestrutura Nacional de Dados Espaciais - INDE). The INDE aims to catalogue, integrating and harmonizing geospatial data produced and hold by several government institutions, aiming to facilitate its location, exploration and access by any user from Internet. To define the structured set of basic elements that portrays the characteristics of the Brazilian geospatial products, the National Commission of Cartography (Comissão Nacional de Cartografia - CONCAR) has created the Geospatial Metadata Profile of the Brazil (Perfil de Metadados Geoespaciais do Brasil MGB Profile). To search information in a Spatial Data Infrastructure (SDI), it is necessary to search using one or more the following alternatives: keywords, spatial coordinates, thematic classification or periods of time. However, the untrained users may show difficulties in search geospatial data through specific terms, because the user may not have knowledge about the subjects and which criteria will be used in the search. This work proposes the use of a hyperbolic tree of terms to index metadata, helping its retrieval. After the indexing, the user . To help in the metadata creation using the MGB Profile, was developed the edpMGB, which consists a metadata editor, classified as a software open-source, and it is available in the Internet following the model Software as a Service (SaaS). The edpMGB was developed in the research and developm objective is the implantation of a corporate SDI for the Companhia Energética de Minas Gerais (Cemig). The metadata create by the editor can be validated and indexed to the hyperbolic tr nodes, created by the electric system.
118

Gerador inteligente de sistemas com auto-aprendizagem para gestão de informçaões e conhecimento

Cordeiro, Arildo Dirceu January 2005 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Engenharia de Produção / Made available in DSpace on 2013-07-16T01:03:51Z (GMT). No. of bitstreams: 1 212123.pdf: 2720258 bytes, checksum: 424092db4d3c75a83dc09714ea1d08ac (MD5) / Este trabalho apresenta uma ferramenta que permite ao usuário gerar sistemas inteligentes. Inicialmente é mostrado um sistema Multi-Agentes denominado "SMAGS", com capacidade de integrar sistemas informatizados diferentes e gerenciar, em tempo real, as informações inerentes ao projeto de interesse, podendo atuar também como um "Gerente Virtual". Na seqüência são incorporadas novas técnicas de Inteligência Artificial (IA), com interpretação semântica e testes métricos de ontologias, com o objetivo de fornecer ao usuário uma ferramenta CASE ( Computer Aided Software Engineering ) com capacidade de gerar sistemas de informações informatizados inteligentes. Os sistemas gerados podem aprender a partir de informações oriundas de buscas inteligentes em servidores de ontologias, banco de casos, especialistas na área e mesmo dados fragmentados na internet, facilitando e potencializando as tomadas de decisões gerenciais.
119

Uma metodologia de uso de técnicas de indução para criação de regras de sistemas especialistas

Oliveira, Alexsandra Faisca Nunes de January 2001 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro tecnológico. Programa de Pós-Graduação em Engenharia de Produção / Made available in DSpace on 2012-10-19T07:40:00Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-25T20:25:55Z : No. of bitstreams: 1 185537.pdf: 40032877 bytes, checksum: b9ac28c438deed5dee0518cab3b11c55 (MD5) / O presente trabalho relata a necessidade, na era atual, da utilização de sistemas especialistas para auxiliar os tomadores de decisão empresarial, pois a enorme quantidade de informações encontradas nas bases de dados das empresas torna a análise destas sem a ajuda da informática inviável, uma vez que a capacidade de inferência humana é limitada. Além da precisão da extração de conhecimento novo útil a partir das informações contidas nestas bases de dados de forma automática computacionalmente, pois tal conhecimento pode ser utilizado para a formação da base de conhecimento de um sistema especialista. Procedeu-se então, a busca na literatura para a realização desta tarefa, encontrando a área de descoberta de conhecimento em base de dados como orientação para tal, a qual propõe a aplicação de algoritmos de mineração de dados, além de atividades de pré-processamento dos dados e pós-processamento do conhecimento descoberto, entre outras. Dentre os algoritmos de mineração de dados encontrados destaca-se o ID3, o qual realiza a aprendizagem supervisionada a partir de exemplos, representando o conhecimento descoberto através de árvore de decisão. Fazendo a "leitura" da árvore pode-se representar este conhecimento na forma de regras e com parte do embasamento teórico de regras de associação calcular o suporte (probabilidade) e a confiança de cada regra. Assim, este estudo possibilitou a criação de uma metodologia de uso de técnicas de indução para criação de regras de sistemas especialistas. Tal metodologia conduziu a criação de um protótipo de software, denominado GARP, que proporciona a geração automática de regras probabilísticas podendo ser usadas em qualquer shell de sistemas especialistas baseada em regras. Para validação desta metodologia, o protótipo criado foi submetido a testes utilizando-se bases de dados fictícios como também, uma aplicação real do jogo de empresas GI-EPS. Por fim, são apresentadas algumas constatações referentes a aplicação desta metodologia em relação ao algoritmo de mineração de dados utilizado, o ID3.
120

Classificação de cobertura do solo utilizando árvores de decisão e sensoriamento remoto

Celinski, Tatiana Montes [UNESP] 02 December 2008 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:31:33Z (GMT). No. of bitstreams: 0 Previous issue date: 2008-12-02Bitstream added on 2014-06-13T20:02:19Z : No. of bitstreams: 1 celinski_tm_dr_botfca.pdf: 1773028 bytes, checksum: 4e269402cffb336eabab0615c60d49d5 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Este trabalho teve por objetivo a discriminação de classes de cobertura do solo em imagens de sensoriamento remoto do satélite CBERS-2 por meio do Classificador Árvore de Decisão. O estudo incluiu a avaliação de combinações de atributos da imagem para melhor discriminação entre classes e a verificação da acurácia da metodologia proposta comparativamente ao Classificador Máxima Verossimilhança (MAXVER). A área de estudo está localizada na região dos Campos Gerais, no Estado do Paraná, que apresenta diversidade quanto aos tipos de vegetação: culturas de inverno e de verão, áreas de reflorestamento, mata natural e pastagens. Foi utilizado um conjunto de dezesseis (16) atributos a partir das imagens, composto por: bandas do sensor CCD (1, 2, 3, 4), índices de vegetação (CTVI, DVI, GEMI, NDVI, SR, SAVI, TVI), componentes de mistura (solo, sombra, vegetação) e os dois primeiros componentes principais. A acurácia da classificação foi avaliada por meio da matriz de erros de classificação e do coeficiente kappa. A coleta de amostras de verdade terrestre foi realizada utilizando-se um aparelho GPS de navegação para o processo de georreferenciamento, para serem usadas na fase de treinamento dos classificadores e também na verificação da acurácia. O processamento das imagens e a geração dos mapas temáticos foram realizados por meio do Sistema de Informações Geográficas SPRING, sendo as rotinas desenvolvidas na linguagem de programação LEGAL. Para a geração do Classificador Árvore de Decisão foi utilizada a ferramenta See5. Na definição das classes, buscou-se um alto nível discriminatório a fim de permitir a separação dos diferentes tipos de culturas presentes na região nas épocas de inverno e de verão. A classificação por árvore de decisão apresentou uma acurácia total de 94,5% e coeficiente kappa igual a 0,9389, para a cena 157/128; para... / This work aimed to discriminate classes of land cover in remote sensing images of the satellite CBERS-2, using the Decision Tree Classifier. The study includes the evaluation of combinations of attributes of the image to a better discrimination between classes and the verification of the accuracy of the proposed methodology, comparatively to the Maximum Likelihood Classifier (MLC). The geographical area used is situated in the region of the “Campos Gerais”, in the Paraná State, which presents diversities concerning the different kinds of vegetations: summer and winter crops, reforestation areas, natural forests and pastures. It was used a set of sixteen (16) attributes from images, composed by bands of the sensor CCD (1, 2, 3, 4), vegetation indices (CTVI, DVI, GEMI, NDVI, SR, SAVI, TVI), mixture components (soil, shadow, vegetation) and the two first principal components. The accuracy of the classifications was evaluated using the classification error matrix and the kappa coefficient. The collect of the samples of ground truth was performed using a navigation device GPS to the georeference process to be used in the training stage of the classifiers and in the verification of the accuracy, as well. The processing of the images and the generation of the thematic maps were made using the Geographic Information System SPRING, and the routines were developed in the programming language LEGAL. The generation of the Decision Tree Classifier was made using the tool See5. A high discriminatory level was aimed during the definition of the classes in order to allow the separation of the different kinds of winter and summer crops. The classification accuracy by decision tree was 94.5% and kappa coefficient was 0.9389 to the scene 157/128; to the scene 158/127, it presented the values 88% and 0.8667, respectively. Results showed that the performance of the Decision Tree Classifier was better... (Complete abstract click electronic access below)

Page generated in 0.09 seconds