11 |
Descoberta de conhecimento em texto aplicada a um sistema de atendimento ao consumidorSchiessl, José Marcelo 12 April 2007 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Economia, Administração, Contabilidade e Ciência da Informação e Documentação, Departamento de Ciência da Informação e Documentação, 2007. / Submitted by Luis Felipe Souza (luis_felas@globo.com) on 2009-01-12T11:44:00Z
No. of bitstreams: 1
Dissertacao_2007_JoseSchiessl.pdf: 1688737 bytes, checksum: 8cde16615a96a2427a9cdfb62c3f48cc (MD5) / Approved for entry into archive by Georgia Fernandes(georgia@bce.unb.br) on 2009-03-04T14:33:25Z (GMT) No. of bitstreams: 1
Dissertacao_2007_JoseSchiessl.pdf: 1688737 bytes, checksum: 8cde16615a96a2427a9cdfb62c3f48cc (MD5) / Made available in DSpace on 2009-03-04T14:33:25Z (GMT). No. of bitstreams: 1
Dissertacao_2007_JoseSchiessl.pdf: 1688737 bytes, checksum: 8cde16615a96a2427a9cdfb62c3f48cc (MD5) / Analisa um Serviço de Atendimento ao Consumidor de uma instituição financeira que
centraliza, em forma textual, os questionamentos, as reclamações, os elogios e as sugestões, verbais ou escritas, de clientes. Discute a complexidade da informação armazenada em linguagem natural para esse tipo de sistema. Visa apresentar alternativa para extração de conhecimento de bases textuais com a criação de agrupamentos e modelo de classificação automática de textos para agilizar a tarefa realizada atualmente por pessoas. Apresenta uma revisão de literatura que mostra a Descoberta de Conhecimento em Texto como uma extensão da Descoberta de Conhecimento em Dados que utiliza técnicas do Processamento de Linguagem Natural para adequar o texto a um formato apropriado para a mineração de dados e destaca a importância do processo dentro da Ciência da Informação. Aplica a
Descoberta de Conhecimento em Texto em uma base do Serviço de Atendimento ao
Cliente com objetivo de criar automaticamente agrupamentos de documentos para posterior criação de um modelo categorizador automático dos novos documentos recebidos diariamente. Essas etapas contam com a validação de especialistas de domínio que atestam a qualidade dos agrupamentos e do modelo. Cria indicadores de desempenho que avaliam o grau de satisfação do cliente em relação aos produtos e serviços oferecidos para fornecer subsídio à gestão na política de
atendimento.
_______________________________________________________________________________________________________________ ABSTRACT / It analyses a Help Desk System of a federal institution that centralizes customer answers, complains, compliments, and suggestions, spoken or written. It argues about information complexity stored in natural language. It intends to present an alternative for knowledge extraction from textual databases by creating clusters and automatic classification model of texts in order to improve the current tasks made by employees. It presents a literature revision that shows the Knowledge Discovery in Text as an extension of Knowledge Discovery in Data that utilizes the Natural Language Processing in order to adequate the text into an appropriated format to data mining and enhances the importance of the process in the Information Science field. It applies the Knowledge Discovery in Text techniques in the Help Desk Database in order to create cluster of documents and, after that, to build an automatic classification model to new documents received every day. These steps
need to be validated by specialist in the area to verify the model and clusters quality. It creates performance indexes in order to measure the customer satisfaction related
to products and services to provide information for decision makers.
|
12 |
O papel da aprendizagem experiencial: um estudo de caso em uma disciplina de imersão em sustentabilidade na FGV EAESPBlau, Claus Richard 27 June 2018 (has links)
Submitted by Claus Blau (crblau@hotmail.com) on 2018-06-27T12:21:40Z
No. of bitstreams: 1
TA Claus Richard Blau - MPGC FGV Sustentabilidade - Junho 2018.pdf: 545759 bytes, checksum: 76d366723fbb608f71bde851fe6cb08f (MD5) / Approved for entry into archive by Simone de Andrade Lopes Pires (simone.lopes@fgv.br) on 2018-06-28T16:21:18Z (GMT) No. of bitstreams: 1
TA Claus Richard Blau - MPGC FGV Sustentabilidade - Junho 2018.pdf: 545759 bytes, checksum: 76d366723fbb608f71bde851fe6cb08f (MD5) / Approved for entry into archive by Suzane Guimarães (suzane.guimaraes@fgv.br) on 2018-06-28T16:58:24Z (GMT) No. of bitstreams: 1
TA Claus Richard Blau - MPGC FGV Sustentabilidade - Junho 2018.pdf: 545759 bytes, checksum: 76d366723fbb608f71bde851fe6cb08f (MD5) / Made available in DSpace on 2018-06-28T16:58:24Z (GMT). No. of bitstreams: 1
TA Claus Richard Blau - MPGC FGV Sustentabilidade - Junho 2018.pdf: 545759 bytes, checksum: 76d366723fbb608f71bde851fe6cb08f (MD5)
Previous issue date: 2018-06-27 / O objetivo central deste trabalho é investigar o papel da Aprendizagem Experiencial na educação para a sustentabilidade através do estudo de caso de uma disciplina de imersão. Além de uma revisão da literatura sobre a Aprendizagem Experiencial, este trabalho apresenta o caso prático de uma experiência imersiva realizada pelo FGVces (Centro de Estudos em Sustentabilidade da FGV) com alunos de graduação da FGV EAESP, incluindo a investigação dos resultados da pesquisa sobre esta imersão, seguida por sugestões de possíveis melhorias. No contexto mais ampliado do Pensamento Complexo (ou da Complexidade), este trabalho visa também investigar a relevância da Aprendizagem Experiencial como uma metodologia inovadora para transformar a própria educação, algo que, além de necessário em virtude da urgência em se formar protagonistas de um desenvolvimento econômico, social e humano mais sustentável, se apresenta também como uma forma de ampliação do nosso paradigma de percepção. Como resultado deste trabalho é apresentada a relevância da Aprendizagem Experiencial, assim como do diálogo e da reflexão, para uma compreensão mais ampliada do tema Sustentabilidade. / The central goal of this dissertation is to investigate the role that Experiential Learning plays in the education for sustainability through the case study of an immersion discipline. Beyond a literature revision about Experiential Learning, this dissertation presents a practical case of an immersive experience developed by FGVces (Study Center for Sustainability of FGV) with FGV EAESP graduation students, including the investigation of the results of a research about this immersion, followed by the suggestion of possible improvements. In the broader context of Complex Thinking (or Complexity), this dissertation also aims to investigate the relevance of Experiential Learning as an innovative methodology to transform the very education, what, besides the urgency in forming protagonists of a more sustainable economic, social and human development, is also a way for the broadening of our perception paradigm. As a result of this dissertation the relevance of Experiential Learning is presented, as well as of dialogue and reflection, for a broader comprehension of Sustainability.
|
13 |
Um modelo para descoberta de aplicativos de Internet das coisasBarbosa J??nior, Ant??nio 31 August 2017 (has links)
Submitted by Sara Ribeiro (sara.ribeiro@ucb.br) on 2017-11-17T12:40:52Z
No. of bitstreams: 1
AntonioBarbosaJuniorDissertacao2017.pdf: 3677259 bytes, checksum: 2e28ae94c001e36741ccb4fefefd5804 (MD5) / Approved for entry into archive by Sara Ribeiro (sara.ribeiro@ucb.br) on 2017-11-17T12:41:04Z (GMT) No. of bitstreams: 1
AntonioBarbosaJuniorDissertacao2017.pdf: 3677259 bytes, checksum: 2e28ae94c001e36741ccb4fefefd5804 (MD5) / Made available in DSpace on 2017-11-17T12:41:04Z (GMT). No. of bitstreams: 1
AntonioBarbosaJuniorDissertacao2017.pdf: 3677259 bytes, checksum: 2e28ae94c001e36741ccb4fefefd5804 (MD5)
Previous issue date: 2017-08-31 / The evolution of Internet can be summarized in three phases. In the beginning, web 1.0 was marked by the World Wide Web, a network of static documents linked by the HTML markup language. Then it evolved into web 2.0, where bidirectional communi-cation enabled user interaction by means of social networking services, blogs, and wikis. Currently, the researches are focused on semantic web, or web 3.0, which has the purpose of marking the content of web in such a way that it is understandable by machines. Sensor network and wireless actuator technologies have also evolved to form a network of devices and objects connected to Internet that, in addition to sen-sors, also includes wearable technologies. For the theoretical basis of this work, a bibliographical research was carried out to access the most relevant publications on Internet of Things (IoT), discovery, repository and application discovery. The re-search showed that the Internet of Things paradigm presents some gaps. It was veri-fied that none of the researched approaches presents a proposal of repository to make a catalogue of applications, neither tools to discover applications and services of IoT for reuse. The purpose of this dissertation is to: (i) to propose a model of re-pository to catalogue IoT applications and services, and (ii) to develop a tool for dis-covering IoT applications and services for reuse. The goal is to turn the search and reuse of existing solutions easier in order to avoid rework and to speed up the devel-opment of applications for IoT. A set of relevant descriptions to the specification of the applications and the services, and a non-relational database for storing the infor-mation were used to create the repository model. To implement the discovery tool, Artificial Intelligence techniques were applied, specifically the kNN (Nearest Neigh-bor) classification algorithm, adapted to use the Levenshtein distance. The adapta-tion showed better results in identifying the nearest neighbor, that is, the application or service that complies better with the specifications and needs of the user. / A evolu????o da Internet pode ser sintetizada em tr??s fases. No in??cio, a web 1.0 foi marcada pela world wide web, uma rede de documentos est??ticos vinculados pela linguagem de marca????o HTML. Depois, ela evoluiu para a web 2.0, na qual a comu-nica????o bidirecional permitiu a intera????o do usu??rio com os servi??os de redes soci-ais, blogs e wikis. Atualmente, as pesquisas est??o voltadas para a web sem??ntica ou web 3.0, que tem a finalidade de marcar o conte??do da web de forma que seja com-preens??vel por m??quinas. As tecnologias de redes de sensores e atuadores sem fio tamb??m evolu??ram, e passaram a compor uma malha de dispositivos e objetos co-nectados na Internet que al??m dos sensores, abrange tamb??m as tecnologias vest??-veis Para a fundamenta????o te??rica deste trabalho, realizou-se uma pesquisa biblio-gr??fica com acesso ??s publica????es mais relevantes sobre Internet of Things, disco-very, repository e application discovery. Na pesquisa, constatou-se que o paradigma de Internet das Coisas apresenta algumas lacunas. Verificou-se que nenhuma das abordagens pesquisadas apresenta uma proposta de reposit??rio para catalogar apli-cativos, nem ferramentas para descoberta de aplicativos e servi??os de IoT para reu-so. A proposta desta disserta????o ??: (i) propor um modelo de reposit??rio para catalo-gar aplicativos e servi??os de IoT e, (ii) desenvolver uma ferramenta para descoberta de aplicativos e servi??os de IoT para reuso. O objetivo ?? facilitar a busca e o reuso de solu????es j?? existentes para evitar o retrabalho e agilizar o desenvolvimento de aplicativos para IoT. Para criar o modelo de reposit??rio, utilizou-se um conjunto de descritores relevantes para a especifica????o dos aplicativos e servi??os, e um banco de dados n??o relacional para o armazenamento das informa????es. Para implementar a ferramenta de descoberta, foram aplicadas t??cnicas de Intelig??ncia Artificial, mais especificamente o algoritmo de classifica????o kNN (Nearest Neighbor), adaptado pa-ra utilizar a dist??ncia de Levenshtein. A adapta????o apresentou melhores resultados para a identifica????o do vizinho mais pr??ximo, ou seja, aquele aplicativo ou servi??o mais aderente ??s especifica????es e necessidades do usu??rio.
|
14 |
Aplicação do processo de descoberta de conhecimento em banco de dados acadêmico utilizando as tarefas de agrupamento e classificação /Asseiss, Maraísa da Silva Guerra January 2017 (has links)
Orientador: Alexandre Cesar Rodrigues da Silva / Resumo: Nos últimos anos a quantidade de dados armazenados diarimente em empresas e instituições aumentou consideravelmente e um dos motivos que contribuiu para isso é a crescente importân- cia dada à informação. De forma geral, esses dados são meramente armazenados e, portanto, subutilizados pelos seus detentores, enquanto poderiam ser estudados a fim de obter novos co- nhecimentos, informações e relacionamentos. Neste contexto, surge o processo de descoberta de conhecimento em banco de dados. Este trabalho apresenta uma introdução a banco de dados, uma revisão bibliográfica sobre o processo de descoberta de conhecimento em banco de dados, a descrição de cada etapa deste processo, uma explanação sobre as tarefas de agrupamento e classificação, além de resumir brevemente as técnicas de particionamento e árvore de decisão. É exposto um estudo sobre o sistema Weka, em que apresenta-se conceitos, funcionalidades e exemplifica-se diversas formas de utilização do sistema. O objetivo principal deste trabalho é propor uma metodologia para descoberta de novos conhecimentos em bancos de dados acadê- micos baseada no processo de descoberta de conhecimento em banco de dados, sendo esta uma metodologia mais simplificada e de execução mais direcionada. Como parte da metodologia este trabalho contribui ainda com uma aplicação desenvolvida em Python como forma de apoio a etapas da metodologia. A metodologia proposta conta com a ferramenta Weka para execução dos algoritmos de data mining e prevê a e... (Resumo completo, clicar acesso eletrônico abaixo) / Mestre
|
15 |
Utilizando conceitos como descritores de textos para o processo de identificação de conglomerados (clustering) de documentosWives, Leandro Krug January 2004 (has links)
A descoberta e a análise de conglomerados textuais são processos muito importantes para a estruturação, organização e a recuperação de informações, assim como para a descoberta de conhecimento. Isto porque o ser humano coleta e armazena uma quantidade muito grande de dados textuais, que necessitam ser vasculhados, estudados, conhecidos e organizados de forma a fornecerem informações que lhe dêem o conhecimento para a execução de uma tarefa que exija a tomada de uma decisão. É justamente nesse ponto que os processos de descoberta e de análise de conglomerados (clustering) se insere, pois eles auxiliam na exploração e análise dos dados, permitindo conhecer melhor seu conteúdo e inter-relações. No entanto, esse processo, por ser aplicado em textos, está sujeito a sofrer interferências decorrentes de problemas da própria linguagem e do vocabulário utilizado nos mesmos, tais como erros ortográficos, sinonímia, homonímia, variações morfológicas e similares. Esta Tese apresenta uma solução para minimizar esses problemas, que consiste na utilização de “conceitos” (estruturas capazes de representar objetos e idéias presentes nos textos) na modelagem do conteúdo dos documentos. Para tanto, são apresentados os conceitos e as áreas relacionadas com o tema, os trabalhos correlatos (revisão bibliográfica), a metodologia proposta e alguns experimentos que permitem desenvolver determinados argumentos e comprovar algumas hipóteses sobre a proposta. As conclusões principais desta Tese indicam que a técnica de conceitos possui diversas vantagens, dentre elas a utilização de uma quantidade muito menor, porém mais representativa, de descritores para os documentos, o que torna o tempo e a complexidade do seu processamento muito menor, permitindo que uma quantidade muito maior deles seja analisada. Outra vantagem está no fato de o poder de expressão de conceitos permitir que os usuários analisem os aglomerados resultantes muito mais facilmente e compreendam melhor seu conteúdo e forma. Além do método e da metodologia proposta, esta Tese possui diversas contribuições, entre elas vários trabalhos e artigos desenvolvidos em parceria com outros pesquisadores e colegas.
|
16 |
Diagnóstico on-line do estilo cognitivo de aprendizagem do aluno em um ambiente adaptativo de ensino e aprendizagem na web: uma abordagem empírica baseada na sua trajetória de aprendizagemSouto, Maria Aparecida Martins January 2003 (has links)
Uma das questões críticas relacionadas com um Ambiente Adaptativo de Ensino e Aprendizagem baseado na Web diz respeito à eficácia da aprendizagem do aluno remoto. Assim como diversos trabalhos de pesquisa na literatura, nosso estudo preocupou-se com a modelagem do Estilo Cognitivo de Aprendizagem (ECA) do aluno visando, em um futuro próximo, a adaptação dos conteúdos pedagógicos a esta importante característica individual do aluno. Esta tese descreve a metodologia utilizada para investigar como modelar o ECA do aluno remoto, baseado na observação e análise de seu comportamento em um ambiente de ensino e aprendizagem na Web. Em nosso estudo, o ECA representa o estágio de desenvolvimento cognitivo do aluno, de acordo com a taxonomia de Bloom. Nós acreditamos que os principais benefícios de adaptar a instrução ao ECA do aluno estão relacionados com a possibilidade de oportunizar a ampliação de suas habilidades cognitivas, assim como oportunizar a aprendizagem em profundidade sobre os conteúdos em estudo. A metodologia quase-experimental usada para a modelagem do ECA do aluno compreendeu duas fases distintas: (i) geração das classes de ECA a partir da aplicação de um teste psicológico em uma amostra da população-alvo; e (ii) desenvolvimento do módulo de ensino experimental e o estudo das Trajetórias de Aprendizagem (TA) padrão das classes de ECA, a partir da observação de seus comportamentos durante a execução de uma sessão de estudo na Web. Como resultado deste estudo, identificamos os principais indicadores, que melhor discriminaram as classes de ECA consideradas. Os resultados foram obtidos a partir da observação e análise das TAs na Web. Todo o conhecimento obtido a partir desta investigação deverá nos permitir automatizar o diagnóstico do ECA do aluno remoto. Este conhecimento também será utilizado como base para o desenvolvimento dos conteúdos a serem oferecidos ao aluno pelo Ambiente Adaptativo de Ensino e Aprendizagem baseado na Web.
|
17 |
Abordagem baseada em conceitos para descoberta de conhecimento em textosLoh, Stanley January 2001 (has links)
Esta tese apresenta uma abordagem baseada em conceitos para realizar descoberta de conhecimento em textos (KDT). A proposta é identificar características de alto nível em textos na forma de conceitos, para depois realizar a mineração de padrões sobre estes conceitos. Ao invés de aplicar técnicas de mineração sobre palavras ou dados estruturados extraídos de textos, a abordagem explora conceitos identificados nos textos. A idéia é analisar o conhecimento codificado em textos num nível acima das palavras, ou seja, não analisando somente os termos e expressões presentes nos textos, mas seu significado em relação aos fenômenos da realidade (pessoas, objetos, entidades, eventos e situações do mundo real). Conceitos identificam melhor o conteúdo dos textos e servem melhor que palavras para representar os fenômenos. Assim, os conceitos agem como recursos meta-lingüísticos para análise de textos e descoberta de conhecimento. Por exemplo, no caso de textos de psiquiatria, os conceitos permitiram investigar características importantes dos pacientes, tais como sintomas, sinais e comportamentos. Isto permite explorar o conhecimento disponível em textos num nível mais próximo da realidade, minimizando o problema do vocabulário e facilitando o processo de aquisição de conhecimento. O principal objetivo desta tese é demonstrar a adequação de uma abordagem baseada em conceitos para descobrir conhecimento em textos e confirmar a hipótese de que este tipo de abordagem tem vantagens sobre abordagens baseadas em palavras. Para tanto, foram definidas estratégias para identificação dos conceitos nos textos e para mineração de padrões sobre estes conceitos. Diferentes métodos foram avaliados para estes dois processos. Ferramentas automatizadas foram empregadas para aplicar a abordagem proposta em estudos de casos. Diferentes experimentos foram realizados para demonstrar que a abordagem é viável e apresenta vantagens sobre os métodos baseados em palavras. Avaliações objetivas e subjetivas foram conduzidas para confirmar que o conhecimento descoberto era de qualidade. Também foi investigada a possibilidade de se realizar descobertas proativas, quando não se tem hipóteses iniciais. Os casos estudados apontam as várias aplicações práticas desta abordagem. Pode-se concluir que a principal aplicação da abordagem é permitir análises qualitativa e quantitativa de coleções textuais. Conceitos podem ser identificados nos textos e suas distribuições e relações podem ser analisadas para um melhor entendimento do conteúdo presente nos textos e, conseqüentemente, um melhor entendimento do conhecimento do domínio.
|
18 |
Orpheo : uma estrutura de trabalho para integração dos paradigmas de aprendizado supervisionado e não-supervisionadoPrado, Hercules Antonio do January 2001 (has links)
Esta tese apresenta contribuições ao processo de Descoberta de Conhecimento em Bases de Dados (DCBD). DCBD pode ser entendido como um conjunto de técnicas automatizadas – ou semi-automatizadas – otimizadas para extrair conhecimento a partir de grandes bases de dados. Assim, o já, de longa data, praticado processo de descoberta de conhecimento passa a contar com aprimoramentos que o tornam mais fácil de ser realizado. A partir dessa visão, bem conhecidos algoritmos de Estatística e de Aprendizado de Máquina passam a funcionar com desempenho aceitável sobre bases de dados cada vez maiores. Da mesma forma, tarefas como coleta, limpeza e transformação de dados e seleção de atributos, parâmetros e modelos recebem um suporte que facilita cada vez mais a sua execução. A contribuição principal desta tese consiste na aplicação dessa visão para a otimização da descoberta de conhecimento a partir de dados não-classificados. Adicionalmente, são apresentadas algumas contribuições sobre o Modelo Neural Combinatório (MNC), um sistema híbrido neurossimbólico para classificação que elegemos como foco de trabalho. Quanto à principal contribuição, percebeu-se que a descoberta de conhecimento a partir de dados não-classificados, em geral, é dividida em dois subprocessos: identificação de agrupamentos (aprendizado não-supervisionado) seguida de classificação (aprendizado supervisionado). Esses subprocessos correspondem às tarefas de rotulagem dos itens de dados e obtenção das correlações entre os atributos da entrada e os rótulos. Não encontramos outra razão para que haja essa separação que as limitações inerentes aos algoritmos específicos. Uma dessas limitações, por exemplo, é a necessidade de iteração de muitos deles buscando a convergência para um determinado modelo. Isto obriga a que o algoritmo realize várias leituras da base de dados, o que, para Mineração de Dados, é proibitivo. A partir dos avanços em DCBD, particularmente com o desenvolvimento de algoritmos de aprendizado que realizam sua tarefa em apenas uma leitura dos dados, fica evidente a possibilidade de se reduzir o número de acessos na realização do processo completo. Nossa contribuição, nesse caso, se materializa na proposta de uma estrutura de trabalho para integração dos dois paradigmas e a implementação de um protótipo dessa estrutura utilizando-se os algoritmos de aprendizado ART1, para identificação de agrupamentos, e MNC, para a tarefa de classificação. É também apresentada uma aplicação no mapeamento de áreas homogêneas de plantio de trigo no Brasil, de 1975 a 1999. Com relação às contribuições sobre o MNC são apresentados: (a) uma variante do algoritmo de treinamento que permite uma redução significativa do tamanho do modelo após o aprendizado; (b) um estudo sobre a redução da complexidade do modelo com o uso de máquinas de comitê; (c) uma técnica, usando o método do envoltório, para poda controlada do modelo final e (d) uma abordagem para tratamento de inconsistências e perda de conhecimento que podem ocorrer na construção do modelo.
|
19 |
Pré-processamento no processo de descoberta de conhecimento em banco de dadosNeves, Rita de Cássia David das January 2003 (has links)
A Descoberta de Conhecimento em Banco de Dados (DCBD) é uma nova área de pesquisa que envolve o processo de extração de conhecimento útil implícito em grandes bases de dados. Existem várias metodologias para a realização de um processo de DCBD cuja essência consiste basicamente nas fases de entendimento do domínio do problema, pré-processamento, mineração de dados e pós-processamento. Na literatura sobre o assunto existem muitos trabalhos a respeito de mineração de dados, porém pouco se encontra sobre o processo de pré-processamento. Assim, o objetivo deste trabalho consiste no estudo do pré-processamento, já que é a fase que consome a maior parte do tempo e esforço de todo o processo de DCBD pois envolve operações de entendimento, seleção, limpeza e transformação de dados. Muitas vezes, essas operações precisam ser repetidas de modo a aprimorar a qualidade dos dados e, conseqüentemente, melhorar também a acurácia e eficiência do processo de mineração. A estrutura do trabalho abrange cinco capítulos. Inicialmente, apresenta-se a introdução e motivação para trabalho, juntamente com os objetivos e a metodologia utilizada. No segundo capítulo são abordadas metodologias para o processo de DCBD destacando-se CRISP-DM e a proposta por Fayyad, Piatetsky-Shapiro e Smyth. No terceiro capítulo são apresentadas as sub-fases da fase de pré-processamento contemplando-se entendimento, seleção, limpeza e transformação de dados, bem como os principais métodos e técnicas relacionados às mesmas. Já no quarto capítulo são descritos os experimentos realizados sobre uma base de dados real. Finalmente, no quinto capítulo são apresentadas as considerações finais sobre pré-processamento no processo de DCBD, apontando as dificuldades encontradas na prática, contribuições do presente trabalho e pretensões da continuidade do mesmo. Considera-se como principais contribuições deste trabalho a apresentação de métodos e técnicas de pré-processamento existentes, a comprovação da importância da interatividade com o especialista do domínio ao longo de todo o processo de DCBD, mas principalmente nas tomadas de decisões da fase de pré-processamento, bem como as sugestões de como realizar um pré-processamento sobre uma base de dados real.
|
20 |
Mineração de dados utilizando aprendizado não-supervisionado: um estudo de caso para bancos de dados da saúdeDomingues, Miriam Lúcia Campos Serra January 2003 (has links)
A mineração de dados constitui o processo de descoberta de conhecimento interessante, com a utilização de métodos e técnicas que permitem analisar grandes conjuntos de dados para a extração de informação previamente desconhecida, válida e que gera ações úteis, de grande ajuda para a tomada de decisões estratégicas. Dentre as tarefas de mineração de dados, existem aquelas que realizam aprendizado não-supervisionado, o qual é aplicado em bases de dados não-classificados, em que o algoritmo extrai as características dos dados fornecidos e os agrupa em classes. Geralmente, o aprendizado não-supervisionado é aplicado em tarefas de agrupamento, que consistem em agrupar os dados de bancos de dados volumosos, com diferentes tipos de dados em classes ou grupos de objetos que são similares dentro de um mesmo grupo e dissimilares em diferentes grupos desses bancos de dados, de acordo com alguma medida de similaridade. Os agrupamentos são usados como ponto de partida para futuras investigações. Este trabalho explora, mediante a realização de um estudo de caso, o uso de agrupamento como tarefa de mineração de dados que realiza aprendizado nãosupervisionado, para avaliar a adequação desta tecnologia em uma base de dados real da área de saúde. Agrupamento é um tema ativo em pesquisas da área pelo seu potencial de aplicação em problemas práticos. O cenário da aplicação é o Sistema de Informações Hospitalares do SUS, sob a gestão da Secretaria Estadual de Saúde do Rio Grande do Sul. Mensalmente, o pagamento de um certo número de internações é bloqueado, uma vez que a cobrança de internações hospitalares é submetida a normas do SUS e a critérios técnicos de bloqueio estabelecidos pela Auditoria Médica da SES para verificar a ocorrência de algum tipo de impropriedade na cobrança dos procedimentos realizados nessas internações hospitalares. A análise de agrupamento foi utilizada para identificar perfis de comportamentos ou tendências nas internações hospitalares e avaliar desvios ou outliers em relação a essas tendências e, com isso, descobrir padrões interessantes que auxiliassem na otimização do trabalho dos auditores médicos da SES. Buscou-se ainda compreender as diferentes configurações de parâmetros oferecidos pela ferramenta escolhida para a mineração de dados, o IBM Intelligent Miner, e o mapeamento de uma metodologia de mineração de dados, o CRISP-DM, para o contexto específico deste estudo de caso. Os resultados deste estudo demonstram possibilidades de criação e melhora dos critérios técnicos de bloqueio das internações hospitalares que permitem a otimização do trabalho de auditores médicos da SES. Houve ainda ganhos na compreensão da tecnologia de mineração de dados com a utilização de agrupamento no que se refere ao uso de uma ferramenta e de uma metodologia de mineração de dados, em que erros e acertos evidenciam os cuidados que devem ser tomados em aplicações dessa tecnologia, além de contribuírem para o seu aperfeiçoamento.
|
Page generated in 0.0775 seconds