• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1519
  • 38
  • 27
  • 20
  • 20
  • 19
  • 15
  • 14
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1596
  • 825
  • 659
  • 403
  • 259
  • 220
  • 182
  • 162
  • 141
  • 138
  • 137
  • 135
  • 126
  • 124
  • 121
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
851

Framework Híbrido para Integração de Ferramentas e Reuso do Conhecimento em Problemas Binários de Mineração de Dados

CUNHA, Rodrigo Carneiro Leão Vieira da 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T15:50:08Z (GMT). No. of bitstreams: 2 arquivo1928_1.pdf: 1948940 bytes, checksum: ed1bedfc483f596f442e5ff7208e1ed0 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2009 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Data Mining surgiu da necessidade de extração do conhecimento a partir de volumosas massas de dados geradas pelas empresas/instituições. Com o crescimento da área e o aumento do poder de processamento dos computadores, as organizações que prestam serviços em KDD (Knowledge Discovery in Database) têm guardado, cada vez mais, um grande número de documentos e processos referentes a projetos executados no passado. Por outro lado, hoje, o desenvolvimento de projetos de Data Mining exige do especialista o uso de diversas ferramentas, linguagens de programação e metodologias associadas à sua experiência para resolução do problema. Um dos maiores problemas práticos de KDD é como prover a interoperabilidade entre diferentes plataformas existentes, de tal forma que os processos fiquem centralizados e documentados em um único ambiente. Outro grande problema, hoje, é a falta de reuso de conhecimento devido à complexidade e forte dependência do usuário. Neste contexto, as experiências adquiridas em projetos anteriores não são devidamente documentadas, gerenciadas e controladas, gerando como conseqüência a repetição de erros dos projetos anteriores. Em outras palavras, outro grande problema prático é a falta de plataformas capazes de fazer o reuso do conhecimento adquirido em projetos realizados no passado. O principal objetivo deste trabalho é criar um framework híbrido para desenvolvimento de soluções em Mineração de Dados que integra diversas ferramentas disponíveis no mercado e disponibiliza um ambiente integrado para reuso do conhecimento na área de KDD. Este ambiente possibilita a centralização e padronização dos artefatos gerados ao longo do processo de KDD, assim como aproveita os melhores recursos de cada ferramenta de mercado disponível. Para validação do framework foram coletados os metadados de 69 projetos reais de mineração de dados, 61 lições aprendidas dos profissionais que trabalharam nestes projetos e 654 entidades de conhecimento (congressos, softwares, publicações etc) da área de KDD. Os estudos apresentados, principalmente para definição do início do projeto, mostraram ser possível, através do framework, entender as características que levaram os projetos a serem um sucesso ou fracasso. Assim, o framework é um ambiente que assegura o desenvolvimento de projetos em KDD de alta qualidade que atende às expectativas do cliente dentro do tempo e orçamento previstos
852

Uso de contexto para adição de semântica a trajetórias de objetos móveis

Neiva Moreno, Bruno 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T15:50:15Z (GMT). No. of bitstreams: 2 arquivo1402_1.pdf: 3159163 bytes, checksum: f1456cd735a3541751542a864fd7d8ae (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / A crescente popularização dos dispositivos móveis, como celular ou GPS, tem gerado uma grande quantidade de dados espaço-temporais. Estes dados são também denominados como dados de trajetórias de objetos móveis. Em seu formato original de coleta, estes dados não possuem qualquer tipo de semântica. Desta forma, diversos estudos têm focado na extração de conhecimento a partir de dados de trajetórias. Buscando a adição de semântica a partir deste tipo de dado, recentemente foi definido um modelo conceitual para defini-lo: o modelo de stops e moves. Diferentes trabalhos têm estendido este modelo com o objetivo de se extrair conhecimento sobre dados gerados pelos objetos móveis. Estes trabalhos têm investigado como extrair conhecimento dos dados de trajetórias fazendo uso de suas propriedades geométricas e geográficas, porém, pouca atenção tem sido dada às propriedades de contexto das trajetórias. O trabalho apresentado nesta dissertação propõe um método que faz uso de informações de contexto do objeto móvel para extrair conhecimento e, conseqüentemente, adicionar semântica em dados de trajetórias, este método é denominado MTSA (Method for Trajectory Semantic Annotation). Para que o mesmo fosse desenvolvido, foi necessário definir um modelo de contexto para dados de trajetórias com o objetivo de representar os principais conceitos referentes ao significado de informações de contexto na área de trajetórias de objetos móveis. O método proposto adiciona semântica a trajetórias por meio de elementos básicos definidos como stops e moves e acessa as informações de contexto representadas em uma base de dados que contém informações sobre as principais situações de contexto que um objeto móvel pode realizar em um domínio específico. Para validar o MTSA, foram obtidos resultados da execução do mesmo sobre três conjuntos de dados de trajetórias de domínios diferentes. Estes resultados mostraram que o uso do MTSA pode ser útil para extração de conhecimento, definição de padrões de comportamento e adição de semântica a trajetórias
853

Tag suggestion using multiple sources of knowledge

MEDEIROS, Ícaro Rafael da Silva 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:56:06Z (GMT). No. of bitstreams: 2 arquivo2739_1.pdf: 2586871 bytes, checksum: 3a0e10a22b131714039f0e8ffe875d80 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / Nos sistemas de tagging social usuários atribuem tags (palavras-chave) a recursos (páginas Web, fotos, publicações, etc), criando uma estrutura conhecida como folksonomia, que possibilita uma melhora na navegação, organização e recuperação de informação. Atualmente, esses sistemas são muito populares na Web, portanto, melhorar sua qualidade e automatizar o processo de atribuição de tags é uma tarefa importante. Neste trabalho é proposto um sistema que automaticamente atribui tags a páginas, baseando-se em múltiplas fontes de conhecimento como o conteúdo textual, estrutura de hiperlinks e bases de conhecimento. A partir dessas fontes, vários atributos são extraídos para construir um classificador que decide que termos devem ser sugeridos como tag. Experimentos usando um dataset com tags e páginas extraídas do Delicious, um importante sistema de tagging social, mostram que nossos métodos obtém bons resultados de precisão e cobertura, quando comparado com tags sugeridas por usuários. Além disso, uma comparação com trabalhos relacionados mostra que nosso sistema tem uma qualidade de sugestão comparável a abordagens estado da arte na área. Finalmente, uma avaliação com usuários foi feita para simular um ambiente real, o que também produziu bons resultados
854

DB-SMoT: um método baseado na direção para identificação de áreas de interesse em trajetórias

ROCHA, José Antônio Manso Raimundo da 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:56:15Z (GMT). No. of bitstreams: 2 arquivo2790_1.pdf: 2753254 bytes, checksum: 58c415938566a69e881ed3b2c5347301 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / O Sistema GPS permite que objetos móveis possuam a funcionalidade de obter sua posição espaço-temporal a todo instante. Esta funcionalidade, recentemente requerida pelos mais diversos tipos de aplicações computacionais, tem gerado uma enorme quantidade de dados espaciais brutos sobre trajetórias, criando grandes bancos de dados espaço-temporais. Estão em curso projetos e pesquisas direcionados para o gerenciamento deste novo tipo de dados, e para a implementação de técnicas de análises apropriadas para a extração de conhecimento sobre trajetórias. Este trabalho propõe um novo método para se adicionar semântica às trajetórias, fundamentando-se na variação temporal da direção do objeto móvel, com a finalidade de gerar agrupamentos que representem locais de interesse no contexto da atividade na qual o objeto móvel se encontra inserido. Com a finalidade de validar o método proposto, trajetórias reais de barcos pesqueiros de atuns, obtidas pelo Programa Nacional de Rastreamento de Embarcações Pesqueiras por Satélite (PREPS), foram processadas pela extensão espacial do software Weka, o qual foi estendido para incorporar as funcionalidades principais do nosso método proposto, denominado de DB-SMoT (Stops and Moves de Trajetórias Baseado na Direção). Os resultados experimentais foram avaliados por meio da análise ROC (Receiver Operating Characteristic). No espaço ROC o método DB-SMoT foi comparado com outro método existente, chamado CB-SMoT (Clustering-Based Stops and Moves of Trajectories), que se baseia na variação da velocidade do objeto móvel para incorporação de semântica às trajetórias. Em experimentos com três trajetórias, o método proposto teve um desempenho superior ao CB-SMoT com relação à identificação de áreas de interesse em trajetórias
855

Mineração de dados aplicada à celeridade processual do tribunal de contas do estado de Pernambuco (TCE-PE)

Uilma Rodrigues dos Santos de Sousa, Maria 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:56:38Z (GMT). No. of bitstreams: 2 arquivo2958_1.pdf: 2624002 bytes, checksum: 513ebfc26b253d09c042e76312480f61 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / A celeridade processual das Cortes de Decisão indica grau de desenvolvimento das nações. A morosidade processual, por sua vez, pode ser usada para medir o seu nível de subdesenvolvimento, uma vez que causa prejuízos sociais, ao erário e, mais especificamente, ao cidadão que é parte em um processo. No Brasil, trata-se de um problema real, de larga escala, cuja solução ainda não foi investigada usando as técnicas de mineração de dados, conforme demonstra a pesquisa realizada em todos os 33 (trinta e três) Tribunais de Contas nacionais. Este trabalho investiga a aplicação de mineração de dados como metodologia de tecnologia da informação para apoio à solução do problema da morosidade processual e do retrabalho, que resultam em aumento dos estoques de processos nas Cortes de Decisão. As bases de dados foram integradas, os dados foram transformados, o conhecimento foi extraído e o desempenho dos modelos avaliado. Para extração do conhecimento, foram utilizadas técnicas de Inteligência Artificial, tradicionalmente aceitas: Regras de Classificação, para a descrição das condições que influenciam o problema e, Redes Neurais Artificiais, para a construção dos classificadores. A qualidade da solução desenvolvida e sua aceitação pelos especialistas no domínio mostraram a viabilidade de utilizar Mineração de Dados para apoio à decisão gerencial na administração do estoque de processos dos Tribunais de Contas. Para o estudo de caso foram utilizados os dados do Tribunal de Contas do Estado de Pernambuco
856

Clusterização baseada em algoritmos fuzzy

Lopes Cavalcanti Junior, Nicomedes January 2006 (has links)
Made available in DSpace on 2014-06-12T15:59:42Z (GMT). No. of bitstreams: 1 license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2006 / Análise de cluster é uma técnica aplicada a diversas áreas como mineração de dados, reconhecimento de padrões, processamento de imagens. Algoritmos de clusterização têm por objetivo particionar um conjunto de dados em clusters de tal forma que indivíduos dentro de um mesmo cluster tenham um alto grau de similaridade, enquanto indivíduos pertencentes a diferentes clusters tenham alto grau de dissimilaridade. Uma importante divisão dos algoritmos de clusterização é entre algoritmos hard e fuzzy. Algoritmos hard associam um indivíduo a somente um cluster. Ao contrário, algoritmos fuzzy associam um indivíduo a todos os clusters através da variação do grau de pertinência do indivíduo em cada cluster. A vantagem de um algoritmo clusterização fuzzy é que este pode representar melhor incerteza e este fato é importante, por exemplo, para mostrar que um indivíduo não é um típico indivíduo de nenhuma das classes, mas tem similaridade em maior ou menor grau com mais de uma classe. Uma forma intuitiva de medir similaridade entre indivíduos é usar medidas de distância tais como a distância euclidiana. Existem muitas medidas de distância disponíveis na literatura. Muitos dos algoritmos de clusterização populares geralmente buscam minimizar um critério baseados numa medida de distância. Através de um processo iterativo estes algoritmos calculam parâmetros de modo a diminuir o valor do critério iteração a iteração até um estado de convergência ser atingido. O problema com muitas das distâncias encontradas na literatura é que elas são estáticas. Para o caso de algoritmos de clusterização iterativos, parece razoável ter distâncias que mudem ou atualizem seus valores de acordo com o que for ocorrendo com os dados e as estruturas de dado do algoritmo. Esta dissertação apresenta duas distâncias adaptativas aplicadas ao algoritmo fuzzy c-means pelo Prof. Francisco de Carvalho. Este algoritmo foi escolhido pelo fato de ser amplamente utilizado. Para avaliar as proposições de distância, experimentos foram feitos utilizando-se conjunto de dados de referência e conjuntos de dados artificiais (para ter resultados mais precisos experimentos do tipo Monte Carlo foram realizados neste caso). Até o momento, comparações das versões do fuzzy c-means, obtidas através da utilização de distâncias adaptativas, com algoritmos similares da literatura permitem concluir que em geral as novas versões têm melhor performance que outros disponíveis na literatura
857

Pré-seleção e pré-carga de dados para bancos de dados móveis

TEIXEIRA NETO, Mariano Cravo January 2005 (has links)
Made available in DSpace on 2014-06-12T16:01:00Z (GMT). No. of bitstreams: 2 arquivo7123_1.pdf: 848855 bytes, checksum: 4c293ab102dd3feb0258eeefbe3bfa17 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2005 / Um dos principais objetivos do acesso a dados móveis é atingir a ubiqüidade inerente aos sistemas móveis: ter acesso à informação independentemente de local e hora. Devido a restrições de sistemas móveis como, por exemplo, memória limitada e largura de banda estreita, é natural que se pesquisem métodos para amenizar esses problemas. Este trabalho abordará questões relativas ao gerenciamento de cache em bancos de dados móveis, com ênfase em técnicas para reduzir falhas à consulta de dados enquanto o dispositivo móvel esteja conectado, com pouca largura de banda ou fora de uma rede de dados. Dessa forma, espera-se reduzir o consumo de banda e aumentar, durante uma desconexão, a disponibilidade das informações armazenadas. Com o objetivo de aumentar a disponibilidade dos dados no SGBD localizado no cliente móvel, este trabalho propõe selecionar a priori (pré-seleção de dados) um subconjunto dos dados disponíveis no SGBD servidor e copiá-los para o SGBD no cliente móvel. Para a seleção a priori dos dados, este trabalho propõe minerar o histórico de acesso a dados do usuário do cliente móvel
858

Mining energy – aware commits: exploring changes performed by open – source developers to impact the energy consumption of software systems

MOURA, Irineu Martins de Lima 24 August 2015 (has links)
Submitted by Irene Nascimento (irene.kessia@ufpe.br) on 2016-09-06T17:39:17Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DissertacaoDeMestrado-IrineuMoura-imlm2.pdf: 1240260 bytes, checksum: 4bbaf8839fa3d5be7fca586e1f290f68 (MD5) / Made available in DSpace on 2016-09-06T17:39:17Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DissertacaoDeMestrado-IrineuMoura-imlm2.pdf: 1240260 bytes, checksum: 4bbaf8839fa3d5be7fca586e1f290f68 (MD5) Previous issue date: 2015-08-24 / Energy consumption has been gaining traction as yet another major concern that mainstream software developers must be aware of. It used to be mainly the focus of hardware designers and low level software developers, e.g., device driver developers. Nowadays, however, mostly due to the ubiquity of battery-powered devices, any developer in the software stack must be prepared to deal with this concern. Thus, to be able to properly assist them and to provide guidance in future research it is crucial to understand how they have been handling this matter. This thesis aims to aid in this regard by exploring a set of software changes, i.e., commits, to obtain insights into actual solutions implemented by open source developers when dealing with energy consumption. We use as our main data source GITHUB, a source code hosting platform for collaborative development, and extract a sample of the available commits across several different projects. From this sample, we manually curate a set of energy-aware commits, that is, any commit that refers to a source code change where developers intentionally modify, or aim to modify, the energy consumption (or power dissipation) of a system or make it easier for other developers or end users to do so. We then apply a qualitative research method to extract recurring patterns of information and to group the commits that intend to save energy into categories. A small survey was also conducted to assess the quality of our analysis and to further expand our understanding of the changes. During our analysis we also cover different aspects of the commits. We observe that the majority of the changes (~47%) still target lower levels of the software stack, i.e., kernels, drivers and OS-related services, while application level changes encompass ~34% of them. We notice that developers may not always be certain of the energy consumption impact of their changes before actually performing them, among our dataset we identify several instances (~12%) of commits where developers show signs of uncertainty towards their change’s effectiveness. We also highlight the possible software quality attributes that may be favored over energy efficiency. Notably, we spot a few instances of commits where developers performed a change that would negatively impact the energy consumption of the system in order to fix a bug. It is also worth noting, we draw attention to a specific group of changes which we call "energy-aware interfaces". They add tuning knobs that can be used by developers or end users to control the energy consumption of an underlying component. / O controle do consumo de energia tem ganhado cada vez mais atenção como outro tipo de interesse ao qual desenvolvedores de software devem estar atentos. Antes esse tipo de preocupação era principalmente o foco de designers de hardware e desenvolvedores de baixonível, como por exemplo, desenvolvedores de drivers de dispositivos. Entretanto, devido à ubiquidade de dispositivos dependentes de bateria, qualquer desenvolvedor deve estar preparado para enfrentar essa questão. Logo, entender como eles estão lidando com o consumo de energia é crucial para estarmos aptos a auxiliá-los e para prover uma direção adequada para pesquisas futuras. Com o intuito de ajudar nesse sentido, essa tese explora um conjunto de mudanças de software, isto é, commits, para entender melhor sobre os tipos de soluções que são implementadas de fato por desenvolvedores de código aberto quando os mesmos devem lidar com o consumo de energia. Nós utilizamos o GITHUB como nossa principal fonte de dados, uma plataforma de hospedagem de código fonte para o desenvolvimento colaborativo de projetos de software, e extraímos uma amostra dos commits disponíveis entre vários projetos diferentes. Dessa amostra, nós manualmente selecionamos um conjunto de commits "energy-aware", isto é, qualquer commit que se refere a uma modificação de código onde o desenvolvedor propositalmente modifica, ou intenciona modificar, o consumo de energia (ou a dissipação de potência) de um sistema ou torna mais fácil para que outros desenvolvedores ou usuários finais possam fazê-lo. Nós então aplicamos sobre esses commits um método de análise qualitativa para extrair padrões recorrentes de informação e para agrupar os commits que intencionam reduzir o consumo energético em categorias. Uma pequena pesquisa também foi realizada com os autores dos commits para avaliar a qualidade da nossa análise e para expandir nosso entendimento sobre as modificações. Nós também consideramos diferentes aspectos dos commits durante a análise. Observamos que a maioria das modificações (~47%) ainda se aplicam às mais baixas camadas de software, isto é, kernels e drivers, enquanto que mudanças a nível de aplicação compreendem ~34% do nosso conjunto de dados. Nós notamos que os desenvolvedores nem sempre estão seguros do impacto de suas modificações no consumo de energia antes de realizá-las, em nosso conjunto de dados identificamos várias instâncias de modificações (~12%) em que os desenvolvedores demonstram sinais de incerteza em relação à eficácia de suas mudanças. Também apontamos alguns dos possíveis atributos de qualidade de software que são favorecidos em detrimento do consumo de energia. Entre essas, destacamos alguns commits onde os desenvolvedores realizaram uma modificação que impactaria negativamente no consumo de energia com o intuito de consertar algum problema existente no software. Também achamos interessante ressaltar um grupo específico de modificações que chamamos de “interfaces energy-aware”. Elas adicionam controles no software em questão que possibilitam outros desenvolvedores ou usuários finais a ajustar o consumo de energia de algum componente subjacente.
859

Caracterização tecnológica dos concentrados metálicos de rochas pegmatíticas e sua extração no semiárido nordestino

ARAÚJO, Bruna Marcela Soares de 29 February 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-12-01T13:53:49Z No. of bitstreams: 3 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação - Bruna Araújo - UFPE - Engenharia Mineral - PDF.pdf: 3151668 bytes, checksum: a121d6d952bc1cdd6707e1998fac990c (MD5) Dissertação - Bruna Araújo - UFPE - Engenharia Mineral - PDF.pdf: 3151668 bytes, checksum: a121d6d952bc1cdd6707e1998fac990c (MD5) / Made available in DSpace on 2016-12-01T13:53:49Z (GMT). No. of bitstreams: 3 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação - Bruna Araújo - UFPE - Engenharia Mineral - PDF.pdf: 3151668 bytes, checksum: a121d6d952bc1cdd6707e1998fac990c (MD5) Dissertação - Bruna Araújo - UFPE - Engenharia Mineral - PDF.pdf: 3151668 bytes, checksum: a121d6d952bc1cdd6707e1998fac990c (MD5) Previous issue date: 2016-02-29 / A análise dos concentrados metálicos originários de rochas pegmatíticas contribui com o conhecimento acerca das características físicoquímicas desses minerais e com a avaliação da eficiência do processo de separação gravimétrica realizado para obtenção dos concentrados. Além disso, a confirmação da presença de elementos raros nestas rochas é fator positivo para a melhoria das condições socioeconômicas das populações do semiárido nordestino, além de colaborar com as pesquisas de viabilidade para uma posterior extração metalúrgica e com uma exploração mineral planejada e integral. Para caracterizar os concentrados metálicos dos pegmatitos Facheiro I e Mina Velha, foram analisadas amostras por difratometria de Raios-X, fluorescência de Raios-X, microscopia eletrônica de varredura e espectrometria por energia dispersiva. O trabalho apresenta e discute os resultados obtidos, que confirmaram a presença significativa de grupos minerais importantes como o grupo-columbita, além de apontar a possível presença de metais de aplicação nobre e Elementos Terras Raras. Foi proposta a discussão, em breve panorama, acerca dos impactos socioeconômicos e ambientais das atividades de mineração no semiárido, ressaltando a necessidade de um desenvolvimento nas dimensões da sustentabilidade econômica, social e ambiental. / The analysis of the concentrated metals originated from pegmatitic rocks contributes with the knowledge about the physico-chemical characteristics of these minerals and with the evaluation of the effectiveness of the gravimetric separation process carried out to obtain them. In addition, the confirmation of the presence of rare elements in these rocks is a positive factor for improving the socioeconomic conditions of populations in the northeastern semiarid, as well as for collaborating with feasibility studies for subsequent metallurgical extraction and with a planned and integral mineral exploration. For characterizing the concentrated metals of Facheiro I and Mina Velha pegmatitics, it has been analyzed samples by X-ray diffraction, X-ray fluorescence, scanning electron microscopy and energy dispersive spectrometry. The research shows and discusses the obtained results which have confirmed the significant presence of important mineral groups such as the columbite-group, besides indicating the possible presence of noble metals and Rare Earth Elements. It has been proposed, in brief overview, the discussion about the socioeconomic and environmental impacts of mining activities in the semiarid region, emphasizing the need for a further development of economic sustainability, social and environmental dimensions.
860

Disorderclassifier: classificação de texto para categorização de transtornos mentais

NUNES, Francisca Pâmela Carvalho 23 August 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2017-04-19T13:35:36Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO_Franscisca Pamela Carvalho.pdf: 2272114 bytes, checksum: 83ff79a7d05409b93fe71ce4c307dc30 (MD5) / Made available in DSpace on 2017-04-19T13:35:36Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO_Franscisca Pamela Carvalho.pdf: 2272114 bytes, checksum: 83ff79a7d05409b93fe71ce4c307dc30 (MD5) Previous issue date: 2016-08-23 / Nos últimos anos, através da Internet, a comunicação se tornou mais ampla e acessível. Com o grande crescimento das redes sociais, blogs, sites em geral, foi possível estabelecer uma extensa base de conteúdo diversificado, onde os usuários apresentam suas opiniões e relatos pessoais. Esses informes podem ser relevantes para observações futuras ou até mesmo para o auxílio na tomada de decisão de outras pessoas. No entanto, essa massa de informação está esparsa na Web, em formato livre, dificultando a análise manual dos textos para categorização dos mesmos. Tornar esse trabalho automático é a melhor opção, porém a compreensão desses textos em formato livre não é um trabalho simples para o computador, devido a irregularidades e imprecisões da língua natural. Nessas circunstâncias, estão surgindo sistemas que classificam textos, de forma automática, por tema, gênero, características, entre outros, através dos conceitos da área de Mineração de Texto (MT). A MT objetiva extrair informações importantes de um texto, através da análise de um conjunto de documentos textuais. Diversos trabalhos de MT foram sugeridos em âmbitos variados como, por exemplo, no campo da psiquiatria. Vários dos trabalhos propostos, nessa área, buscam identificar características textuais para percepção de distúrbios psicológicos, para análise dos sentimentos de pacientes, para detecção de problemas de segurança de registros médicos ou até mesmo para exploração da literatura biomédica. O trabalho aqui proposto, busca analisar depoimentos pessoais de potenciais pacientes para categorização dos textos por tipo de transtorno mental, seguindo a taxonomia DSM-5. O procedimento oferecido classifica os relatos pessoais coletados, em quatro tipos de transtorno (Anorexia, TOC, Autismo e Esquizofrenia). Utilizamos técnicas de MT para o pré-processamento e classificação de texto, com o auxilio dos pacotes de software do Weka. Resultados experimentais mostraram que o método proposto apresenta alto índice de precisão e que a fase de pré-processamento do texto tem impacto nesses resultados. A técnica de classificação Support Vector Machine (SVM) apresentou melhor desempenho, para os fins apresentados, em comparação a outras técnicas usadas na literatura. / In the last few years, through the internet, communication became broader and more accessible. With the growth of social media, blogs, and websites in general, it became possible to establish a broader, diverse content base, where users present their opinions and personal stories. These data can be relevant to future observations or even to help other people’s decision process. However, this mass information is dispersing on the web, in free format, hindering the manual analysis for text categorization. Automating is the best option. However, comprehension of these texts in free format is not a simple task for the computer, taking into account irregularities and imprecisions of natural language. Giving these circumstances, automated text classification systems, by theme, gender, features, among others, are arising, through Text Mining (MT) concepts. MT aims to extract information from a text, by analyzing a set of text documents. Several MT papers were suggested on various fields, as an example, psychiatric fields. A number of proposed papers, in this area, try to identify textual features to perceive psychological disorders, to analyze patient’s sentiments, to detect security problems in medical records or even biomedical literature exploration. The paper here proposed aim to analyze potential patient’s personal testimonies for text categorization by mental disorder type, according to DSM-5 taxonomy. The offered procedure classifies the collected personal testimonies in four disorder types (anorexia, OCD, autism, and schizophrenia). MT techniques were used for pre-processing and text classification, with the support of software packages of Weka. Experimental results showed that the proposed method presents high precision values and the text pre-processing phase has impact in these results. The Support Vector Machine (SVM) classification technique presented better performance, for the presented ends, in comparison to other techniques used in literature.

Page generated in 0.0573 seconds