• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1424
  • 147
  • 56
  • 50
  • 50
  • 50
  • 39
  • 38
  • 38
  • 38
  • 12
  • 11
  • 1
  • 1
  • 1
  • Tagged with
  • 1601
  • 1601
  • 523
  • 448
  • 401
  • 331
  • 296
  • 221
  • 219
  • 177
  • 165
  • 145
  • 141
  • 125
  • 124
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
421

Busca e recuperação de componentes de software utilizando agrupamento de componentes

Veras, Ronaldo Cisneiros 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T15:54:38Z (GMT). No. of bitstreams: 2 arquivo1985_1.pdf: 1669122 bytes, checksum: d80eb6d9d156dc4d5fea44c91a40a019 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2008 / O desenvolvimento de software com reuso é uma abordagem que pode ser utilizada para alcançar dois benefícios principais: 1) incremento de produtividade nos projetos de software e 2) melhorias na qualidade final dos projetos. A abordagem de reuso de software pode ser instanciada através da estratégia de desenvolvimento de software baseada em componentes. De acordo com essa estratégia, grandes aplicações de software podem ser desenvolvidas a partir de partes reutilizáveis e pré-existentes, que devem estabelecer uma colaboração entre elas para prover as funcionalidade requeridas pela aplicação. Os locais onde esses componentes são armazenados (repositórios), e os processos para a busca e recuperação dos mesmos, são considerados pontos de constante pesquisa e discussão. Em um outro contexto, soluções baseadas em aprendizagem de máquina e inteligência artificial começam a produzir contribuições relevantes para problemas pertencentes ao ciclo de desenvolvimento de projetos de software, compreendendo campos como a estimativa de esforço de projetos de software e a predição de falhas, por exemplo. Esse trabalho possui o objetivo de investigar a utilização de técnicas de agrupamento de dados (clustering) (que fazem parte das técnicas de aprendizagem de máquina) ao problema do reuso de software. Para esse trabalho foram analisadas as técnicas de agrupamento por mapas auto-organizáveis (SOM), mapas autoorganizáveis que crescem hierarquicamente (GHSOM) e o agrupamento por árvores de sufixos (STC). É importante ressaltar que a aplicação de STC a este problema foi feita originalmente no nosso trabalho. Nesse cenário, a solução proposta foi implementada, gerando uma ferramenta web para busca e recuperação de componentes de software. A ferramenta Cluco (Clustering of Components) apresenta os resultados de uma busca por componentes, que satisfazem os critérios de uma consulta, na forma de grupos de componentes similares, onde esses grupos são gerados pelo algoritmo STC. Essa característica pode ser considerada uma contribuição relevante, pois o grande esforço manual em busca de similaridades, que deveria ser realizado pelos usuários, é executado automaticamente pelo sistema, à medida que os resultados de uma busca tornam-se disponíveis. Esta dissertação apresenta avaliações qualitativas e quantitativas da solução proposta. Vários usuários com vários níveis de experiência em engenharia de software avaliaram a ferramenta, através de realização de buscas e respondendo a um questionário contendo perguntas relativas à usabilidade e à qualidade da solução. Métricas para a avaliação de sistemas de recuperação de informação como, por exemplo, as métricas recall e precision foram utilizadas para fornecer validações quantitativas sobre a solução. Uma análise de desempenho comparando as técnicas investigadas nesse trabalho foi realizada. Esta análise mostrou a superioridade da técnica STC no problema de agrupamento dos componentes de software utilizados nesse trabalho (componentes Java). Considerando todos os resultados obtidos, pode ser concluído que a solução proposta contribui de forma positiva e relevante para o problema de busca e recuperação de componentes de software
422

Visão computacional e segmentação de imagens por discriminação de textura

GOMES, Daniel de Filgueiras 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T15:55:44Z (GMT). No. of bitstreams: 2 arquivo2284_1.pdf: 5566409 bytes, checksum: 57582c18f105e4a65f1d2bee8b060d2e (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2009 / A segmentação é uma parte fundamental do processo de particionamento do espaço de dados em regiões salientes e é um pré-requisito para processos subsequentes como reconhecimento de objetos e interpretação de cena. A etapa de segmentação de imagens e a eficiência com que é realizada afeta diretamente a performance de um sistema automático de análise de imagem. A grande maioria dos algoritmos de segmentação existentes trabalha com características como cor e luminosidade sem levar em consideração os micro-padrões de textura formados pela combinação destas características. Inicialmente motivada como ferramenta de segmentação de paisagens em fotos aéreas e de satélite a análise de textura tem sido estudada por um longo período de tempo usando muitas abordagens distintas. Vários métodos realizam a análise de textura sobre estatísticas de segunda ordem de pixels ou componentes espectrais presentes na imagem. Estudos sobre padrões de textura presentes em imagens tem revelado que a informação sobre a textura de um determinado objeto pode ser tão específica a ponto de poder ser utilizada, não só para a discriminação de regiões, mas também para a identificação de objetos em uma cena. O presente trabalho discute as diversas questões e problemas envolvendo o processamento e a discriminação de texturas em imagens digitais e propõe métodos de segmentação utilizando uma abordagem não-supervisionada com redes neurais artificiais
423

Um sistema de extração de informação em referências bibliográficas baseado em aprendizagem e máquina

Fraga do Amaral e Silva, Eduardo January 2004 (has links)
Made available in DSpace on 2014-06-12T15:58:49Z (GMT). No. of bitstreams: 2 arquivo4727_1.pdf: 1069518 bytes, checksum: f7d66b889164069c63fdfafe11edf163 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2004 / Existe atualmente uma gigantesca quantidade de informações disponibilizada em formato de texto na Internet e nas redes das grandes corporações. Essas informações encontram-se em um formato não estruturado, dificilmente manipulável por programas de computador. A Extração de Informação (EI) tem como objetivo transformar documentos textuais em um formato estruturado, mapeando a informação contida em um documento em uma estrutura tabular. Tal estrutura é mais facilmente tratável por programas de computador, possibilitando assim a sua utilização por variadas aplicações inteligentes . Dentro da Inteligência Artificial, vemos duas abordagens para tratar o problema da EI: os sistemas baseados em conhecimento e a aprendizagem automática. O trabalho apresentado tem como objetivo a construção de um sistema para extrair informações a partir de textos contendo citações científicas (ou referências bibliográficas) através de uma abordagem baseada em aprendizagem automática. Dentre as diversas técnicas existentes, escolhemos tratar o problema através de uma abordagem híbrida, que combina o uso de técnicas de classificação de textos com os Modelos de Markov Escondidos (HMM). Esta combinação mostrou resultados superiores aos obtidos usando exclusivamente as técnicas de classificação e sua idéia básica é gerar com o uso das técnicas de classificação de textos para EI uma saída inicial para o sistema e refiná-la depois por meio de um HMM. Experimentos realizados com um conjunto de teste contendo 3000 referências resultaram em uma precisão de 87,48%.
424

NLForSpec : uma ferramenta para geração de especificações formais a partir de casos de teste em linguagem natural

LEITÃO, Daniel Almeida January 2006 (has links)
Made available in DSpace on 2014-06-12T15:59:28Z (GMT). No. of bitstreams: 2 arquivo5127_1.pdf: 1281889 bytes, checksum: 27f0d0f476fb317baa37e42f70c3bf82 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2006 / Este trabalho propõe NLForSpec, uma ferramenta para geração de especificações formais a partir de casos de teste em Linguagem Natural. NLForSpec é parte de um projeto maior desenvolvido em parceria entre o CIn-UFPE e a Motorola, que tem como objetivo automatizar a seleção, geração e avaliação de casos de teste para aplicações de telefones móveis. Uma das principais tarefas desse projeto é atualizar automaticamente os requisitos a partir de casos de teste mais atuais. Nesse cenário, a ferramenta NLForSpec é responsável por gerar especificações na linguagem formal CSP (Communicating Sequential Processes) a partir de descrições de casos de teste. Essas especificações serão utilizadas como entrada no processo de atualização ou geração de documentos de requisitos a partir de casos de teste mais atuais. NLForSpec foi construída com base na arquitetura simbólica tradicional para interpretação de LN, e contém quatro bases de conhecimento (Léxico, Gramática de Casos, Ontologia e Base de Especificações CSP) e três módulos de processamento (POS-Tagging, Processamento Semântico e Geração de Casos de Teste Formais). NLForSpec apresentou um desempenho satisfatório em um estudo de caso realizado para o domínio de descrições de casos de teste para aplicações de Messaging da Motorola
425

SpecNL : uma ferramenta para gerar descrições em linguagem natural a partir de especificações de casos de teste

TORRES, Dante Gama January 2006 (has links)
Made available in DSpace on 2014-06-12T15:59:28Z (GMT). No. of bitstreams: 2 arquivo5130_1.pdf: 962505 bytes, checksum: c110ca4ca2100795b71140dd9ec201cf (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2006 / Teste de Software é uma tarefa central, porém muito cara, no processo de desenvolvimento de software. Estudos sugerem que as tarefas de teste chegam até 50% do custo total de desenvolvimento do software. Com o objetivo de automatizar e otimizar as atividades de teste, várias ferramentas têm sido utilizadas para assistir o processo de testes, desde a geração dos testes até a sua execução. As ferramentas de geração de testes geralmente especificam os casos de teste gerados em uma linguagem não natural (normalmente uma linguagem formal). Entretanto, essa linguagem pode ser não trivial para os engenheiros que executarão manualmente os casos de teste. Com isso, seria de grande ajuda uma ferramenta que mapeasse os casos de teste gerados em uma linguagem natural. Este trabalho propõe uma ferramenta para gerar descrições em linguagem natural (LN) a partir de casos de teste especificados em linguagem formal, com o intuito de ajudar os engenheiros de teste a executarem testes manuais. Para validar a ferramenta proposta, nós desenvolvemos um protótipo que recebe como entrada casos de teste especificados na linguagem formal CSP. Como saída, o sistema devolve um texto em inglês que descreve os passos do caso de teste para aplicações móveis. O protótipo foi codificado na linguagem Java, e procurou manter critérios desejáveis de qualidade de software, como reusabilidade, extensibilidade e modularidade. Este trabalho faz parte de um projeto maior desenvolvido em parceria entre o CIn-UFPE e a Motorola
426

Mineração de Dados Aplicada à Cardiologia Pediátrica

GURGEL, Tarcisio Barbosa January 2007 (has links)
Made available in DSpace on 2014-06-12T16:00:22Z (GMT). No. of bitstreams: 2 arquivo6533_1.pdf: 1469560 bytes, checksum: ef97b30d0340855558e6dac6050e5b5f (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2007 / As primeiras soluções desenvolvidas para a Inteligência Artificial na Medicina eram, na época da sua concepção, unicamente baseadas no conhecimento do especialista, entretanto, o cenário atual, no qual dados são abundantes, mas subutilizados, mostrou-se terreno fértil para a criação de soluções baseadas também nos dados. É onde entra a Mineração de Dados, que tem sido, nos últimos anos, fator contribuinte na criação de ferramentas médicas que têm causado um forte impacto na prestação dos serviços de saúde. Nesse contexto, a proposta deste trabalho é avaliar a Mineração de Dados como meio para conceber um Sistema de Apoio à Decisão que auxilie o processo decisório na Medicina, especificamente na Cardiologia Infantil. Foram utilizadas técnicas de Inteligência Artificial tradicionalmente aplicadas a uma variedade de domínios médicos: Árvores de Decisão e Regras de Classificação, para descrição dos dados; e Redes Neurais Artificiais, para construção de classificadores. O resultado obtido a partir das primeiras técnicas trouxe novos conhecimentos para os médicos envolvidos, especialistas no domínio. Os classificadores criados, por sua vez, mostraram um desempenho satisfatório em duas tarefas distintas: a primeira é classificar os pacientes como saudáveis ou doentes em relação a doenças cardíacas, através de dados de exames de ecocardiogramas; a segunda, identificar, entre os novos pacientes da clínica, e sem a ajuda dos dados de exames clínicos, aqueles mais graves, com alto potencial de serem submetidos a alguma cirurgia cardíaca. A qualidade da solução desenvolvida e a sua aceitação pelos especialistas no domínio mostraram a viabilidade em utilizar a Mineração de Dados no processo de apoio à decisão na Cardiologia Infantil. Entre os potenciais benefícios, estão o maior entendimento da saúde cardíaca da população, e a utilização dos classificadores construídos, para servir como uma segunda opinião médica no momento do diagnóstico e para dar prioridade de atendimento aos pacientes mais graves. Esperase que, com o auxílio dessas ferramentas, haja uma melhoria do serviço médico prestado
427

Aumento de escalabilidade no simulador de jogos RTS - RTSCUP

LOBO, Rodrigo Araújo 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T16:00:46Z (GMT). No. of bitstreams: 2 arquivo6952_1.pdf: 1936777 bytes, checksum: 779ef9efb15174a50d169b2c897993c2 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / O RTSCup é um ambiente de simulação de jogos RTS (Real Time Strategy) criado no Centro de Informática (CIn) da Universidade Federal de Pernambuco (UFPE) por Vicente Vieira Filho, que permite ao usuário realizar simulações em diferentes cenários de teste. Essas simulações contemplam códigos utilizando Inteligência Artificial (IA) que podem ser utilizados para aplicações em Sistemas Multiagentes (SMA). O RTSCup é utilizado como ferramenta da disciplina de agentes autônomos, ministrada pelos professores Geber Ramalho e Patrícia Tedesco, do CIn/UFPE, onde são criadas competições entre as equipes nas modalidades de pathfinding, coleta de recursos e luta pela sobrevivência entre agentes. A dificuldade de realizar simulações com menor tempo de ciclo contendo mais de vinte agentes motivou a busca por soluções de desempenho no RTSCup. O objetivo deste trabalho é aumentar o número de agentes envolvidos na simulação permitindo a utilização do mesmo em competições regionais e nacionais
428

Detecção de intrusão em redes de computadores: uma abordagem usando extreme learning machines

Paiva Medeiros de Farias, Gilles 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T16:01:21Z (GMT). No. of bitstreams: 2 arquivo8453_1.pdf: 1913161 bytes, checksum: df3afe349b856431cbdb08a12b2cd17f (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / O mundo dos negócios é definido por qualidade, competitividade e luta por fatias de mercado. A informação é uma ferramenta indispensável nesse meio, onde organizações a usam como diferencial competitivo, uma forma de obter vantagem frente aos competidores. Segundo a Techoje (revista de opinião do IETEC - Instituto de Educação e Tecnologia), a quantidade de informação criada no ano de 2006 seria bastante para escrever 12 pilhas de livros, cada uma medindo 150 milhões de quilômetros, o que corresponde à distância da Terra ao Sol. De acordo com a Techoje, estudos estipulam que essa quantidade teria aumentado até 6 vezes até o ano de 2010. As redes de computadores são os meios utilizados para o compartilhamento dessas tão valiosas informações e sofrem com constantes tentativas de intrusão e com surgimentos cada vez mais acelerados de softwares maliciosos, que se disseminam pelos sistemas computacionais. Frente a essa realidade, IDS (Intrusion Detection Systems - Sistemas de Detecção de Intrusão) são ferramentas que auxiliam desde usuários comuns até grandes organizações a se manter seguros, contra invasores e ataques das mais diversas naturezas. Apesar de serem ferramentas úteis a seu propósito, IDS´s necessitam de implantação planejada e estruturada, ou efeitos, tais como lentidão no ambiente, alarmes falsos ou intrusões não detectadas podem vir a acontecer. O presente trabalho foca no estudo da construção de IDS´s, levando em conta as técnicas ELM (Extreme Learning Machine) e OS-ELM (Online Sequential Extreme Learning Machine) aplicadas ao problema. As técnicas citadas são usadas para o treinamento de redes neurais artificias do tipo feedforward e vêm sendo usadas em vários estudos em outras áreas de aplicação. Tais técnicas conseguem resolver problemas de forma mais rápida que técnicas tradicionais de treinamento de redes neurais, como o algoritmo backpropagation. Os resultados obtidos no estudo mostraram-se relevantes, pois alcançaram boas taxas de generalização e tempo computacional, que são fatores críticos para a área de segurança. Dessa forma, o presente estudo utiliza de forma pioneira as duas técnicas citadas, que pelas suas características, conseguem dar respostas rápidas frente ao surgimento de novos ataques
429

Swarm optimization clustering methods for opinion mining

SOUZA, Ellen Polliana Ramos 22 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T19:46:45Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Ellen Polliana Ramos Souza.pdf: 1140564 bytes, checksum: 0afe0dc25ea5b10611d057c23af46dec (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-26T21:58:03Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Ellen Polliana Ramos Souza.pdf: 1140564 bytes, checksum: 0afe0dc25ea5b10611d057c23af46dec (MD5) / Made available in DSpace on 2018-07-26T21:58:03Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Ellen Polliana Ramos Souza.pdf: 1140564 bytes, checksum: 0afe0dc25ea5b10611d057c23af46dec (MD5) Previous issue date: 2017-02-22 / Opinion Mining (OM), also known as sentiment analysis, is the field of study that analyzes people’s sentiments, evaluations, attitudes, and emotions about different entities expressed in textual input. This is accomplished through the classification of an opinion into categories, such as positive, negative, or neutral. Supervised machine learning (ML) and lexicon-based are the most frequent approaches for OM. However, these approaches require considerable effort for preparing training data and to build the opinion lexicon, respectively. In order to address the drawbacks of these approaches, this Thesis proposes the use of unsupervised clustering approach for the OM task which is able to produce accurate results for several domains without manually labeled data for the training step or tools which are language dependent. Three swarm algorithms based on Particle Swarm Optimization (PSO) and Cuckoo Search (CS) are proposed: the DPSOMUT which is based on a discrete PSO binary version, the IDPSOMUT that is based on an Improved Self-Adaptive PSO algorithm with detection function, and the IDPSOMUT/CS that is a hybrid version of IDPSOMUT and CS. Several experiments were conducted with different corpora types, domains, text language, class balancing, fitness function, and pre-processing techniques. The effectiveness of the clustering algorithms was evaluated with external measures such as accuracy, precision, recall, and F-score. From the statistical analysis, it was possible to observe that the swarm-based algorithms, especially the PSO ones, were able to find better solutions than conventional grouping techniques, such as K-means and Agglomerative. The PSO-based algorithms achieved better accuracy using a word bigram pre-processing and the Global Silhouette as fitness function. The OBCC corpus is also another contribution of this Thesis and contains a gold collection with 2,940 tweets in Brazilian Portuguese with opinions of consumers about products and services. / A mineração de opinião, também conhecida como análise de sentimento, é um campo de estudo que analisa os sentimentos, opiniões, atitudes e emoções das pessoas sobre diferentes entidades, expressos de forma textual. Tal análise é obtida através da classificação das opiniões em categorias, tais como positiva, negativa ou neutra. As abordagens de aprendizado supervisionado e baseadas em léxico são mais comumente utilizadas na mineração de opinião. No entanto, tais abordagens requerem um esforço considerável para preparação da base de dados de treinamento e para construção dos léxicos de opinião, respectivamente. A fim de minimizar as desvantagens das abordagens apresentadas, esta Tese propõe o uso de uma abordagem de agrupamento não supervisionada para a tarefa de mineração de opinião, a qual é capaz de produzir resultados precisos para diversos domínios sem a necessidade de dados rotulados manualmente para a etapa treinamento e sem fazer uso de ferramentas dependentes de língua. Três algoritmos de agrupamento não-supervisionado baseados em otimização de partícula de enxame (Particle Swarm Optimization - PSO) são propostos: o DPSOMUT, que é baseado em versão discreta do PSO; o IDPSOMUT, que é baseado em uma versão melhorada e autoadaptativa do PSO com função de detecção; e o IDPSOMUT/CS, que é uma versão híbrida do IDPSOMUT com o Cuckoo Search (CS). Diversos experimentos foram conduzidos com diferentes tipos de corpora, domínios, idioma do texto, balanceamento de classes, função de otimização e técnicas de pré-processamento. A eficácia dos algoritmos de agrupamento foi avaliada com medidas externas como acurácia, precisão, revocação e f-medida. A partir das análises estatísticas, os algortimos baseados em inteligência coletiva, especialmente os baseado em PSO, obtiveram melhores resultados que os algortimos que utilizam técnicas convencionais de agrupamento como o K-means e o Agglomerative. Os algoritmos propostos obtiveram um melhor desempenho utilizando o pré-processamento baseado em n-grama e utilizando a Global Silhouete como função de otimização. O corpus OBCC é também uma contribuição desta Tese e contem uma coleção dourada com 2.940 tweets com opiniões de consumidores sobre produtos e serviços em Português brasileiro.
430

Mineração de opiniões baseada em aspectos para revisões de medicamentos

CAVALCANTI, Diana Cabral 14 August 2017 (has links)
Submitted by Fernanda Rodrigues de Lima (fernanda.rlima@ufpe.br) on 2018-08-20T19:17:29Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Diana Cabral.pdf: 7941268 bytes, checksum: 4fda0e3a1cda7182e730ec1bbdd647bc (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-24T21:19:39Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Diana Cabral.pdf: 7941268 bytes, checksum: 4fda0e3a1cda7182e730ec1bbdd647bc (MD5) / Made available in DSpace on 2018-08-24T21:19:39Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Diana Cabral.pdf: 7941268 bytes, checksum: 4fda0e3a1cda7182e730ec1bbdd647bc (MD5) Previous issue date: 2017-08-14 / CNPq / Mineração de Opinião baseada em Aspectos pode ser aplicada para extrair informações relevantes expressas por pacientes em comentários textuais sobre medicamentos (por exemplo, reações adversas, eficácia quanto ao uso de um determinado remédio, sintomas e condições do paciente antes usar o medicamento). Este novo domínio de aplicação apresenta desafios, bem como oportunidades de pesquisa em Mineração de Opinião. No entanto, a literatura ainda é escassa sobre métodos para extrair múltiplos aspectos relevantes presentes em análises de fármacos. Nesta tese foi desenvolvido um novo método para extrair e classificar aspectos em comentários opinativos sobre medicamentos. A solução proposta tem duas etapas principais. Na extração de aspectos, um novo método baseado em caminhos de dependência sintática é proposto para extrair pares de opiniões em revisões de medicamento. Um par de opinião é composto por um termo de aspecto associado a um termo opinativo. Na classificação de aspectos, propõe-se um classificador supervisionado baseado em recursos de domínio e de linguística para classificar pares de opinião por tipo de aspecto (por exemplo, Condição clínica, Reação Adversa, Dosagem e Eficácia). Para avaliar o método proposto, foram realizados experimentos em conjuntos de dados relacionados a três diferentes condições clínicas: ADHD, AIDS e Ansiedade. Para o problema de extração foi realizado avaliação comparativa com outros dois métodos, onde o método proposto atingiu resultados competitivos, alcançando precisão de 78% para ADHD, 75,2% para AIDS e 78,7% para Ansiedade. Enquanto para o problema de classificação, resultados promissores foram obtidos nos experimentos e várias questões foram identificadas e discutidas. / Aspect-based opinion mining can be applied to extract relevant information expressed by patients in drug reviews (e.g., adverse reactions, efficacy of a drug, symptoms and conditions of patients). This new domain of application presents challenges as well as opportunities for research in opinion mining. Nevertheless, the literature is still scarce of methods to extract multiple relevant aspects present in drug reviews. In this thesis we propose a new method to extract and classify aspects in drug reviews. The proposed solution has two main steps. In the aspect extraction, a new method based on syntactic dependency paths is proposed to extract opinion pairs in drug reviews, composed by an aspect term associated to opinion term. In the aspect classification, a supervised classifier is proposed based on domain and linguistics resources to classify the opinion pairs by aspect type (e.g., condition, adverse reaction, dosage and effectiveness). In order to evaluate the proposed method we conducted experiments with datasets related to three different diseases: ADHD, AIDS and Anxiety. For the extraction problem, a comparative evaluation was performed with two other methods, the proposed method obtained competitive results, obtained an accuracy of 78% for ADHD, 75.2% for AIDS and 78.7% for Anxiety. For the classification problem, promising results were obtained in the experiments and various issues were identified and discussed.

Page generated in 0.0983 seconds