Spelling suggestions: "subject:"inteligência artificial"" "subject:"nteligência artificial""
421 |
Busca e recuperação de componentes de software utilizando agrupamento de componentesVeras, Ronaldo Cisneiros 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T15:54:38Z (GMT). No. of bitstreams: 2
arquivo1985_1.pdf: 1669122 bytes, checksum: d80eb6d9d156dc4d5fea44c91a40a019 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2008 / O desenvolvimento de software com reuso é uma abordagem que pode ser utilizada para alcançar
dois benefícios principais: 1) incremento de produtividade nos projetos de software e 2)
melhorias na qualidade final dos projetos. A abordagem de reuso de software pode ser instanciada
através da estratégia de desenvolvimento de software baseada em componentes. De acordo
com essa estratégia, grandes aplicações de software podem ser desenvolvidas a partir de partes
reutilizáveis e pré-existentes, que devem estabelecer uma colaboração entre elas para prover as
funcionalidade requeridas pela aplicação. Os locais onde esses componentes são armazenados
(repositórios), e os processos para a busca e recuperação dos mesmos, são considerados pontos
de constante pesquisa e discussão.
Em um outro contexto, soluções baseadas em aprendizagem de máquina e inteligência artificial
começam a produzir contribuições relevantes para problemas pertencentes ao ciclo de
desenvolvimento de projetos de software, compreendendo campos como a estimativa de esforço
de projetos de software e a predição de falhas, por exemplo. Esse trabalho possui o objetivo de
investigar a utilização de técnicas de agrupamento de dados (clustering) (que fazem parte das
técnicas de aprendizagem de máquina) ao problema do reuso de software. Para esse trabalho
foram analisadas as técnicas de agrupamento por mapas auto-organizáveis (SOM), mapas autoorganizáveis
que crescem hierarquicamente (GHSOM) e o agrupamento por árvores de sufixos
(STC). É importante ressaltar que a aplicação de STC a este problema foi feita originalmente
no nosso trabalho.
Nesse cenário, a solução proposta foi implementada, gerando uma ferramenta web para
busca e recuperação de componentes de software. A ferramenta Cluco (Clustering of Components)
apresenta os resultados de uma busca por componentes, que satisfazem os critérios de
uma consulta, na forma de grupos de componentes similares, onde esses grupos são gerados
pelo algoritmo STC. Essa característica pode ser considerada uma contribuição relevante, pois
o grande esforço manual em busca de similaridades, que deveria ser realizado pelos usuários, é
executado automaticamente pelo sistema, à medida que os resultados de uma busca tornam-se
disponíveis.
Esta dissertação apresenta avaliações qualitativas e quantitativas da solução proposta. Vários
usuários com vários níveis de experiência em engenharia de software avaliaram a ferramenta,
através de realização de buscas e respondendo a um questionário contendo perguntas relativas
à usabilidade e à qualidade da solução. Métricas para a avaliação de sistemas de recuperação
de informação como, por exemplo, as métricas recall e precision foram utilizadas para fornecer
validações quantitativas sobre a solução. Uma análise de desempenho comparando as técnicas
investigadas nesse trabalho foi realizada. Esta análise mostrou a superioridade da técnica STC
no problema de agrupamento dos componentes de software utilizados nesse trabalho (componentes Java). Considerando todos os resultados obtidos, pode ser concluído que a solução
proposta contribui de forma positiva e relevante para o problema de busca e recuperação de
componentes de software
|
422 |
Visão computacional e segmentação de imagens por discriminação de texturaGOMES, Daniel de Filgueiras 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T15:55:44Z (GMT). No. of bitstreams: 2
arquivo2284_1.pdf: 5566409 bytes, checksum: 57582c18f105e4a65f1d2bee8b060d2e (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2009 / A segmentação é uma parte fundamental do processo de particionamento do espaço de dados
em regiões salientes e é um pré-requisito para processos subsequentes como reconhecimento
de objetos e interpretação de cena. A etapa de segmentação de imagens e a eficiência com que
é realizada afeta diretamente a performance de um sistema automático de análise de imagem.
A grande maioria dos algoritmos de segmentação existentes trabalha com características como
cor e luminosidade sem levar em consideração os micro-padrões de textura formados pela combinação
destas características. Inicialmente motivada como ferramenta de segmentação de paisagens
em fotos aéreas e de satélite a análise de textura tem sido estudada por um longo período
de tempo usando muitas abordagens distintas. Vários métodos realizam a análise de textura sobre
estatísticas de segunda ordem de pixels ou componentes espectrais presentes na imagem.
Estudos sobre padrões de textura presentes em imagens tem revelado que a informação sobre
a textura de um determinado objeto pode ser tão específica a ponto de poder ser utilizada, não
só para a discriminação de regiões, mas também para a identificação de objetos em uma cena.
O presente trabalho discute as diversas questões e problemas envolvendo o processamento e
a discriminação de texturas em imagens digitais e propõe métodos de segmentação utilizando
uma abordagem não-supervisionada com redes neurais artificiais
|
423 |
Um sistema de extração de informação em referências bibliográficas baseado em aprendizagem e máquinaFraga do Amaral e Silva, Eduardo January 2004 (has links)
Made available in DSpace on 2014-06-12T15:58:49Z (GMT). No. of bitstreams: 2
arquivo4727_1.pdf: 1069518 bytes, checksum: f7d66b889164069c63fdfafe11edf163 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2004 / Existe atualmente uma gigantesca quantidade de informações disponibilizada em
formato de texto na Internet e nas redes das grandes corporações. Essas informações
encontram-se em um formato não estruturado, dificilmente manipulável por programas
de computador.
A Extração de Informação (EI) tem como objetivo transformar documentos
textuais em um formato estruturado, mapeando a informação contida em um documento
em uma estrutura tabular. Tal estrutura é mais facilmente tratável por programas de
computador, possibilitando assim a sua utilização por variadas aplicações inteligentes .
Dentro da Inteligência Artificial, vemos duas abordagens para tratar o problema da EI:
os sistemas baseados em conhecimento e a aprendizagem automática.
O trabalho apresentado tem como objetivo a construção de um sistema para
extrair informações a partir de textos contendo citações científicas (ou referências
bibliográficas) através de uma abordagem baseada em aprendizagem automática. Dentre
as diversas técnicas existentes, escolhemos tratar o problema através de uma abordagem
híbrida, que combina o uso de técnicas de classificação de textos com os Modelos de
Markov Escondidos (HMM). Esta combinação mostrou resultados superiores aos
obtidos usando exclusivamente as técnicas de classificação e sua idéia básica é gerar
com o uso das técnicas de classificação de textos para EI uma saída inicial para o
sistema e refiná-la depois por meio de um HMM. Experimentos realizados com um
conjunto de teste contendo 3000 referências resultaram em uma precisão de 87,48%.
|
424 |
NLForSpec : uma ferramenta para geração de especificações formais a partir de casos de teste em linguagem naturalLEITÃO, Daniel Almeida January 2006 (has links)
Made available in DSpace on 2014-06-12T15:59:28Z (GMT). No. of bitstreams: 2
arquivo5127_1.pdf: 1281889 bytes, checksum: 27f0d0f476fb317baa37e42f70c3bf82 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2006 / Este trabalho propõe NLForSpec, uma ferramenta para geração de especificações
formais a partir de casos de teste em Linguagem Natural. NLForSpec é parte de um
projeto maior desenvolvido em parceria entre o CIn-UFPE e a Motorola, que tem como
objetivo automatizar a seleção, geração e avaliação de casos de teste para aplicações de
telefones móveis. Uma das principais tarefas desse projeto é atualizar automaticamente
os requisitos a partir de casos de teste mais atuais.
Nesse cenário, a ferramenta NLForSpec é responsável por gerar especificações na
linguagem formal CSP (Communicating Sequential Processes) a partir de descrições de
casos de teste. Essas especificações serão utilizadas como entrada no processo de
atualização ou geração de documentos de requisitos a partir de casos de teste mais
atuais.
NLForSpec foi construída com base na arquitetura simbólica tradicional para
interpretação de LN, e contém quatro bases de conhecimento (Léxico, Gramática de
Casos, Ontologia e Base de Especificações CSP) e três módulos de processamento
(POS-Tagging, Processamento Semântico e Geração de Casos de Teste Formais).
NLForSpec apresentou um desempenho satisfatório em um estudo de caso realizado
para o domínio de descrições de casos de teste para aplicações de Messaging da
Motorola
|
425 |
SpecNL : uma ferramenta para gerar descrições em linguagem natural a partir de especificações de casos de testeTORRES, Dante Gama January 2006 (has links)
Made available in DSpace on 2014-06-12T15:59:28Z (GMT). No. of bitstreams: 2
arquivo5130_1.pdf: 962505 bytes, checksum: c110ca4ca2100795b71140dd9ec201cf (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2006 / Teste de Software é uma tarefa central, porém muito cara, no
processo de desenvolvimento de software. Estudos sugerem que as tarefas
de teste chegam até 50% do custo total de desenvolvimento do software.
Com o objetivo de automatizar e otimizar as atividades de teste, várias
ferramentas têm sido utilizadas para assistir o processo de testes, desde a
geração dos testes até a sua execução. As ferramentas de geração de testes
geralmente especificam os casos de teste gerados em uma linguagem não
natural (normalmente uma linguagem formal). Entretanto, essa linguagem
pode ser não trivial para os engenheiros que executarão manualmente os
casos de teste. Com isso, seria de grande ajuda uma ferramenta que
mapeasse os casos de teste gerados em uma linguagem natural.
Este trabalho propõe uma ferramenta para gerar descrições em
linguagem natural (LN) a partir de casos de teste especificados em
linguagem formal, com o intuito de ajudar os engenheiros de teste a
executarem testes manuais. Para validar a ferramenta proposta, nós
desenvolvemos um protótipo que recebe como entrada casos de teste
especificados na linguagem formal CSP. Como saída, o sistema devolve um
texto em inglês que descreve os passos do caso de teste para aplicações
móveis. O protótipo foi codificado na linguagem Java, e procurou manter
critérios desejáveis de qualidade de software, como reusabilidade,
extensibilidade e modularidade. Este trabalho faz parte de um projeto maior
desenvolvido em parceria entre o CIn-UFPE e a Motorola
|
426 |
Mineração de Dados Aplicada à Cardiologia PediátricaGURGEL, Tarcisio Barbosa January 2007 (has links)
Made available in DSpace on 2014-06-12T16:00:22Z (GMT). No. of bitstreams: 2
arquivo6533_1.pdf: 1469560 bytes, checksum: ef97b30d0340855558e6dac6050e5b5f (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2007 / As primeiras soluções desenvolvidas para a Inteligência Artificial na Medicina
eram, na época da sua concepção, unicamente baseadas no conhecimento do
especialista, entretanto, o cenário atual, no qual dados são abundantes, mas
subutilizados, mostrou-se terreno fértil para a criação de soluções baseadas também
nos dados. É onde entra a Mineração de Dados, que tem sido, nos últimos anos, fator
contribuinte na criação de ferramentas médicas que têm causado um forte impacto na
prestação dos serviços de saúde. Nesse contexto, a proposta deste trabalho é avaliar
a Mineração de Dados como meio para conceber um Sistema de Apoio à Decisão que
auxilie o processo decisório na Medicina, especificamente na Cardiologia Infantil.
Foram utilizadas técnicas de Inteligência Artificial tradicionalmente aplicadas a
uma variedade de domínios médicos: Árvores de Decisão e Regras de Classificação,
para descrição dos dados; e Redes Neurais Artificiais, para construção de
classificadores. O resultado obtido a partir das primeiras técnicas trouxe novos
conhecimentos para os médicos envolvidos, especialistas no domínio. Os
classificadores criados, por sua vez, mostraram um desempenho satisfatório em duas
tarefas distintas: a primeira é classificar os pacientes como saudáveis ou doentes em
relação a doenças cardíacas, através de dados de exames de ecocardiogramas; a
segunda, identificar, entre os novos pacientes da clínica, e sem a ajuda dos dados de
exames clínicos, aqueles mais graves, com alto potencial de serem submetidos a
alguma cirurgia cardíaca.
A qualidade da solução desenvolvida e a sua aceitação pelos especialistas no
domínio mostraram a viabilidade em utilizar a Mineração de Dados no processo de
apoio à decisão na Cardiologia Infantil. Entre os potenciais benefícios, estão o maior
entendimento da saúde cardíaca da população, e a utilização dos classificadores
construídos, para servir como uma segunda opinião médica no momento do
diagnóstico e para dar prioridade de atendimento aos pacientes mais graves. Esperase
que, com o auxílio dessas ferramentas, haja uma melhoria do serviço médico
prestado
|
427 |
Aumento de escalabilidade no simulador de jogos RTS - RTSCUPLOBO, Rodrigo Araújo 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T16:00:46Z (GMT). No. of bitstreams: 2
arquivo6952_1.pdf: 1936777 bytes, checksum: 779ef9efb15174a50d169b2c897993c2 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2010 / O RTSCup é um ambiente de simulação de jogos RTS (Real Time Strategy) criado no Centro
de Informática (CIn) da Universidade Federal de Pernambuco (UFPE) por Vicente Vieira
Filho, que permite ao usuário realizar simulações em diferentes cenários de teste. Essas simulações
contemplam códigos utilizando Inteligência Artificial (IA) que podem ser utilizados para
aplicações em Sistemas Multiagentes (SMA). O RTSCup é utilizado como ferramenta da disciplina
de agentes autônomos, ministrada pelos professores Geber Ramalho e Patrícia Tedesco,
do CIn/UFPE, onde são criadas competições entre as equipes nas modalidades de pathfinding,
coleta de recursos e luta pela sobrevivência entre agentes. A dificuldade de realizar simulações
com menor tempo de ciclo contendo mais de vinte agentes motivou a busca por soluções de
desempenho no RTSCup. O objetivo deste trabalho é aumentar o número de agentes envolvidos
na simulação permitindo a utilização do mesmo em competições regionais e nacionais
|
428 |
Detecção de intrusão em redes de computadores: uma abordagem usando extreme learning machinesPaiva Medeiros de Farias, Gilles 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T16:01:21Z (GMT). No. of bitstreams: 2
arquivo8453_1.pdf: 1913161 bytes, checksum: df3afe349b856431cbdb08a12b2cd17f (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2011 / O mundo dos negócios é definido por qualidade, competitividade e luta por fatias de mercado. A informação é uma ferramenta indispensável nesse meio, onde organizações a usam como diferencial competitivo, uma forma de obter vantagem frente aos competidores.
Segundo a Techoje (revista de opinião do IETEC - Instituto de Educação e Tecnologia), a quantidade de informação criada no ano de 2006 seria bastante para escrever 12 pilhas de livros, cada uma medindo 150 milhões de quilômetros, o que corresponde à distância da Terra ao Sol. De acordo com a Techoje, estudos estipulam que essa quantidade teria aumentado até 6 vezes até o ano de 2010.
As redes de computadores são os meios utilizados para o compartilhamento dessas tão valiosas informações e sofrem com constantes tentativas de intrusão e com surgimentos cada vez mais acelerados de softwares maliciosos, que se disseminam pelos sistemas computacionais. Frente a essa realidade, IDS (Intrusion Detection Systems - Sistemas de Detecção de Intrusão) são ferramentas que auxiliam desde usuários comuns até grandes organizações a se manter seguros, contra invasores e ataques das mais diversas naturezas. Apesar de serem ferramentas úteis a seu propósito, IDS´s necessitam de implantação planejada e estruturada, ou efeitos, tais como lentidão no ambiente, alarmes falsos ou intrusões não detectadas podem vir a acontecer.
O presente trabalho foca no estudo da construção de IDS´s, levando em conta as técnicas ELM (Extreme Learning Machine) e OS-ELM (Online Sequential Extreme Learning Machine) aplicadas ao problema. As técnicas citadas são usadas para o treinamento de redes neurais artificias do tipo feedforward e vêm sendo usadas em vários estudos em outras áreas de aplicação. Tais técnicas conseguem resolver problemas de forma mais rápida que técnicas tradicionais de treinamento de redes neurais, como o algoritmo backpropagation.
Os resultados obtidos no estudo mostraram-se relevantes, pois alcançaram boas taxas de generalização e tempo computacional, que são fatores críticos para a área de segurança. Dessa forma, o presente estudo utiliza de forma pioneira as duas técnicas citadas, que pelas suas características, conseguem dar respostas rápidas frente ao surgimento de novos ataques
|
429 |
Swarm optimization clustering methods for opinion miningSOUZA, Ellen Polliana Ramos 22 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T19:46:45Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Ellen Polliana Ramos Souza.pdf: 1140564 bytes, checksum: 0afe0dc25ea5b10611d057c23af46dec (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-26T21:58:03Z (GMT) No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Ellen Polliana Ramos Souza.pdf: 1140564 bytes, checksum: 0afe0dc25ea5b10611d057c23af46dec (MD5) / Made available in DSpace on 2018-07-26T21:58:03Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Ellen Polliana Ramos Souza.pdf: 1140564 bytes, checksum: 0afe0dc25ea5b10611d057c23af46dec (MD5)
Previous issue date: 2017-02-22 / Opinion Mining (OM), also known as sentiment analysis, is the field of study that analyzes people’s sentiments, evaluations, attitudes, and emotions about different entities expressed in textual input. This is accomplished through the classification of an opinion into categories, such as positive, negative, or neutral. Supervised machine learning (ML) and lexicon-based are the most frequent approaches for OM. However, these approaches require considerable effort for preparing training data and to build the opinion lexicon, respectively. In order to address the drawbacks of these approaches, this Thesis proposes the use of unsupervised clustering approach for the OM task which is able to produce accurate results for several domains without manually labeled data for the training step or tools which are language dependent. Three swarm algorithms based on Particle Swarm Optimization (PSO) and Cuckoo Search (CS) are proposed: the DPSOMUT which is based on a discrete PSO binary version, the IDPSOMUT that is based on an Improved Self-Adaptive PSO algorithm with detection function, and the IDPSOMUT/CS that is a hybrid version of IDPSOMUT and CS. Several experiments were conducted with different corpora types, domains, text language, class balancing, fitness function, and pre-processing techniques. The effectiveness of the clustering algorithms was evaluated with external measures such as accuracy, precision, recall, and F-score. From the statistical analysis, it was possible to observe that the swarm-based algorithms, especially the PSO ones, were able to find better solutions than conventional grouping techniques, such as K-means and Agglomerative. The PSO-based algorithms achieved better accuracy using a word bigram pre-processing and the Global Silhouette as fitness function. The OBCC corpus is also another contribution of this Thesis and contains a gold collection with 2,940 tweets in Brazilian Portuguese with opinions of consumers about products and services. / A mineração de opinião, também conhecida como análise de sentimento, é um campo de estudo que analisa os sentimentos, opiniões, atitudes e emoções das pessoas sobre diferentes entidades, expressos de forma textual. Tal análise é obtida através da classificação das opiniões em categorias, tais como positiva, negativa ou neutra. As abordagens de aprendizado supervisionado e baseadas em léxico são mais comumente utilizadas na mineração de opinião. No entanto, tais abordagens requerem um esforço considerável para preparação da base de dados de treinamento e para construção dos léxicos de opinião, respectivamente. A fim de minimizar as desvantagens das abordagens apresentadas, esta Tese propõe o uso de uma abordagem de agrupamento não supervisionada para a tarefa de mineração de opinião, a qual é capaz de produzir resultados precisos para diversos domínios sem a necessidade de dados rotulados manualmente para a etapa treinamento e sem fazer uso de ferramentas dependentes de língua. Três algoritmos de agrupamento não-supervisionado baseados em otimização de partícula de enxame (Particle Swarm Optimization - PSO) são propostos: o DPSOMUT, que é baseado em versão discreta do PSO; o IDPSOMUT, que é baseado em uma versão melhorada e autoadaptativa do PSO com função de detecção; e o IDPSOMUT/CS, que é uma versão híbrida do IDPSOMUT com o Cuckoo Search (CS). Diversos experimentos foram conduzidos com diferentes tipos de corpora, domínios, idioma do texto, balanceamento de classes, função de otimização e técnicas de pré-processamento. A eficácia dos algoritmos de agrupamento foi avaliada com medidas externas como acurácia, precisão, revocação e f-medida. A partir das análises estatísticas, os algortimos baseados em inteligência coletiva, especialmente os baseado em PSO, obtiveram melhores resultados que os algortimos que utilizam técnicas convencionais de agrupamento como o K-means e o Agglomerative. Os algoritmos propostos obtiveram um melhor desempenho utilizando o pré-processamento baseado em n-grama e utilizando a Global Silhouete como função de otimização. O corpus OBCC é também uma contribuição desta Tese e contem uma coleção dourada com 2.940 tweets com opiniões de consumidores sobre produtos e serviços em Português brasileiro.
|
430 |
Mineração de opiniões baseada em aspectos para revisões de medicamentosCAVALCANTI, Diana Cabral 14 August 2017 (has links)
Submitted by Fernanda Rodrigues de Lima (fernanda.rlima@ufpe.br) on 2018-08-20T19:17:29Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Diana Cabral.pdf: 7941268 bytes, checksum: 4fda0e3a1cda7182e730ec1bbdd647bc (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-24T21:19:39Z (GMT) No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Diana Cabral.pdf: 7941268 bytes, checksum: 4fda0e3a1cda7182e730ec1bbdd647bc (MD5) / Made available in DSpace on 2018-08-24T21:19:39Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Diana Cabral.pdf: 7941268 bytes, checksum: 4fda0e3a1cda7182e730ec1bbdd647bc (MD5)
Previous issue date: 2017-08-14 / CNPq / Mineração de Opinião baseada em Aspectos pode ser aplicada para extrair informações relevantes expressas por pacientes em comentários textuais sobre medicamentos (por exemplo, reações adversas, eficácia quanto ao uso de um determinado remédio, sintomas e condições do paciente antes usar o medicamento). Este novo domínio de aplicação apresenta desafios, bem como oportunidades de pesquisa em Mineração de Opinião. No entanto, a literatura ainda é escassa sobre métodos para extrair múltiplos aspectos relevantes presentes em análises de fármacos. Nesta tese foi desenvolvido um novo método para extrair e classificar aspectos em comentários opinativos sobre medicamentos. A solução proposta tem duas etapas principais. Na extração de aspectos, um novo método baseado em caminhos de dependência sintática é proposto para extrair pares de opiniões em revisões de medicamento. Um par de opinião é composto por um termo de aspecto associado a um termo opinativo. Na classificação de aspectos, propõe-se um classificador supervisionado baseado em recursos de domínio e de linguística para classificar pares de opinião por tipo de aspecto (por exemplo, Condição clínica, Reação Adversa, Dosagem e Eficácia). Para avaliar o método proposto, foram realizados experimentos em conjuntos de dados relacionados a três diferentes condições clínicas: ADHD, AIDS e Ansiedade. Para o problema de extração foi realizado avaliação comparativa com outros dois métodos, onde o método proposto atingiu resultados competitivos, alcançando precisão de 78% para ADHD, 75,2% para AIDS e 78,7% para Ansiedade. Enquanto para o problema de classificação, resultados promissores foram obtidos nos experimentos e várias questões foram identificadas e discutidas. / Aspect-based opinion mining can be applied to extract relevant information expressed by patients in drug reviews (e.g., adverse reactions, efficacy of a drug, symptoms and conditions of patients). This new domain of application presents challenges as well as opportunities for research in opinion mining. Nevertheless, the literature is still scarce of methods to extract multiple relevant aspects present in drug reviews. In this thesis we propose a new method to extract and classify aspects in drug reviews. The proposed solution has two main steps. In the aspect extraction, a new method based on syntactic dependency paths is proposed to extract opinion pairs in drug reviews, composed by an aspect term associated to opinion term. In the aspect classification, a supervised classifier is proposed based on domain and linguistics resources to classify the opinion pairs by aspect type (e.g., condition, adverse reaction, dosage and effectiveness). In order to evaluate the proposed method we conducted experiments with datasets related to three different diseases: ADHD, AIDS and Anxiety. For the extraction problem, a comparative evaluation was performed with two other methods, the proposed method obtained competitive results, obtained an accuracy of 78% for ADHD, 75.2% for AIDS and 78.7% for Anxiety. For the classification problem, promising results were obtained in the experiments and various issues were identified and discussed.
|
Page generated in 0.0985 seconds