• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 206
  • 26
  • 6
  • 5
  • 5
  • 5
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • Tagged with
  • 239
  • 239
  • 233
  • 116
  • 115
  • 82
  • 52
  • 51
  • 51
  • 47
  • 47
  • 37
  • 36
  • 35
  • 34
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Desenvolvimento de uma metodologia de interpretação, recuperação

Alexandrini, Fábio January 2005 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Engenharia de Produção / Made available in DSpace on 2013-07-16T00:10:40Z (GMT). No. of bitstreams: 1 213863.pdf: 1072993 bytes, checksum: 61e1ce130920cc09bc56dc0eece1546c (MD5) / A rotina médica gera diversos registros para documentar o estado de saúde dos pacientes, em papel ou em sistemas informatizados de hospitais e clínicas que, normalmente, têm maior enfoque no controle administrativo e financeiro, relegando ao segundo plano os dados do prontuário que ficam registrados em arquivos ou em campos de texto, sem estruturação. Atualmente, existem padrões de armazenamento de informações médicas que permitem estruturação e manipulação adequada dos prontuários eletrônicos de paciente que permitem a interoperabilidade de informações. Visando resgatar os registros antigos e estruturá-los em padrões de armazenamento internacionais. Este trabalho centra-se na elaboração de uma metodologia para interpretação, recuperação e codificação inteligente de laudos médicos utilizando técnicas de PLN - Processamento de Linguagem Natural combinadas com terminologias médicas internacionais. Descreve uma ferramenta de software que recupera e interpreta laudos médicos em padrão texto, baseando-se na nomenclatura SNOMED (Systematized Nomeclature of Medicine) para estruturação desses laudos visando à integração com softwares de edição de Laudos Estruturados baseado no DICOM SR-Structured Report.
92

Uma ferramenta de apoio ao processo de aprendizagem de algoritmos

Miranda, Elisangela Maschio de January 2004 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Ciência da Computação / Made available in DSpace on 2012-10-21T10:25:32Z (GMT). No. of bitstreams: 1 209429.pdf: 929111 bytes, checksum: 404ea2adc357f0d706056c15195dd9c0 (MD5)
93

Uma aplicação do processamento de linguagem natural na modelagem conceitual de sistemas de informação

Diniz, Paulo Ricardo Torres January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-20T03:19:03Z (GMT). No. of bitstreams: 1 212914.pdf: 2233475 bytes, checksum: 13e75ff2b3e8bd78e03fc55f786971c3 (MD5) / O início do ensino da disciplina de Banco de Dados mostra-se muitas vezes frustrante, tanto para o aluno quanto para o professor, em virtude da falta de técnicas que auxiliem o discente a formatar textos de levantamento de dados, que se mostram, na maioria das vezes, dúbios e redundantes. Este trabalho visa rever as metodologias e técnicas existentes hoje para este objetivo, culminando em propor a criação de um software de auxilio que possibilite ao aluno desenvolver seu texto de levantamento de dados seguindo especificamente a técnica de Lista-Diagrama e ainda indique possíveis falhas, utilizando para isso a teoria do processamento de linguagem natural.
94

Polyset: modelo linguístico-computacional para a estruturação de redes de polissemia de nominais

Alves, Isa Mara da Rosa [UNESP] 01 October 2009 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:32:45Z (GMT). No. of bitstreams: 0 Previous issue date: 2009-10-01Bitstream added on 2014-06-13T20:43:56Z : No. of bitstreams: 1 alves_imr_dr_arafcl.pdf: 2416633 bytes, checksum: 3f83a7dad3093f9c7e134f02d1166b24 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Esta pesquisa visa a propor uma representação da polissemia de nominais compatível com sistemas computacionais; mais especificamente, o objetivo deste trabalho é incluir a especificação de relações de polissemia em bases wordnets, em especial, na WordNet.Br (DIAS-DA-SILVA, 1996, 1998, 2003). A metodologia do trabalho está baseada em Diasda- Silva (1996, 1998, 2003, 2006), abrangendo três domínios mutuamente complementares: o linguístico, o linguístico-computacional e o computacional. O domínio linguístico-computacional forneceu o tema para esta pesquisa e articulou a relação entre os domínios linguístico e computacional. Das investigações realizadas no cenário linguístico-computacional, destacamos a relevância da introdução de níveis distintos de generalidade entre os sentidos em uma base de dados de modo a otimizar o processamento lexical a ser realizada pelo sistema. Percebe-se que esse tipo de tarefa é ainda um desafio para as wordnets. Do cenário linguístico, destacamos que a Semântica Lexical Cognitiva foi considerada a teoria mais adequada aos propósitos desta tese. Olhar para o fenômeno do significado múltiplo sob o viés cognitivo possibilitou descrever os sentidos como uma entidade complexa, estruturada em termos de redes. As redes de polissemia sincrônicas, em sua configuração livre e multidimensional, conforme propõem Blank (2003) e Geeraerts (2006), demonstraram ser a estratégia descritiva mais adequada à representação da flexibilidade do sentido para os propósitos desta tese. Respondendo à fase aplicada dos domínios linguístico e linguísticocomputacional, propomos um modelo de representação denominado polyset. Os polysets são constructos estruturados em termos de redes de polissemia, de maneira que possibilitam representar diferentes níveis de generalidade entre os sentidos, diferentes graus de saliência e diferentes tipos... / This research aims at representing noun polysemy so that it can be useful to computational systems; more specifically, the subject of this work is the inclusion of specification of polysemy relations in wordnet bases, particularly in WordNet.Br (DIASDA- SILVA, 1996, 1998, 2003). The methodology has been based on Dias-da-Silva (1996, 1998, 2003, 2006), comprehending three mutually complementary domains: linguistic, computational-linguistic, and computational ones. The computational-linguistic domain has both provided the subject for this research and articulated the relationship between the linguistic domain and the computational domain. From the investigations carried out in the computational-linguistic scene, we have highlighted the relevance of the introduction of distinct levels of generality among meanings in a database, so as to reduce the amount of lexical processing to be carried out by the system. At the same time, that multiple representation provides the necessary information for a system that needs a higher degree of meaning detailing. This kind of task is still a challenge to wordnets. From the linguistic scene, we have highlighted that Cognitive Lexical Semantics has shown to be the most suitable theory for the purposes of this thesis. Regarding the phenomenon of the multiple meaning from the cognitive perspective has allowed for describing meanings as a complex entity, structured in terms of nets. The nets of synchronic polysemy, in their free, multidimensional configuration, as Blank (2003) and Geeraerts (2006) have proposed, have shown to be the most suitable descriptive strategy for the representation of the meaning flexibility for the purposes of this thesis. Answering to the applied phase of both the linguistic and computationallinguistic domains we have proposed a representation model called polyset. Polysets are constructs structured in terms of polysemy nets, allowing... (Complete abstract click electronic access below)
95

Uma abordagem unificada para análise de sentimento de tweets com domínio específico

Ribeiro, Patrícia Lustosa Ventura 24 April 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2015. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2016-01-06T15:17:23Z No. of bitstreams: 1 2015_PatríciaLustosaVenturaRibeiro.pdf: 1900858 bytes, checksum: f612b5d977ca76e8d1fc4e2cc0bb5aeb (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-03-24T15:44:39Z (GMT) No. of bitstreams: 1 2015_PatríciaLustosaVenturaRibeiro.pdf: 1900858 bytes, checksum: f612b5d977ca76e8d1fc4e2cc0bb5aeb (MD5) / Made available in DSpace on 2016-03-24T15:44:39Z (GMT). No. of bitstreams: 1 2015_PatríciaLustosaVenturaRibeiro.pdf: 1900858 bytes, checksum: f612b5d977ca76e8d1fc4e2cc0bb5aeb (MD5) / Twitter é uma rede social online que permite que os usuários enviem e leiam mensagens curtas chamadas tweets. Em dezembro de 2014, o Twitter possuia mais de 500 milhões de usuários, dos quais mais de 284 milhões são usuários ativos, gerando aproximadamente 500 milhões de tweets todos os dias. O uso massivo de redes sociais online está atraindo atenção da academia e de empresas para o estudo da análise de sentimento, especialmente o Twitter, através da Análise de Sentimento de Tweets (AST). Essa análise proporciona insights sobre a opinião do público sobre vários tópicos, como política, notícias e produtos. Para executar AST eficientemente em um domínio específico, uma abordagem com uma ferramenta unificada é proposta. Essa abordagem possui quatro passos: coletar tweets relacionados ao domínio, identificar e excluir tweets que são spam, construir um léxico de sentimento específico para o domínio e analisar o sentimento dos tweets válidos. O léxico é um elemento chave que deve ser específico para domínio para poder incorporar expressões cujo sentimento varia de um domínio para outro. A ferramenta de AST proposta foi implementada e testada nos domínios ’iPhone 6 ’ e ’cigarros eletrônicos’ e obteve resultados convincentes nas quatro etapas, mostrando a superioridade de uma ferramenta de AST específica para domínio em relação a uma genérica. ______________________________________________________________________________________________ ABSTRACT / Twitter is an online social networking (OSN) service that enables users to send and read short messages called "tweets". As of December 2014, Twitter has more than 500 million users, out of which more than 284 million are active users and about 500 million tweets are posted every day. The massive use of online social networks is attracting great attention to the study of sentiment analysis, specially Tweet Sentiment Analysis (TSA). This analysis provides insights into the opinion of the public on various topics, from political affairs, hot news to commercial products. In order to execute efficient TSA on a particular topic or domain, an approach with a unified tool is proposed. This approach consists of four steps: collecting tweets related to that topic, identifying and excluding spam tweets, building a domain-specific sentiment lexicon and analyzing the sentiment of tweets. Among them, the lexicon is a key element that is domain-specific as well as incorporates expressions whose sentiment varies from one domain to another. The proposed TSA tool is tested on the ’iPhone 6’ and ’electronic cigarettes’ domains which obtains convincing results in all of the four phases, showing the superiority of the domain-specific TSA tool over a generic one.
96

Reconhecimento de padrões lexicais por meio de redes neurais /

Babini, Maurizio. January 2006 (has links)
Orientador: Norian Marranghello / Banca: Aledir Silveira Pereira / Banca: Furio Damiani / Resumo: A compreensão da linguagem humana é uma das tarefas mais difíceis do Processamento da Linguagem Natural (PLN) e de modo mais geral da Automação e da Inteligência Artificial (IA). O objetivo desta pesquisa é estudar os mecanismos que permitem utilizar uma rede neural artificial para poder interpretar textos. Este trabalho deveria ser utilizado, futuramente, para criar uma interface em um ambiente de co-projeto, capaz de agrupar/classificar termos/conceitos, reconhecendo padrões textuais. Para alcançar nossos objetivos de pesquisa em nível de Mestrado, utilizamos o modelo semântico de Bernard Pottier, e uma Rede Neural Artificial de Kohonen. A escolha do modelo de Bernard Pottier deve-se ao fato de que este autor é um dos mais conceituados lingüistas da atualidade e que seu modelo é largamente utilizado por pesquisadores de vários paises, tendo sido, assim, comprovada a sua validade. No que diz respeito à rede de Kohonen, acreditamos que seja a mais indicada para este tipo de aplicação, tendo em vista o fato de que essa rede tenta imitar o funcionamento do cérebro humano, em particular, reproduzindo o mapeamento de suas áreas especializadas, e tendo como hipótese de partida que, no córtex humano, conceitos similares ou de áreas afins distribuem-se em áreas limítrofes. A escolha desse tipo de rede para o nosso trabalho deve-se, outrossim, ao fato de que ela utiliza um tipo de treinamento competitivo e não-supervisionado que permite organizar os vetores (dados) de entrada em agrupamentos (clusters). / Abstract: The understanding of human language is one of the most difficult tasks of Natural Language Processing (NLP), and, in general, of Automation and Artificial Intelligence (AI). The aim of our research is to study the mechanisms that allow using an artificial neural network for interpreting text. Later, our work should be used to create an interface, in a hardware/software co-design environment, capable of clustering/classifying terms/concepts, and recognizing text patterns. In order to achieve the objectives of our research, we used the semantic model of Bernard Pottier, and a Kohonen Artificial Neural Network. The choice of Bernard Pottier's model was motivated by the fact that the author is one of the most eminent linguists nowadays, and his model is largely used by researchers in many countries, thus proving the validity of his proposal. About the Kohonen net, we believe that it is the most appropriate net for this kind of application, due to the fact that this net tries to imitate the functioning of the human brain, particularly reproducing the map of its specialized areas, as well as due to the fact that this net has as initial hypothesis that, in the human cortex, similar concepts or concepts of similar areas are distributed in closed areas. Another reason for the choice of this kind of net in our study is that it uses a competitive and non-supervising training, that allows organizing entry vectors (data) in clusters. / Mestre
97

Reconhecimento de padrões lexicais por meio de redes neurais

Babini, Maurizio [UNESP] 21 December 2006 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:22:35Z (GMT). No. of bitstreams: 0 Previous issue date: 2006-12-21Bitstream added on 2014-06-13T19:48:56Z : No. of bitstreams: 1 babini_m_me_ilha_prot.pdf: 976475 bytes, checksum: 371792f3e205462129827cc925906822 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / A compreensão da linguagem humana é uma das tarefas mais difíceis do Processamento da Linguagem Natural (PLN) e de modo mais geral da Automação e da Inteligência Artificial (IA). O objetivo desta pesquisa é estudar os mecanismos que permitem utilizar uma rede neural artificial para poder interpretar textos. Este trabalho deveria ser utilizado, futuramente, para criar uma interface em um ambiente de co-projeto, capaz de agrupar/classificar termos/conceitos, reconhecendo padrões textuais. Para alcançar nossos objetivos de pesquisa em nível de Mestrado, utilizamos o modelo semântico de Bernard Pottier, e uma Rede Neural Artificial de Kohonen. A escolha do modelo de Bernard Pottier deve-se ao fato de que este autor é um dos mais conceituados lingüistas da atualidade e que seu modelo é largamente utilizado por pesquisadores de vários paises, tendo sido, assim, comprovada a sua validade. No que diz respeito à rede de Kohonen, acreditamos que seja a mais indicada para este tipo de aplicação, tendo em vista o fato de que essa rede tenta imitar o funcionamento do cérebro humano, em particular, reproduzindo o mapeamento de suas áreas especializadas, e tendo como hipótese de partida que, no córtex humano, conceitos similares ou de áreas afins distribuem-se em áreas limítrofes. A escolha desse tipo de rede para o nosso trabalho deve-se, outrossim, ao fato de que ela utiliza um tipo de treinamento competitivo e não-supervisionado que permite organizar os vetores (dados) de entrada em agrupamentos (clusters). / The understanding of human language is one of the most difficult tasks of Natural Language Processing (NLP), and, in general, of Automation and Artificial Intelligence (AI). The aim of our research is to study the mechanisms that allow using an artificial neural network for interpreting text. Later, our work should be used to create an interface, in a hardware/software co-design environment, capable of clustering/classifying terms/concepts, and recognizing text patterns. In order to achieve the objectives of our research, we used the semantic model of Bernard Pottier, and a Kohonen Artificial Neural Network. The choice of Bernard Pottier's model was motivated by the fact that the author is one of the most eminent linguists nowadays, and his model is largely used by researchers in many countries, thus proving the validity of his proposal. About the Kohonen net, we believe that it is the most appropriate net for this kind of application, due to the fact that this net tries to imitate the functioning of the human brain, particularly reproducing the map of its specialized areas, as well as due to the fact that this net has as initial hypothesis that, in the human cortex, similar concepts or concepts of similar areas are distributed in closed areas. Another reason for the choice of this kind of net in our study is that it uses a competitive and non-supervising training, that allows organizing entry vectors (data) in clusters.
98

Recuperação de informação com auxílio de extratos automáticos.

Batista Junior, Wilson dos Santos 08 May 2006 (has links)
Made available in DSpace on 2016-06-02T19:05:17Z (GMT). No. of bitstreams: 1 DissWSBJ.pdf: 1130582 bytes, checksum: cddbd8f8a11a6e29a95cea9e62612f2b (MD5) Previous issue date: 2006-05-08 / Financiadora de Estudos e Projetos / This dissertation investigates the use of Automatic Summarization (AS) techniques on Information Retrieval (IR), two areas that have attracted growing attention due to the continuous growth of information repositories in digital format. The main goal of this work is to verify the contribution of extracts generated automatically in two stages of the IR: indexing and Pseudo Relevance Feedback (PRF). In general, the main goal of both phases is to find the most descriptive terms of a given document. This goal in turn is strongly related to that of the AS techniques to summarize the main parts of a document which justifies the study. In order to verify the effectiveness of the AS techniques, we have developed five systems that use extracts generated by a summarizing system that was considered useful in the task of indicating the content of documents to human readers. These systems were assessed through a set of documents written in Portuguese to test IR. In general, the results show that the generated extracts were not useful for indexing, presenting worse performance compared to when using a full document for IR. In the PRF case, however, the results obtained using specific extracts were better than those obtained by a system that does not embed PRF. The best results were obtained when using query-biased multi-documents extracts, indicating that this type of extract may be useful for PRF. / Este trabalho de mestrado investiga a aplicação de técnicas de Sumarização Automática (SA) na Recuperação de Informação (RI), duas áreas que, devido ao crescente número de repositórios de informação digital disponíveis, têm se mostrado muito importantes para a captura de informações. O intuito do trabalho é verificar a contribuição de extratos gerados automaticamente em duas etapas da RI: a indexação e a realimentação de pseudo-relevantes. O principal objetivo dessas duas etapas é encontrar os termos mais descritivos de um documento. Esse objetivo é relacionado fortemente com o objetivo principal da SA que é condensar as principais partes do documento, o que justifica o emprego. Para verificar a efetividade das técnicas de SA, foram construídos cinco sistemas que utilizam extratos gerados por um sistema de sumarização que foi considerado útil na tarefa de indicar aos leitores humanos o conteúdo de documentos. Esses sistemas foram avaliados com uma coleção de documentos para testes em RI, escritos em português. Em geral, os resultados apontam que os extratos gerados não foram úteis para a indexação, apresentando desempenho inferior à recuperação que usou o conteúdo completo dos documentos na indexação. No caso da realimentação de pseudo-relevantes, os resultados dos sistemas que utilizam extratos específicos foram superiores aos de um sistema sem esta realimentação em muitos casos. Os melhores resultados foram obtidos pelos extratos específicos multi-documentos, mostrando que esse tipo de extrato pode ser útil para a realimentação de pseudo-relevantes.
99

ExtraWeb: um sumarizador de documentos Web baseado em etiquetas HTML e ontologia.

Silva, Patrick Pedreira 10 July 2006 (has links)
Made available in DSpace on 2016-06-02T19:05:19Z (GMT). No. of bitstreams: 1 DissPPS.pdf: 2486545 bytes, checksum: 45bf3bd34f1453685126954dc3708459 (MD5) Previous issue date: 2006-07-10 / Financiadora de Estudos e Projetos / This dissertation presents an automatic summarizer of Web documents based on both HTML tags and ontological knowledge. It has been derived from two independent approaches: one that focuses solely upon HTML tags, and another that focuses only on ontological knowledge. The three approaches were implemented and assessed, indicating that associating both knowledge types have a promising descriptive power for Web documents. The resulting prototype has been named ExtraWeb. The ExtraWeb system explores the HTML structure of Web documents in Portuguese and semantic information using the Yahoo ontology in Portuguese. This has been enriched with additional terms extracted from both a thesaurus, Diadorim and the Wikipedia. In a simulated Web search, ExtraWeb achieved a similar utility degree to Google one, showing its potential to signal through extracts the relevance of the retrieved documents. This has been an important issue recently. Extracts may be particularly useful as surrogates of the current descriptions provided by the existing search engines. They may even substitute the corresponding source documents. In the former case, those descriptions do not necessarily convey relevant content of the documents; in the latter, reading full documents demands a substantial overhead of Web users. In both cases, extracts may improve the search task, provided that they actually signal relevant content. So, ExtraWeb is a potential plug-in of search engines, to improve their descriptions. However, its scability and insertion in a real setting have not yet been explored. / Esta dissertação propõe um sumarizador de documentos Web baseado em etiquetas HTML e conhecimento ontológico, derivado de outras duas abordagens independentes: uma que contempla somente etiquetas HTML e outra, somente conhecimento ontológico. As três abordagens foram implementadas e avaliadas, indicando que a composição desses dois tipos de conhecimento tem um bom potencial descritivo de documentos Web. O protótipo resultante é denominado ExtraWeb. O ExtraWeb explora a estrutura de marcação de documentos em português e informações de nível semântico usando a ontologia do Yahoo em português, enriquecida com vocabulário extraído de um thesaurus, Diadorim, e da Wikipédia. Em uma tarefa simulada por internautas, de busca de documentos, o ExtraWeb obteve um grau de utilidade próximo ao do Google, evidenciando seu potencial para indicar, por meio de extratos, a relevância de documentos recuperados na Web. Esse foco é de grande interesse atualmente, pois os extratos podem ser particularmente úteis como substitutos das descrições atuais das ferramentas de busca ou, mesmo, como substitutos dos documentos correspondentes completos. No primeiro caso, as descrições nem sempre contemplam as informações mais relevantes dos documentos; no segundo, sua leitura implica um esforço considerável por parte do internauta. Em ambos os casos, extratos podem otimizar essa tarefa, se comprovada sua utilidade para a indicação da relevância dos documentos. Assim, o ExtraWeb tem potencial para ser um acessório das ferramentas de busca, para melhorar a forma como os resultados são apresentados, muito embora sua escalabilidade e implantação em um ambiente real ainda não tenham sido exploradas.
100

A resolução de anáforas pronominais da língua portuguesa com base no algoritmo de Mitkov.

Chaves, Amanda Rocha 22 August 2007 (has links)
Made available in DSpace on 2016-06-02T19:05:25Z (GMT). No. of bitstreams: 1 ChavesDissMestrado2007.pdf: 1531762 bytes, checksum: 7abc0f23650c4081b1838680a8af1dd3 (MD5) Previous issue date: 2007-08-22 / One of the problems of natural language processing systems is to assure referential cohesion in a text. This property allows connecting the text constituents and making it readable. We address the anaphoric phenomenon as one of the main factors of referential cohesion. Anaphors depict a reference relationship between two or more text components, and the interpretation of the anaphor is dependent upon the interpretation of its antecedent. This work is limited to pronominal anaphors, thus, to automatic pronoun resolution. Several algorithms have been proposed to this end. They usually involve (1) identifying the anaphoric component; (2) determining the set of its possible antecedents; and (3) identifying and selecting the most likely antecedent of the anaphor. The lack of anaphora resolution in, e.g., information extraction and automatic translation or summarization may yield non-cohesive texts. Herein we present an adaptation of the Mitkov´s algorithm for pronoun resolution. 3rd person pronouns for Brazilian Portuguese are especially addressed, whose antecedents are noun phrases. This approach has been intrinsically evaluated on annotated corpora. It has also been compared with Lappin and Leass algorithm for pronoun resolution, adapted to Portuguese. Annotations embed morphological, syntactic and co-referential information. The evaluation measure adopted was the success rate. This is defined as the ratio between the number of anaphors correctly resolved by the system and the total number of anaphors in the text. The results of both evaluations are discussed here. / Um dos problemas encontrados em sistemas de processamento de línguas naturais é conseguir manter a coesão referencial de um texto, propriedade que permite estabelecer as ligações entre os seus constituintes, tornando-o inteligível. Dentre os fatores de coesão referencial destacamos a anáfora, que ocorre quando duas ou mais expressões de um texto estabelecem uma relação de referência entre si, isto é, a interpretação da anáfora depende de um antecedente ao qual ela se refere no texto. Diversos algoritmos na literatura foram propostos para a resolução automática de anáforas pronominais, que consiste em: 1) identificar a anáfora, 2) determinar o conjunto de possíveis antecedentes e 3) identificar e selecionar o antecedente da anáfora. A ausência da resolução anafórica em aplicações como extração de informação, tradução automática e sumarização textual, dentre outras, pode levar à descontinuidade referencial de seus resultados, tornando-os não-coesos. Nesse contexto, apresentamos uma adaptação do algoritmo de Mitkov, originalmente aplicado no inglês, para resolver anáforas da língua portuguesa, especialmente as determinadas por pronomes pessoais de terceira pessoa cujo antecedente seja um sintagma nominal. Essa abordagem foi avaliada com base em corpora anotados com informações morfossintáticas e coreferenciais, utilizando-se como medida de avaliação de desempenho a taxa de sucesso, que determina o número de anáforas resolvidas corretamente pelo sistema automático em relação ao número de anáforas presentes no corpus avaliado. Além disso, fez-se uma comparação de desempenho entre essa abordagem e o algoritmo de Lappin & Leass adaptado para o português. Os resultados dessa avaliação são discutidos ao final do trabalho.

Page generated in 0.0863 seconds