• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 291
  • 49
  • 6
  • 5
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • Tagged with
  • 348
  • 348
  • 281
  • 177
  • 151
  • 91
  • 62
  • 56
  • 55
  • 55
  • 52
  • 51
  • 50
  • 47
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Detecting contrastive sentences for sentiment analysis / Detecção de sentenças contrastantes através de análise de sentimentos

Vargas, Danny Suarez January 2016 (has links)
A análise de contradições é uma área relativamente nova, multidisciplinar e complexa que tem por objetivo principal identificar pedaços contraditórios de texto. Ela pode ser abordada a partir das perspectivas de diferentes áreas de pesquisa, tais como processamento de linguagem natural, mineração de opinioes, recuperação de informações e extração de Informações. Este trabalho foca no problema de detectar contradições em textos – mais especificamente, nas contradições que são o resultado da diversidade de sentimentos entre as sentenças de um determinado texto. Ao contrário de outros tipos de contradições, a detecção de contradições baseada em sentimentos pode ser abordada como uma etapa de pós-processamento na tarefa tradicional de análise de sentimentos. Neste contexto, este trabalho apresenta duas contribuições principais. A primeira é um estudo exploratório da tarefa de classificação, na qual identificamos e usamos diferentes ferramentas e recursos. A segunda contribuição é a adaptação e a extensão de um framework de análise contradição existente, filtrando seus resultados para remover os comentários erroneamente rotulados como contraditórios. O método de filtragem baseia-se em dois algoritmos simples de similaridade entre palavras. Uma avaliação experimental em comentários sobre produtos reais mostrou melhorias proporcionais de até 30 % na acurácia da classificação e 26 % na precisão da detecção de contradições. / Contradiction Analysis is a relatively new multidisciplinary and complex area with the main goal of identifying contradictory pieces of text. It can be addressed from the perspectives of different research areas such as Natural Language Processing, Opinion Mining, Information Retrieval, and Information Extraction. This work focuses on the problem of detecting sentiment-based contradictions which occur in the sentences of a given review text. Unlike other types of contradictions, the detection of sentiment-based contradictions can be tackled as a post-processing step in the traditional sentiment analysis task. In this context, we make two main contributions. The first is an exploratory study of the classification task, in which we identify and use different tools and resources. Our second contribution is adapting and extending an existing contradiction analysis framework by filtering its results to remove the reviews that are erroneously labeled as contradictory. The filtering method is based on two simple term similarity algorithms. An experimental evaluation on real product reviews has shown proportional improvements of up to 30% in classification accuracy and 26% in the precision of contradiction detection.
112

Heart: processos criativos (comunicativos) envolvendo mídias orgânicas e não-orgânicas

Oliveira, Adriana Gomes de 14 December 2009 (has links)
Made available in DSpace on 2016-04-26T18:18:21Z (GMT). No. of bitstreams: 1 Adriana Gomes de Oliveira.pdf: 28670380 bytes, checksum: beb3039565f99d6352fd5740c2749cbd (MD5) Previous issue date: 2009-12-14 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / From the cross-combination of biological and technological systems language emerges. Human language is manifested by operator mechanism in which minimal units of meaning can be found. These units are widely exploited in poetry and can be trained, since they are important hypermedia tools; in themselves they are communication tools. The informational contact with any and every system changes that system through what constitutes its form of organization through language that, in humans, have emotions and feelings as an ontology. Evolving technologies help us to infer about our own ontology or ontologies that make up reality due to organizational similarities. The field of art is a suitable field for tests with such technologies, where a specific fruition time-space is established. In this research we present this finding about the time-space specifically to the enjoyment of art when the proposition appears implemented with evolutionary tools exploring verbal language, since a differential coupling can manifests itself in the scope of verbal language, in these biological-technological interactions involving computers. This observation about language expands to human-computer interactions when hardware and software interfaces are not working properly / Do cruzamento de sistemas biológicos e tecnológicos emerge linguagem. Linguagem humana se manifesta por um mecanismo operador no qual unidades mínimas de significação podem ser encontradas. Essas unidades são largamente exploradas pela poesia e podem ser treinadas, visto que constituem-se como importantes ferramentas hipermidiáticas; em si mesmas, ferramentas de comunicação. O contato informacional com todo e qualquer sistema modifica-o pelo que constitui sua forma de organização via linguagem que, nos seres humanos, têm emoções e sentimentos como uma ontologia. Tecnologias evolutivas ajudam-nos a depreender sobre nossas próprias ontologias ou ontologias que compõem a realidade devido a isomorfismos organizacionais. O terreno da arte é o campo propício para experimentações com tais tecnologias, onde um tempo-espaço de fruição específico se instaura. Apresenta-se, nesta pesquisa esta constatação acerca do tempo-espaço específico para fruição de arte quando a proposição se apresenta implementada com ferramentas evolutivas explorando linguagem verbal, visto que um acoplamento diferenciado pode se manifestar no âmbito da linguagem verbal, nestas interações biológico-tecnológico envolvendo computadores. Esta constatação acerca da linguagem expande-se para interações Homemcomputadores quando interfaces de hardware e software não estejam funcionando corretamente
113

Sobre a no??o de contexto na interface sem?ntica-pragm?tica : uma investiga??o atrav?s do texto humor?stico de Mill?r Fernandes

Prado, Maria Cristina Menezes do 04 January 2008 (has links)
Made available in DSpace on 2015-04-14T13:37:31Z (GMT). No. of bitstreams: 1 400378.pdf: 671898 bytes, checksum: 1b14145c5d40255b1e26f6c6d04b1d81 (MD5) Previous issue date: 2008-01-04 / O presente trabalho tem como t?pico a complexa no??o de contexto na linguagem natural, conceito central em teorias sem?nticas e pragm?ticas contempor?neas. Trata-se de um trabalho te?rico que visa explicitar a abordagem da significa??o de contexto na interface externa Ling??stica-Comunica??o-Cogni??o, e na interface interna Sem?ntica-Pragm?tica analisada na Teoria das Implicaturas, de Grice (1991), no Modelo Ampliado de Costa (1984), na Teoria da Relev?ncia, de Sperber & Wilson (1995) e na Teoria das Implicaturas Conversacionais Generalizadas, de Levinson (2000). A aplicabilidade dos principais pontos desta descri??o n?o-problematizada ser? conferida no texto humor?stico de Mill?r Fernandes.
114

Deíticos e anáforas pronominais em diálogos / Deixis and pronominal anaphora in dialogs

Freitas, Sergio Antonio Andrade de January 1993 (has links)
A proposta deste trabalho é implementar um conjunto de elementos do diálogo a decorrer entre dois agentes humanos. As anáforas pronominais e certos pronomes déiticos (eu, você, sua, seu, meu, minha), que eventualmente surgirem durante o diálogo, são resolvidas. Basicamente, este trabalho está dividido em quatro partes: 1. Estudo introdutório da Discourse Representation Theory (DRT) [KAM88, KAM90]. A DRT é um formalismo para a representação do discurso que utiliza modelos na avaliação semântica das estruturas representacionais. Neste estudo são considerados somente os aspectos representacionais, dando enfoque à representação de sentenças simples. 2. Um estudo baseado em [HIR81, CAR87] sobre: tipos de ambigüidades, o que são anáforas, tipos de anáforas etc, visa fornecer ao leitor um conhecimento mínimo sobre o aspecto lingüístico do tratamento das anáforas. Dentro do estudo realizado sobre anáforas destacam-se os seguintes tipos: coespecificação pessoal e colocação em coesão léxica, que são os tipos previstos na implementação. Estes dois tipos de anáforas são enquadrados nos seguintes grupos: coespecificação pessoal no grupo das anáforas pronominais e colocação em coesão léxica no grupo das anáforas nominais. 3. Considerando que a DRT somente representa o discurso, sem contudo resolver as anafóras que surgem no discurso, incorporou-se a Teoria do Foco [SID79, COR92] como ferramenta para a resolução das anáforas pronominais. A Teoria do Foco trabalha com as informações temáticas das sentenças, de maneira a reduzir o universo dos possíveis antecedentes para uma anáfora e prover um conjunto de regras que permita um caminhamento inteligente, dentro deste universo. O algoritmo de focalização aqui utilizado e o proposto por Sophie Cormack [COR92], que foi por sua vez baseado no algoritmo original de Candace Sidner [SID79]. 4. E por último a implementação, que foi realizada em C-Prolog [PER87], onde as principais funções são: (a) Um gerador de DRSs. (b) Algoritmo de focalização. (c) Integração do algoritmo de focalização e do gerador de DRSs. Descrevendo de maneira geral o funcionamento da implementação: as falas (conjunto de sentenças) de cada interlocutor são lidas através do teclado, as sentenças de cada fala são analisadas individualmente pelo analisador sintático, que gera uma árvore de derivação sintática. A árvore gerada é então repassada ao gerador de DRSs, que irá reduzi-la a referentes e condições. Eventualmente, se surgirem anáforas pronominais, é chamado o algoritmo de focalização. Caso surjam pronomes deíticos a resolução é realizada pelo gerador de DRSs. / The proposal of this work is to implement a set of dialog elements expressed by two human agents. The pronominal anaphora and some deixis pronoums (in portuguese: I, you, your, my) that eventually appear during the dialog are resolved. Basically, this work is divided in four parts: 1. An introdutory study of the Discourse Representation Theory (DRT) [KAM88, KAM90]. The DRT is a formalism for discourse representation that uses models for semantic evaluation of the representation structures. This study considers only the representational aspects, looking for single sentences. 2. A study based on [HIR81, CAR87] about: some kinds of ambiguity, what anaphora are, kinds of anaphora etc. This study intends to give the reader the minimal knowledge about the linguistic aspects of anaphora. In this study, we point out two types of anaphora: personal coespecification and lexical placement, this two were the ones that we used in the system. Those two types are in the following groups: personal coespecification in the pronominal anaphora and lexical placement in the nominal anaphora. 3. Considering that DRT only represent the discourse without resolving the anaphora, we used the Focus Theory [SID79, COR92] as a tool for pronominal anaphora resolution. The Focus Theory works on the thematic informations of the sentences. It reduces the universe of the possible antecedents and give some rules to walk throught this universe. We used the focalization algorithm presented by Sophie Cormack [COR92] which is based on the original version of Candace Sidner [SID79]. 4. Finally, the system was implemented in C-Prolog [PER87], and its main functions are: (a) a DRS generator, (b) a focalization algorithm, (c) the integration of the focalization algorithm and the DRS generator. Basically, what the system does is: the discourse of the agent is read in the keyboard, and each sentence of the discourse is analised by the sintatic analyser, generating a parsing tree. Then the DRS generator reduces this tree into referents and DRS-conditions. Eventually, the focalization algorithm will be called when the sentence contain some pronominal anaphora. The deixis resolution is made by the DRS-generator.
115

Avaliando um rotulador estatístico de categorias morfo-sintáticas para a língua portuguesa / Evaluating a stochastic part-of-speech tagger for the portuguese language

Villavicencio, Aline January 1995 (has links)
O Processamento de Linguagem Natural (PLN) é uma área da Ciência da Computação, que vem tentando, ao longo dos anos, aperfeiçoar a comunicação entre o homem e o computador. Varias técnicas tem sido utilizadas para aperfeiçoar esta comunicação, entre elas a aplicação de métodos estatísticos. Estes métodos tem sido usados por pesquisadores de PLN, com um crescente sucesso e uma de suas maiores vantagens é a possibilidade do tratamento de textos irrestritos. Em particular, a aplicação dos métodos estatísticos, na marcação automática de "corpus" com categorias morfo-sintáticas, tem se mostrado bastante promissora, obtendo resultados surpreendentes. Assim sendo, este trabalho descreve o processo de marcação automática de categorias morfo-sintáticas. Inicialmente, são apresentados e comparados os principais métodos aplicados a marcação automática: os métodos baseados em regras e os métodos estatísticos. São descritos os principais formalismos e técnicas usadas para esta finalidade pelos métodos estatísticos. E introduzida a marcação automática para a Língua Portuguesa, algo até então inédito. O objetivo deste trabalho é fazer um estudo detalhado e uma avaliação do sistema rotulador de categorias morfo-sintáticas, a fim de que se possa definir um padrão no qual o sistema apresente a mais alta precisão possível. Para efetuar esta avaliação, são especificados alguns critérios: a qualidade do "corpus" de treinamento, o seu tamanho e a influencia das palavras desconhecidas. A partir dos resultados obtidos, espera-se poder aperfeiçoar o sistema rotulador, de forma a aproveitar, da melhor maneira possível, os recursos disponíveis para a Língua Portuguesa. / Natural Language Processing (NLP) is an area of Computer Sciences, that have been trying to improve communication between human beings and computers. A number of different techniques have been used to improve this communication and among them, the use of stochastic methods. These methods have successfully being used by NLP researchers and one of their most remarkable advantages is that they are able to deal with unrestricted texts. Namely, the use of stochastic methods for part-of-speech tagging has achieving some extremely good results. Thus, this work describes the process of part-of-speech tagging. At first, we present and compare the main tagging methods: the rule-based methods and the stochastic ones. We describe the main stochastic tagging formalisms and techniques for part-of-speech tagging. We also introduce part-of-speech tagging for the Portuguese Language. The main purpose of this work is to study and evaluate a part-of-speech tagger system in order to establish a pattern in which it is possible to achieve the greatest accuracy. To perform this evaluation, several parameters were set: the corpus quality, its size and the relation between unknown words and accuracy. The results obtained will be used to improve the tagger, in order to use better the available Portuguese Language resources.
116

O efeito de priming sint?tico no processamento de senten?as ativas e passivas do portugu?s brasileiro / The syntatic priming effect in the processing of actives and passives sentences in brazilian portuguese

Teixeira, Mariana Terra 29 March 2016 (has links)
Submitted by Setor de Tratamento da Informa??o - BC/PUCRS (tede2@pucrs.br) on 2016-07-08T16:48:09Z No. of bitstreams: 1 DIS_MARIANA_TERRA_TEIXEIRA_COMPLETO.pdf: 1514041 bytes, checksum: 8ec22d9e8b8120788ca51b607cfac661 (MD5) / Made available in DSpace on 2016-07-08T16:48:09Z (GMT). No. of bitstreams: 1 DIS_MARIANA_TERRA_TEIXEIRA_COMPLETO.pdf: 1514041 bytes, checksum: 8ec22d9e8b8120788ca51b607cfac661 (MD5) Previous issue date: 2016-03-29 / Syntactic priming is the effect of repeating a sentence structure previously processed. In general, in natural languages, active sentences are more frequent than passive structures in spoken language (88% in English, 92% in Dutch, 89.5% in Brazilian Portuguese). Nonetheless, passive structures such as ?the woman was helped by the man? are also produced. It is possible to stimulate the production of passive (or infrequent) structures using a passive sentence as a prime (hence, syntactic priming). The effect of priming occurs when a passive sentence is offered and, subsequently, the speaker generates a passive sentence, indicating these two structures have a structural relation between them. In this research, we investigated the effect of syntactic priming during production of active and passive sentences by children and adults who are speakers of Brazilian Portuguese (BP). Our experiment is based on Segaert et al.?s (2011) syntactic priming paradigm of sentence production, used with Dutch adults. Our participants were 8 and 9-year-old-children, regularly enrolled in the public schools of the Project ACERTA (Avalia??o de Crian?as Em Risco de Transtorno de Aprendizagem from Instituto do C?rebro do Rio Grande do Sul (InsCer), and undergraduate students of the Pontif?cia Universidade Cat?lica do Rio Grande do Sul (PUCRS) and Universidade Federal do Rio Grande do Sul (UFRGS). The objectives of this research were: (i) to investigate syntactic processing in children and adults using the syntactic priming paradigm; (ii) to investigate the syntactic priming effect in BP; (iii) to analyze the baseline (unprovoked, not-primed) frequency of passive and active sentences in oral language of BP speakers; (iv) to compare the production of passive and active structures in children and adults; (v) to address a possible effect of syntactic priming in the light of the cognitive theory of Implicit Learning (CHANG, DELL, GRIFFIN & BOCK, 2000; CHANG, DEEL & BOCK, 2006). The results indicate the baseline proportion of 89,5% of active sentences and 10,5% of passive in oral production in BP; the generation of passives by adults was higher than by children; the children produced, in addition to passive structures, other structures to topicalize non-agent. The production of short and long passives with agentive verbs seems to be productive in BP children in the study; the greater production of passives by adults may be related to a more frequent contact with reading and writing. The effect of syntactic priming occurred in children but not in adult speakers of BP. / Priming sint?tico ? a facilita??o no processamento de uma senten?a posterior, quando uma senten?a com a mesma estrutura foi processada anteriormente. Nas l?nguas naturais em geral, na oralidade, produzimos mais frases na voz ativa (88% em ingl?s, 92% em holand?s e 89,5% em portugu?s brasileiro, por exemplo ? SEGAERT et al. 2011; PINCKERING & BRANIGAN, 1998) do que na voz passiva. Entretanto, senten?as passivas e outras estruturas transitivas tamb?m s?o produzidas. ? poss?vel estimular a produ??o de estruturas passivas (ou de estruturas infrequentes), como ?A mulher foi ajudada pelo homem?, se for dado ao falante, em um momento anterior, um prime passivo, como a senten?a ?O menino foi fotografado pela menina?. O efeito de priming sint?tico ocorre quando, ao ser induzido, em um primeiro momento, a produzir uma frase na voz passiva, o falante gera, em um segundo momento, uma senten?a tamb?m na voz passiva, indicando que essas duas senten?as t?m uma rela??o estrutural entre si. Neste trabalho, investigamos o efeito de priming sint?tico na produ??o de senten?as ativas e passivas de crian?as e adultos falantes de portugu?s brasileiro (PB). Nosso experimento ? baseado no paradigma de priming sint?tico na produ??o de senten?as de Segaert et al. (2011), feito com adultos holandeses. Os participantes do presente estudo s?o crian?as de 8 e 9 anos regularmente matriculadas em escolas p?blicas vinculadas ao Projeto ACERTA (Avalia??o de Crian?as Em Risco de Transtorno de Aprendizagem), do Instituto do C?rebro do Rio Grande do Sul, e adultos estudantes de gradua??o da Pontif?cia Universidade Cat?lica do Rio Grande do Sul e da Universidade Federal do Rio Grande do sul. Os objetivos desta pesquisa s?o (i) investigar o processamento sint?tico de senten?as ativas e passivas de crian?as e adultos atrav?s do efeito de priming sint?tico; (ii) verificar, pela primeira vez em portugu?s brasileiro, a exist?ncia do efeito de priming sint?tico em estruturas ativas e passivas do PB; (iii) analisar a frequ?ncia de senten?as passivas e ativas na linguagem oral em portugu?s brasileiro; (iv) comparar a produ??o de senten?as passivas de crian?as e adultos; e (v) verificar se o efeito de priming sint?tico pode ser explicado pela teoria cognitiva de Implicit Learning (CHANG; DELL; GRIFFIN; BOCK, 2000; CHANG; DELL; BOCK, 2006). Os resultados indicam a propor??o de 89,5% de senten?as ativas e 10,5% de senten?as passivas na produ??o oral em PB; a produ??o de passivas de adultos ? maior do que a das crian?as que utilizam, al?m da passiva, outras estruturas para topicalizar o participante afetado pelo evento. A produ??o de passivas curtas e longas com verbos agentivos parece ser produtiva nas crian?as falantes de PB deste estudo; a maior produ??o de passivas por adultos parece estar relacionada ? leitura e ? escrita. O efeito de priming sint?tico se manifestou significativamente em crian?as e n?o foi encontrado em adultos falantes do PB, o que parece ser mais uma evid?ncia de que priming sint?tico ? implicit learning.
117

Analise de sentimento em documentos financeiros com múltiplas entidades

Ferreira, Javier Zambreno 25 February 2014 (has links)
Submitted by Geyciane Santos (geyciane_thamires@hotmail.com) on 2015-06-17T16:03:10Z No. of bitstreams: 1 Dissertação- Javier zambrano Ferreira.pdf: 1147973 bytes, checksum: 97e9e41bf4b5d99b09151b69f9c99dfe (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2015-06-17T20:27:39Z (GMT) No. of bitstreams: 1 Dissertação- Javier zambrano Ferreira.pdf: 1147973 bytes, checksum: 97e9e41bf4b5d99b09151b69f9c99dfe (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2015-06-17T20:29:11Z (GMT) No. of bitstreams: 1 Dissertação- Javier zambrano Ferreira.pdf: 1147973 bytes, checksum: 97e9e41bf4b5d99b09151b69f9c99dfe (MD5) / Made available in DSpace on 2015-06-17T20:29:11Z (GMT). No. of bitstreams: 1 Dissertação- Javier zambrano Ferreira.pdf: 1147973 bytes, checksum: 97e9e41bf4b5d99b09151b69f9c99dfe (MD5) Previous issue date: 2014-02-25 / Não Informada / Given the amount of information available on the internet, it becomes unfeasible the manual content analysis to identify information of interest. Among such analyses, one of particular interest is the polarity analysis, that is, the classi cation of a text document in positive, negative, and neutral, according to a certain topic. This task is particularly useful in the nance domain, where news about a company can a ect the performance of its stocks. Although most of the methods about this domain consider that documents have only one polarity, in fact most of the documents cite many entities and these entities are often the target of the polarity analysis. Thus, in this work, we intend to study strategies for polarity detection in nancial documents with multiple entities. In particular, we study methods based on the learning of multiple models, one for each observed entity, using SVM classi ers. We evaluate models based on the partition of documents according to the entities they cite and on the segmentation of documents into fragments according to the entities they cite. To segment documents we use several heuristics based on shallow and deep natural language proecssing. We found that entity-speci c models created by simply partitioning the document collection largely outperformed strategies based on single models. / Dado o volume de infoma ção disponivel na Internet torna-se inviavel a analise manual do conteudo disponvel para identi car diversas informações de interesse. Entre v arias analises de interesse, uma de destaque e a an alise de polaridade da opinião, ou seja, a classificação de um documento textual em positivo, negativo ou neutro, em rela cão a um certo topico. Esta tarefa e particularmente util no dom nio fi nanceiro, onde not cias sobre uma empresa podem afetar o seu desempenho em mercados de a cões. Embora a maioria dos m etodos nesse dom nio considere que os documentos possuem uma unica polaridade, observamos que a maioria deles e constitudo de multiplas entidades e o alvo da analise de polaridade e, em geral, as entidades que estes documentos referenciam. O objetivo deste trabalho e, portanto, estudar estrategias para a detecção de polaridade em documentos financeiros com multiplas entidades. Para tanto, estudamos m etodos baseados na cria c~ao de multiplos modelos de aprendizado com um conjunto pr e-de nido de entidades, usando o classi cador SVM. N os avaliamos tanto modelos baseados em conjuntos de documentos especcos por entidade quanto modelos baseados em segmentação de documentos usando diversas heursticas de processamento de linguagem natural. Os resultados mostraram que h a um ganho em fragmentar os textos para an alise de polaridade com r otulos de classi ca cão por entidades.
118

Investigação de métodos de desambiguação lexical de sentidos de verbos do português do Brasil / Research of word sense disambiguation methods for verbs in brazilian portuguese

Marco Antonio Sobrevilla Cabezudo 28 August 2015 (has links)
A Desambiguação Lexical de Sentido (DLS) consiste em determinar o sentido mais apropriado da palavra em um contexto determinado, utilizando-se um repositório de sentidos pré-especificado. Esta tarefa é importante para outras aplicações, por exemplo, a tradução automática. Para o inglês, a DLS tem sido amplamente explorada, utilizando diferentes abordagens e técnicas, contudo, esta tarefa ainda é um desafio para os pesquisadores em semântica. Analisando os resultados dos métodos por classes gramaticais, nota-se que todas as classes não apresentam os mesmos resultados, sendo que os verbos são os que apresentam os piores resultados. Estudos ressaltam que os métodos de DLS usam informações superficiais e os verbos precisam de informação mais profunda para sua desambiguação, como frames sintáticos ou restrições seletivas. Para o português, existem poucos trabalhos nesta área e só recentemente tem-se investigado métodos de uso geral. Além disso, salienta-se que, nos últimos anos, têm sido desenvolvidos recursos lexicais focados nos verbos. Nesse contexto, neste trabalho de mestrado, visou-se investigar métodos de DLS de verbos em textos escritos em português do Brasil. Em particular, foram explorados alguns métodos tradicionais da área e, posteriormente, foi incorporado conhecimento linguístico proveniente da Verbnet.Br. Para subsidiar esta investigação, o córpus CSTNews foi anotado com sentidos de verbos usando a WordNet-Pr como repositório de sentidos. Os resultados obtidos mostraram que os métodos de DLS investigados não conseguiram superar o baseline mais forte e que a incorporação de conhecimento da VerbNet.Br produziu melhorias nos métodos, porém, estas melhorias não foram estatisticamente significantes. Algumas contribuições deste trabalho de mestrado foram um córpus anotado com sentidos de verbos, a criação de uma ferramenta que auxilie a anotação de sentidos, a investigação de métodos de DLS e o uso de informações especificas de verbos (provenientes da VerbNet.Br) na DLS de verbos. / Word Sense Disambiguation (WSD) aims at identifying the appropriate sense of a word in a given context, using a pre-specified sense-repository. This task is important to other applications as Machine Translation. For English, WSD has been widely studied, using different approaches and techniques, however, this task is still a challenge for researchers in Semantics. Analyzing the performance of different methods by the morphosyntactic class, note that not all classes have the same results, and the worst results are obtained for Verbs. Studies highlight that WSD methods use shallow information and Verbs need deeper information for its disambiguation, like syntactic frames or selectional restrictions. For Portuguese, there are few works in WSD and, recently, some works for general purpose. In addition, it is noted that, recently, have been developed lexical resources focused on Verbs. In this context, this master work aimed at researching WSD methods for verbs in texts written in Brazilian Portuguese. In particular, traditional WSD methods were explored and, subsequently, linguistic knowledge of VerbNet.Br was incorporated in these methods. To support this research, CSTNews corpus was annotated with verb senses using the WordNet-Pr as a sense-repository. The results showed that explored WSD methods did not outperform the hard baseline and the incorporation of VerbNet.Br knowledge yielded improvements in the methods, however, these improvements were not statistically significant. Some contributions of this work were the sense-annotated corpus, the creation of a tool for support the sense-annotation, the research of WSD methods for verbs and the use of specific information of verbs (from VerbNet.Br) in the WSD of verbs.
119

Geração de expressões de referência em situações de comunicação com restrição de tempo / Referring Expression Generation in time-constrained situations of communication

Andre Costa Mariotti 13 September 2017 (has links)
Este documento apresenta uma pesquisa a nvel de mestrado acadêmico, cujo o foco é a tarefa computacional de Geração de Expressões de Referência (GER), uma parte fundamental da comunicação que é estudada na Geração de Linguagem Natural (GLN). Mais especificamente, foram estudados os aspectos da linguagem que se manifestam em contextos de comunicação com restrição de tempo, e com base nisso foi proposto um modelo computacional de GER para produzir expressões de referência com o nvel de superespecificação parametrizável. Além disso, considerando-se as caractersticas de adaptabilidade do modelo proposto, também foi sugerida uma generalização deste para outros domnios, como os que compreendem contextos de comunicação além dos que possuem restrição de tempo / This document presents a MSc research that focused on the computational subtask of Referring Expression Generation (REG), an important component of Natural Language Generation (NLG) systems. More specifically, this work analyzes how time-restricted contexts of communication may affect language production and a computational model of GER was proposed to produce reference expressions with parameterizable superspecification. Furthermore, given the adaptability characteristics of the proposed model, it has also been suggested a generalization to other domains, which includes communication contexts besides those that have time constraints
120

Método semi-automático de construção de ontologias parciais de domínio com base em textos. / Semi-automatic method for the construction of partial domain ontologies based on texts.

Luiz Carlos da Cruz Carvalheira 31 August 2007 (has links)
Os recentes desenvolvimentos relacionados à gestão do conhecimento, à web semântica e à troca de informações eletrônicas por meio de agentes têm suscitado a necessidade de ontologias para descrever de modo formal conceituações compartilhadas à respeito dos mais variados domínios. Para que computadores e pessoas possam trabalhar em cooperação é necessário que as informações por eles utilizadas tenham significados bem definidos e compartilhados. Ontologias são instrumentos viabilizadores dessa cooperação. Entretanto, a construção de ontologias envolve um processo complexo e longo de aquisição de conhecimento, o que tem dificultado a utilização desse tipo de solução em mais larga escala. Este trabalho apresenta um método de criação semi-automática de ontologias a partir do uso de textos de um domínio qualquer para a extração dos conceitos e relações presentes nesses textos. Baseando-se na comparação da freqüência relativa dos termos extraídos com os escritos típicos da língua e na extração de padrões lingüísticos específicos, este método identifica termos candidatos a conceitos e relações existentes entre eles, apresenta-os a um ontologista para validação e, ao final, disponibiliza a ontologia ratificada para publicação e uso especificando-a na linguagem OWL. / The recent developments related to knowledge management, the semantic web and the exchange of electronic information through the use of agents have increased the need for ontologies to describe, in a formal way, shared understanding of a given domain. For computers and people to work in cooperation it is necessary that information have well defined and shared definitions. Ontologies are enablers of that cooperation. However, ontology construction remains a very complex and costly process, which has hindered its use in a wider scale. This work presents a method for the semi-automatic construction of ontologies using texts of any domain for the extraction of concepts and relations. By comparing the relative frequency of terms in the text with their expected use and extracting specific linguistic patterns, the method identifies concepts and relations and specifies the corresponding ontology using OWL for further use by other applications.

Page generated in 0.049 seconds