• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 291
  • 49
  • 6
  • 5
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • Tagged with
  • 348
  • 348
  • 281
  • 177
  • 151
  • 91
  • 62
  • 56
  • 55
  • 55
  • 52
  • 51
  • 50
  • 47
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Um estudo sobre a Teoria da Predição aplicada à análise semântica de Linguagens Naturais. / A study on the Theory of Prediction applied to the semantical analysis of Natural Languages.

Iúri Chaer 18 February 2010 (has links)
Neste trabalho, estuda-se o aprendizado computacional como um problema de indução. A partir de uma proposta de arquitetura de um sistema de análise semântica de Linguagens Naturais, foram desenvolvidos e testados individualmente os dois módulos necessários para a sua construção: um pré-processador capaz de mapear o conteúdo de textos para uma representação onde a semântica de cada símbolo fique explícita e um módulo indutor capaz de gerar teorias para explicar sequências de eventos. O componente responsável pela indução de teorias implementa uma versão restrita do Preditor de Solomonoff, capaz de tecer hipóteses pertencentes ao conjunto das Linguagens Regulares. O dispositivo apresenta complexidade computacional elevada e tempo de processamento, mesmo para entradas simples, bastante alto. Apesar disso, são apresentados resultados novos interessantes que mostram seu desempenho funcional. O módulo pré-processador do sistema proposto consiste em uma implementação da Análise da Semântica Latente, um método que utiliza correlações estatísticas para obter uma representação capaz de aproximar relações semânticas similares às feitas por seres humanos. Ele foi utilizado para indexar os mais de 470 mil textos contidos no primeiro disco do corpus RCV1 da Reuters, produzindo, a partir de dezenas de variações de parâmetros, 71;5GB de dados que foram utilizados para diversas análises estatísticas. Foi construído também um sistema de recuperação de informações para análises qualitativas do método. Os resultados dos testes levam a crer que o uso desse módulo de pré-processamento leva a ganhos consideráveis no sistema proposto. A integração dos dois componentes em um analisador semântico de Linguagens Naturais se mostra, neste momento, inviável devido ao tempo de processamento exigido pelo módulo indutor e permanece como uma tarefa para um trabalho futuro. No entanto, concluiu-se que a Teoria da Predição de Solomonoff é adequada para tratar o problema da análise semântica de Linguagens Naturais, contanto que sejam concebidas formas de mitigar o problema do seu tempo de computação. / In this work, computer learning is studied as a problem of induction. Starting with the proposal of an architecture for a system of semantic analisys of Natural Languages, the two modules necessary for its construction were built and tested independently: a pre-processor, capable of mapping the contents of texts to a representation in which the semantics of each symbol is explicit, and an inductor module, capable of formulating theories to explain chains of events. The component responsible for the induction of theories implements a restricted version of the Solomonoff Predictor, capable of producing hypotheses pertaining to the set of Regular Languages. Such device presents elevated computational complexity and very high processing time even for very simple inputs. Nonetheless, this work presents new and interesting results showing its functional performance. The pre-processing module of the proposed system consists of an implementation of Latent Semantic Analisys, a method which draws from statistical correlation to build a representation capable of approximating semantical relations made by human beings. It was used to index the more than 470 thousand texts contained in the first disk of the Reuters RCV1 corpus, resulting, through dozens of parameter variations, 71:5GB of data that were used for various statistical analises. The test results are convincing that the use of that pre-processing module leads to considerable gains in the system proposed. The integration of the two components built into a full-fledged semantical analyser of Natural Languages presents itself, at this moment, unachievable due to the processing time required by the inductor module, and remains as a task for future work. Still, Solomonoffs Theory of Prediction shows itself adequate for the treatment of semantical analysis of Natural Languages, provided new ways of palliating its processing time are devised.
122

Alguns aspectos de tratamento de dependências de contexto em linguagem natural empregando tecnologia adaptativa. / Some aspects on natural language context dependencies handling using adaptive technology.

Miryam de Moraes 14 December 2006 (has links)
O tratamento de Linguagens Naturais requer o emprego de formalismos mais complexos que aqueles normalmente empregados para Linguagens Livre de Contexto. A maioria de tais formalismos são difíceis de serem utilizados, não práticos e sobretudo, associados a um desempenho de elevado custo. Autômatos de pilha estruturados são excelentes para se representar linguagens regulares e aspectos livre de contexto encontrados em Linguagem Natural, uma vez que é possível decompo-los em uma camada reguar (implementada com máquina de estados finitos) e uma livre de contexto (representada por uma pilha). Tais dispositivos aceitam linguagens determinísticas e livre de contexto em tempo linear. Dessa forma, trata-se de um dispositivo adequado para ser empregado como mecanismo subjacente para os autômatos adaptativos, que permitem o tratamento - sem perda de simplicidade e eficiência - de linguagens mais complexas que aquelas livres de contexo Nesta tese, dependências de contexto são tratadas com tecnologia adaptativa. Este trabalho mostra como uma regra de Linguagem Natural descrita com uma metalinguagem pode ser convertida em um autômato de pilha adaptativo. Foi possível verificar que problemas complexos em análise de Linguagem Natural, tais como os não-determinismos e ambigüidades presentes em situações de concordância, subcategorização, coordenação podem ser resolvidos com eficiência. De fato, todos os mecanismos adaptativos para solucionar estes problemas apresentam desempenho O(n). Uma arquitetura para processamento em Linguagem Natural é apresentada. / Since low-complexity language formalisms are too weak to handle NL, stronger formalisms are required, most of them resource demanding, hard to use or unpractical. Structured pushdown automata are excellent to represent regular and context-free aspects on NLs by allowing them to be split into regular layer (implemented as finite-state machines) and a context-free one (represented by a pushdown store). Such devices accepts deterministic context-free languages in linear time, and is suitable as un underlying mechanism for adaptive automata, allowing handling - without loss of simplicity and efficiency - languages more complex than context-free ones. In this thesis context dependency is handled with adaptive technology. This work shows as a Natural Language rule described with a metalanguage can be converted into adaptive structured pushdown automata. It was possible to verify that complex problems in Natural Language parsing e.g., nondeterminisms and ambiguities present in agreement, subcategorization, coordination can be solved with efficiency. In fact, all adaptive mechanisms attached to these problems have O(n) performance. An adaptive architecture for NL Language processing is presented.
123

A verb learning model driven by syntactic constructions / Um modelo de aquisição de verbos guiado por construções sintáticas

Machado, Mario Lúcio Mesquita January 2008 (has links)
Desde a segunda metade do último século, as teorias cognitivas têm trazido algumas visões interessantes em relação ao aprendizado de linguagem. A aplicação destas teorias em modelos computacionais tem duplo benefício: por um lado, implementações computacionais podem ser usaas como uma forma de validação destas teorias; por outro lado, modelos computacionais podem alcançar uma performance melhorada a partir da adoção de estratégias de aprendizado cognitivamente plausíveis. Estruturas sintáticas são ditas fornecer uma pista importante para a aquisição do significado de verbos. Ainda, para um subconjunto particular de verbos muito frequentes e gerais - os assim-chamados light verbs - há uma forte ligação entre as estruturas sintáticas nas quais eles aparecem e seus significados. Neste trabalho, empregamos um modelo computacional para investigar estas propostas, em particular, considerando a tarefa de aquisição como um mapeamento entre um verbo desconhecido e referentes prototípicos para eventos verbais, com base na estrutura sintática na qual o verbo aparece. Os experimentos conduzidos ressaltaram alguns requerimentos para um aprendizado bem-sucedido, em termos de níveis de informação disponível para o aprendiz e da estratégia de aprendizado adotada. / Cognitive theories have been, since the second half of the last century, bringing some interesting views about language learning. The application of these theories on computational models has double benefits: in the one hand, computational implementations can be used as a form of validation of these theories; on the other hand, computational models can earn an improved performance from adopting some cognitively plausible learning strategies. Syntactic structures are said to provide an important cue for the acquisition of verb meaning. Yet, for a particular subset of very frequent and general verbs – the so-called light verbs – there is a strong link between the syntactic structures in which they appear and their meanings. In this work, we used a computational model, to further investigate these proposals, in particular looking at the acquisition task as a mapping between an unknown verb and prototypical referents for verbal events, on the basis of the syntactic structure in which the verb appears. The experiments conducted have highlighted some requirements for a successful learning, both in terms of the levels of information available to the learner and the learning strategies adopted.
124

Produ??o de textos paralelos em l?ngua portuguesa e uma interl?ngua de libras

Santos, Guilherme Spolavori dos 05 March 2009 (has links)
Submitted by Setor de Tratamento da Informa??o - BC/PUCRS (tede2@pucrs.br) on 2016-10-13T13:35:03Z No. of bitstreams: 1 DIS_GUILHERME_SPOLAVORI_DOS_SANTOS_COMPLETO.pdf: 1568900 bytes, checksum: 7b9bd74b5c4753cb8e210573b49d6adf (MD5) / Made available in DSpace on 2016-10-13T13:35:03Z (GMT). No. of bitstreams: 1 DIS_GUILHERME_SPOLAVORI_DOS_SANTOS_COMPLETO.pdf: 1568900 bytes, checksum: 7b9bd74b5c4753cb8e210573b49d6adf (MD5) Previous issue date: 2009-03-05 / This work embraces the Human-Computer Interaction and the Natural Language Processing areas of knowledge, touching accessibility concepts, based on one textual simplification architecture and on one corpus structure. The result of this research is the generation of parallel texts ? in the Portuguese Language version and in Brazilian Sign Language (LIBRAS) version ? with the objective of supplying a data repository created for future works in the Natural Language Processing area that have relation with the language of the Brazilian deaf people. This work presents a theoretical revision where are discussed questions like studies about LIBRAS linguistic aspects, acquisition of a second language in the deaf community as well as concepts of textual simplification. Complementing this discussion, related works are presented as contributions concerning to the application of the referred concepts. Based on this revision, this work studies the architecture and the functionalities of the Editor de Anota??es de Simplifica??o, in the context of PorSimples project, as a platform for the development of a module of textual generation in a LIBRAS interlingua which is based in a simplification process. At last, the functionalities of the module are explored by a LIBRAS expert and the generated texts are analyzed searching for future improvements in the process of text production. / Esse trabalho situa-se nas ?reas de Intera??o Humano-Computador e Processamento de Linguagem Natural, atuando em conceitos sobre acessibilidade, a partir de uma arquitetura de simplifica??o textual e uma estrutura de corpus. O resultado da pesquisa trata da produ??o de textos paralelos ? na vers?o da L?ngua Portuguesa e na vers?o da L?ngua Brasileira de Sinais (LIBRAS) ? como forma de abastecer um reposit?rio de dados para trabalhos futuros na ?rea de processamento de l?ngua natural envolvendo a l?ngua dos surdos brasileiros. Sendo assim, foi elaborado um referencial te?rico em que, al?m de estudos sobre aspectos lingu?sticos da LIBRAS e aquisi??o da segunda l?ngua pelo surdo, faz-se refer?ncia a conceitos da simplifica??o textual. De forma complementar, trabalhos relacionados s?o apresentados como contribui??es no que diz respeito ? aplica??o desses conceitos. A partir disso, o trabalho estuda a arquitetura e funcionalidades do Editor de Anota??es de Simplifica??o, dentro do contexto do projeto PorSimples, como plataforma para o desenvolvimento de um m?dulo de produ??o textual em uma interl?ngua da LIBRAS baseado em um processo de simplifica??o. Por fim, as funcionalidades do m?dulo s?o exploradas por um especialista da l?ngua de sinais em quest?o e os textos produzidos s?o analisados buscando melhorias no processo de produ??o dos textos.
125

Evaluation of methods for taxonomic relation extraction from text / Avalia??o de m?todos para extra??o autom?tica de rela??es a partir de textos

Granada, Roger Leitzke 28 September 2015 (has links)
Submitted by Setor de Tratamento da Informa??o - BC/PUCRS (tede2@pucrs.br) on 2016-12-26T16:34:57Z No. of bitstreams: 1 TES_ROGER_LEITZKE_GRANADA_COMPLETO.pdf: 2483840 bytes, checksum: 8f81d3f0496d8fa8d3a1b013dfdf932b (MD5) / Made available in DSpace on 2016-12-26T16:34:57Z (GMT). No. of bitstreams: 1 TES_ROGER_LEITZKE_GRANADA_COMPLETO.pdf: 2483840 bytes, checksum: 8f81d3f0496d8fa8d3a1b013dfdf932b (MD5) Previous issue date: 2015-09-28 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior - CAPES / Sistemas de informa??o modernos t?m mudado a ideia ?processamento de dados? para a ideia de ?processamento de conceitos?, assim, ao inv?s de processarem palavras, tais sistemas fazem o processamento de conceitos que cont?m ignificado e que compartilham contextos com outros contextos. Ontologias s?o normalmente utilizadas como uma estrutura que captura o conhecimento a cerca de uma certa ?rea, provendo conceitos e rela??es entre tais conceitos. Tradicionalmente, hierarquias de conceitos s?o constru?das manualmente por engenheiros do conhecimento ou especialistas do dom?nio. Entretanto, este tipo de constru??o sofre com diversas limita??es, tais como, cobertura e o alto custo de extens?o e manuten??o. Assim, se faz necess?ria a constru??o de tais estruturas automaticamente. O suporte (semi-)automatico no desenvolvimento de ontologias ? comumente referenciado como aprendizagem de ontologias e ? normalmente dividido em etapas, como identifica??o de conceitos, detec??o de rela??es hierarquicas e n?o hierarquicas, e extra??o de axiomas. ? razo?vel dizer que entre tais passos a fronteira est? no estabelecimento de hierarquias de conceitos, pois ? a espinha dorsal das ontologias e, por consequ?ncia, uma boa hierarquia de conceitos ? um recurso v?lido para v?rias aplica??es de ontologias. Hierarquias de conceitos s?o representadas por estruturas em ?rvore com relacionamentos de especializa??o/generaliza??o, onde conceitos nos n?veis mais baixos s?o mais espec?ficos e conceitos nos n?veis mais altos s?o mais gerais. A constru??o autom?tica de tais hierarquias ? uma tarefa complexa e desde a d?cada de 80 muitos trabalhos t?m proposto melhores formas para fazer a extra??o de rela??es entre conceitos. Estas propostas nunca foram contrastadas usando um mesmo conjunto de dados. Tal compara??o ? importante para ver se os m?todos s?o complementares ou incrementais, bem como se apresentam diferentes tend?ncias em rela??o ? precis?o e abrang?ncia, i.e., alguns podem ser bastante precisos e ter uma baixa abrang?ncia enquanto outros t?m uma abrang?ncia melhor por?m com uma baixa precis?o. Outro aspecto refere-se ? varia??o dos resultados em diferentes l?nguas. Esta tese avalia os m?todos utilizando m?tricas de hierarquias como densidade e profundidade, e m?tricas de evalia??o como precis?o e abrang?ncia. A avalia??o ? realizada utilizando o mesmo corpora, consistindo de textos paralelos e compar?veis em ingl?s e portugu?s. S?o realizadas avalia??es autom?tica e manual, sendo a sa?da de sete m?todos avaliados automaticamente e quatro manualmente. Os resultados d?o uma luz sobre a abrang?ncia dos m?todos que s?o utilizados no estado da arte de acordo com a literatura. / Modern information systems are changing the idea of ?data processing? to the idea of ?concept processing?, meaning that instead of processing words, such systems process semantic concepts which carry meaning and share contexts with other concepts. Ontology is commonly used as a structure that captures the knowledge about a certain area via providing concepts and relations between them. Traditionally, concept hierarchies have been built manually by knowledge engineers or domain experts. However, the manual construction of a concept hierarchy suffers from several limitations such as its coverage and the enormous costs of extension and maintenance. Furthermore, keeping up with a hand-crafted concept hierarchy along with the evolution of domain knowledge is an overwhelming task, being necessary to build concept hierarchies automatically. The (semi-)automatic support in ontology development is usually referred to as ontology learning. The ontology learning from texts is usually divided in steps, going from concepts identification, passing through hierarchy and non-hierarchy relations detection and, seldom, axiom extraction. It is reasonable to say that among these steps the current frontier is in the establishment of concept hierarchies, since this is the backbone of ontologies and, therefore, a good concept hierarchy is already a valuable resource for many ontology applications. A concept hierarchy is represented with a tree-structured form with specialization/generalization relations between concepts, in which lower-level concepts are more specific while higher-level are more general. The automatic construction of concept hierarchies from texts is a complex task and since the 1980 decade a large number of works have been proposing approaches to better extract relations between concepts. These different proposals have never been contrasted against each other on the same set of data and across different languages. Such comparison is important to see whether they are complementary or incremental, also we can see whether they present different tendencies towards recall and precision, i.e., some can be very precise but with very low recall and others can achieve better recall but low precision. Another aspect concerns to the variation of results for different languages. This thesis evaluates these different methods on the basis of hierarchy metrics such as density and depth, and evaluation metrics such as Recall and Precision. The evaluation is performed over the same corpora, which consist of English and Portuguese parallel and comparable texts. Both automatic and manual evaluations are presented. The output of seven methods are evaluated automatically and the output of four methods are evaluated manually. Results shed light over the comprehensive set of methods that are the state of the art according to the literature in the area.
126

Agrupamento semântico de aspectos para mineração de opinião / Semantic clustering of aspects for opinion mining

Vargas, Francielle Alves 29 November 2017 (has links)
Com o rápido crescimento do volume de informações opinativas na web, extrair e sintetizar conteúdo subjetivo e relevante da rede é uma tarefa prioritária e que perpassa vários domínios da sociedade: político, social, econômico, etc. A organização semântica desse tipo de conteúdo, é uma tarefa importante no contexto atual, pois possibilita um melhor aproveitamento desses dados, além de benefícios diretos tanto para consumidores quanto para organizações privadas e governamentais. A área responsável pela extração, processamento e apresentação de conteúdo subjetivo é a mineração de opinião, também chamada de análise de sentimentos. A mineração de opinião é dividida em níveis de granularidade de análise: o nível do documento, o nível da sentença e o nível de aspectos. Neste trabalho, atuou-se no nível mais fino de granularidade, a mineração de opinião baseada em aspectos, que consiste de três principais tarefas: o reconhecimento e agrupamento de aspectos, a extração de polaridade e a sumarização. Aspectos são propriedades do alvo da opinião e podem ser implícitos e explícitos. Reconhecer e agrupar aspectos são tarefas críticas para mineração de opinião, no entanto, também são desafiadoras. Por exemplo, em textos opinativos, usuários utilizam termos distintos para se referir a uma mesma propriedade do objeto. Portanto, neste trabalho, atuamos no problema de agrupamento de aspectos para mineração de opinião. Para resolução deste problema, optamos por uma abordagem baseada em conhecimento linguístico. Investigou-se os principais fenômenos intrínsecos e extrínsecos em textos opinativos a fim de encontrar padrões linguísticos e insumos acionáveis para proposição de métodos automáticos de agrupamento de aspectos correlatos para mineração de opinião. Nós propomos, implementamos e comparamos seis métodos automáticos baseados em conhecimento linguístico para a tarefa de agrupamento de aspectos explícitos e implícitos. Um método inédito foi proposto para essa tarefa que superou os demais métodos implementados, especialmente o método baseado em léxico de sinônimos (baseline) e o modelo estatístico com base em word embeddings. O método proposto também não é dependente de uma língua ou de um domínio, no entanto, focamos no Português do Brasil e no domínio de produtos da web. / With the growing volume of opinion information on the web, extracting and synthesizing subjective and relevant content from the web has to be shown a priority task that passes through different society domains, such as political, social, economical, etc. The semantic organization of this type of content is very important nowadays since it allows a better use of those data, as well as it benefits customers and both private and governmental organizations. The area responsible for extracting, processing and presenting the subjective content is opinion mining, also known as sentiment analysis. Opinion mining is divided into granularity levels: document, sentence and aspect levels. In this research, the deepest level of granularity was studied, the opinion mining based on aspects, which consists of three main tasks: aspect recognition and clustering, polarity extracting, and summarization. Aspects are the properties and parts of the evaluated object and it may be implicit or explicit. Recognizing and clustering aspects are critical tasks for opinion mining; nonetheless, they are also challenging. For example, in reviews, users use distinct terms to refer to the same object property. Therefore, in this work, the aspect clustering task was the focus. To solve this problem, a linguistic approach was chosen. The main intrinsic and extrinsic phenomena in reviews were investigated in order to find linguistic standards and actionable inputs, so it was possible to propose automatic methods of aspect clustering for opinion mining. In addition, six automatic linguistic-based methods for explicit and implicit aspect clustering were proposed, implemented and compared. Besides that, a new method was suggested for this task, which surpassed the other implemented methods, specially the synonym lexicon-based method (baseline) and a word embeddings approach. This suggested method is also language and domain independent and, in this work, was tailored for Brazilian Portuguese and products domain.
127

Análise de sentimento contextual em diálogos utilizando aprendizado de máquina /

Ribeiro, Luiz Carlos Felix January 2019 (has links)
Orientador: João Paulo Papa / Banca: Helena de Medeiros Caseli / Banca: Aparecido Nilceu Marana / Resumo: A disponibilidade cada vez maior de dados em domínio textual tem motivado o desenvolvimento de técnicas baseadas em Processamento de Linguagem Natural para extrair informações estruturadas desse meio. Particularmente,técnicas de Análise de Sentimento permitem identificar a emoção presente em um fragmento de texto e podem ser utilizadas para diferentes fins, seja priorizar o atendimento de clientes insatisfeitos ou aferir o satisfação do interlocutor durante uma conversa. No que concerne ao uso desse tipo de técnica em diálogos, trabalhos na literatura mostram que considerar informações extraídas de mensagens antecessoras para classificar a atual leva a melhores resultados, seja para a identificação de interlocutores ou intenção das mensagens. Todavia, essa abordagem ainda não tem sido largamente empregada para a Análise de Sentimento e, quando utilizada, a mesma não alia a robustez dos word embeddings, técnica desenvolvida recentemente, com os rótulos preditos no passado, mas considera apenas o histórico de características extraídas anteriormente. O presente trabalho propõe o desenvolvimento de um modelo baseado em aprendizado de máquina para a Análise de Sentimento em conversas no domínio textual ao levar em consideração seu contexto. Essa fonte de informação pode ser explorada ao considerar rótulos de mensagens anteriores, suas características, a identidade dos interlocutores e como as palavras são combinadas em cada mensagem. Resultados experimentais mostram que estes aspectos... / Abstract: The increasing availability of data in the textual domain has motivated the development of techniques based on Natural Language Processing to extract structured information from this domain. More specifically, Sentiment Analysis allows identifying the emotion present in a fragment of text and can be used with different goals, for instance, prioritizing the service of dissatisfied customers and assessing the interlocutor satisfaction in a conversation. Regarding the use of this type of technique in dialogues, works in the literature show that considering information extracted from previous messages when classifying the current sample leads to better results, either for identification of interlocutors or for message intent classification. However, this approach has not been widely adopted on Sentiment Analysis and when used it does not exploit the robustness of there cently developed word embeddings representation along with the labels predicted in the past but only the history of features previously extracted. The present work proposes the development of a machine learning model for Sentiment Analysis on textual conversations that considers their context. This source of information can be exploited by considering labels from previous messages and their features, the identity of the speakers, and how words are combined in each message. Experimental results show that these aspects allow outperforming the current state of the art on four different datasets / Mestre
128

Detecting contrastive sentences for sentiment analysis / Detecção de sentenças contrastantes através de análise de sentimentos

Vargas, Danny Suarez January 2016 (has links)
A análise de contradições é uma área relativamente nova, multidisciplinar e complexa que tem por objetivo principal identificar pedaços contraditórios de texto. Ela pode ser abordada a partir das perspectivas de diferentes áreas de pesquisa, tais como processamento de linguagem natural, mineração de opinioes, recuperação de informações e extração de Informações. Este trabalho foca no problema de detectar contradições em textos – mais especificamente, nas contradições que são o resultado da diversidade de sentimentos entre as sentenças de um determinado texto. Ao contrário de outros tipos de contradições, a detecção de contradições baseada em sentimentos pode ser abordada como uma etapa de pós-processamento na tarefa tradicional de análise de sentimentos. Neste contexto, este trabalho apresenta duas contribuições principais. A primeira é um estudo exploratório da tarefa de classificação, na qual identificamos e usamos diferentes ferramentas e recursos. A segunda contribuição é a adaptação e a extensão de um framework de análise contradição existente, filtrando seus resultados para remover os comentários erroneamente rotulados como contraditórios. O método de filtragem baseia-se em dois algoritmos simples de similaridade entre palavras. Uma avaliação experimental em comentários sobre produtos reais mostrou melhorias proporcionais de até 30 % na acurácia da classificação e 26 % na precisão da detecção de contradições. / Contradiction Analysis is a relatively new multidisciplinary and complex area with the main goal of identifying contradictory pieces of text. It can be addressed from the perspectives of different research areas such as Natural Language Processing, Opinion Mining, Information Retrieval, and Information Extraction. This work focuses on the problem of detecting sentiment-based contradictions which occur in the sentences of a given review text. Unlike other types of contradictions, the detection of sentiment-based contradictions can be tackled as a post-processing step in the traditional sentiment analysis task. In this context, we make two main contributions. The first is an exploratory study of the classification task, in which we identify and use different tools and resources. Our second contribution is adapting and extending an existing contradiction analysis framework by filtering its results to remove the reviews that are erroneously labeled as contradictory. The filtering method is based on two simple term similarity algorithms. An experimental evaluation on real product reviews has shown proportional improvements of up to 30% in classification accuracy and 26% in the precision of contradiction detection.
129

Investigando a influência de fatores linguísticos na organização lexical de verbos / Investigating the influence of linguistic factors in the lexical organization of verbs

Germann, Daniel Cerato January 2010 (has links)
Esta dissertação utiliza simulações computacionais visando investigar a influência de alguns fatores lingüísticos na organização lexical de verbos, analisando os processos de aquisição e uso. Os fatores testados são: freqüência de observação na linguagem, polissemia e complexidade sintática. Os dados utilizados foram obtidos por meio de tarefas psicolingüísticas de nomeação de ações, realizadas por crianças e adultos (falantes do Português brasileiro), posteriormente representados como grafos. Com base nos fatores lingüísticos, foram formuladas hipóteses relativas ao desenvolvimento da língua, testadas por meio de simulações computacionais denominadas ‘involuções’. Os testes incluem métricas da teoria dos grafos e medidas de similaridade de conjuntos (coeficiente de Jaccard e suas componentes). Os resultados obtidos apontam para uma confirmação das hipóteses formuladas. Adicionalmente, permitiram verificar algumas características do desenvolvimento lingüístico, como o aumento do vocabulário e uma progressiva especialização. / This dissertation uses computational simulations designed to investigate the influence of three linguistic factors in the lexical organization of verbs, analyzing the process of acquisition and use. The tested factors are: frequency of observation in the language, polysemy and syntactic complexity. The data used were obtained from psycholinguistic action naming tasks performed by children and adults (speakers of Brazilian Portuguese), and subsequently represented as graphs. Based on linguistic factors, hypotheses were formulated concerning the development of language, tested through simulations called ‘involutions’. Tests include graph theory metrics and set similarity measures (Jaccard’s coefficient and its components). Results suggest a confirmation of the given hypotheses. Additionally, allowed verification of some language development features, such as vocabulary growth and a progressive specialization.
130

Uma filosofia do 'qualquer' : a gênese da primeira teoria da denotação de Bertrand Russell

Corrêa, Cleber de Souza January 2010 (has links)
Esta dissertação tem um duplo objetivo. O primeiro deles — e o principal — é a tentativa de verificar uma hipótese acerca das razões de Bertrand Russell para conceber a sua primeira teoria da denotação, apresentada em The Principies of Mathematics (PoM). A teoria da denotação é urna explicação excepcional (no contexto da semântica de Russell) do significado de expressões denotativas da linguagem natural, expressões constituídas por alguma das seguintes seis palavras: "todo", "qualquer", "cada", "algum", "um"e "o"(ou suas declinações). Trata-se de apresentar a teoria de Russell como solução para um problema, e a hipótese que proponho é uma segundo a qual esse problema deriva da conjunção de três teses que Russell sustentava à época da publicação de PoM. Argumento que as ideias de Russell acerca da relação entre as expressões da linguagem natural e aquilo que lhes confere significado, da natureza dos constituintes do mundo e da relação entre mente e mundo no intercurso epistêmico formam um conjunto incompatível com a constatação trivial de que sentenças da linguagem natural que contêm expressões denotativas são inteligíveis. As ideias de Russell aludidas acima implicam que a inteligibilidade de uma expressão denotativa — e, de modo geral, de qualquer menor item semanticamente ativo de uma sentença da linguagem natural — requer a satisfação de duas condições: a existência de uma entidade no mundo que tal expressão representa e o vínculo epistêmico de contato entre o sujeito e tal entidade. A satisfação dessa dupla condição acarreta que, ao apreender o signifcado de uma expressão denotativa como, por exemplo, "todos os homens", eu estou em contato com todos os homens, o que, evidentemente, é impossível. Se o contato com aquilo que é o significado de um certo número de expressões denotativas é impossível (como no caso anterior), há que se postular um elemento semântico que não aquelas entidades no mundo, de modo que a inteligibilidade de tais expressões seja preservada. A teoria da denotação é esse postulado, e o elemento que medeia o vínculo entre a expressão denotativa e os objetos no mundo é o conceito denotativo. Pretendo também demonstrar que as ideias de Russell que conduzem ao problema acima noticiado sobrevivem ao abandono da teoria da denotação. Se é verdade que, a partir da publicação de On Denoting (OD), Russell adota uma perspectiva mais "desconfiada" acerca da transparência semântica da linguagem natural — o que implica a recusa da análise proposta em PoM, onde expressões denotativas são expressões às quais se pode legitimamente atribuir significado isoladamente —, também é verdade que Russell (i) continuará a pensar no funcionamento de linguagens logicamente mais nítidas à maneira antiga, segundo a qual o significado das expressões dessas linguagens reduz-se, em última análise, à satisfação das duas condições mencionadas no parágrafo anterior; (ii) permanecerá concebendo os constituintes do mundo, que conferem significado às expressões da linguagem, como entidades objetivas, no sentido de não serem constituídas pela atividade mental; e (iii) que continuará dentro de uma perspectiva epistemológica segundo a qual o vínculo epistêmico entre sujeito e mundo é de contato ou direto, isto é, não-mediado por ideias ou representações. / This thesis has two aims: the first and the main one is to try to verify an hypothesis concerning Bertrand Russell's reasons to frame his first theory of denoting, which he presents in The Principies of Mathematics (PoM). The theory of denoting is an anomalous (within Russell's semantics) account of the meaning of denoting expressions of natural language, expressions formed by any one of the six following words: "all", "any", "every", "some", "a"and "the". I present Russell's theory as a solution to a problem, and according to my hypothesis the problem arises from the conjunction of three theses Russell held at the time he wrote PoM. I argue that Russell's theses concerning (i) the relation between the expressions of natural language and their meanings, (ii) the nature of the constituents of the world and (iii) the epistemic relation between mind and world are incompatible with the statement that sentences containing denoting expressions are intelligible or meaningful. Russell's ideas imply that understanding the meaning of a denoting expression — and understanding the meaning of any of the shortest semantically active expressions of language — requires two conditions to be satisfied: there must exist some entity in the world that the expression stands for and there must be a direct epistemic relation between the mind and this entity. If both conditions are to be satisfied, it must be the case that as I apprehend the meaning of a denoting expression like "all men", for example, I am in a direct epistemic relation, acquaintance, with ali men, which is clearly impossible. If acquaintance with the meaning of a certain class of expressions is impossible (as in the example above), a propositional constituent other than the denoted entity must be posited, such that it will account for the expressions' meaningfulness. Russell's first theory of denoting is grounded in the postulate according to which there are such constituents, the "denoting concepts", bridging the gap between denoting expressions and entities in the world. The second aim of the thesis is to provide evidence of the preservation of the abovementioned ideas in Russell's thought after his abandonment of the theory of denoting. Although it is certainly true that after On Denoting (OD) Russell grows increasingly suspicious about the "transparency"of natural language — which implies the departure from the PoM style of semantic analysis, according to which denoting expressions have meaning in isolation it is nevertheless true that Russell keeps thinking that (i) the meaning of an expression in a logically adequate language is secured by the satisfaction of the two conditions mentioned in the preceding paragraph; (ii) the constituents of the world are objective, in the sense that they are not the outcome of the "work of the mind"; and (iii) the basic epistemic relation between mind and world is that of acquaintance, i. e., it is not mediated by ideas or representations.

Page generated in 0.0761 seconds