• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 291
  • 49
  • 6
  • 5
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • Tagged with
  • 348
  • 348
  • 281
  • 177
  • 151
  • 91
  • 62
  • 56
  • 55
  • 55
  • 52
  • 51
  • 50
  • 47
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

SpecNL : uma ferramenta para gerar descrições em linguagem natural a partir de especificações de casos de teste

TORRES, Dante Gama January 2006 (has links)
Made available in DSpace on 2014-06-12T15:59:28Z (GMT). No. of bitstreams: 2 arquivo5130_1.pdf: 962505 bytes, checksum: c110ca4ca2100795b71140dd9ec201cf (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2006 / Teste de Software é uma tarefa central, porém muito cara, no processo de desenvolvimento de software. Estudos sugerem que as tarefas de teste chegam até 50% do custo total de desenvolvimento do software. Com o objetivo de automatizar e otimizar as atividades de teste, várias ferramentas têm sido utilizadas para assistir o processo de testes, desde a geração dos testes até a sua execução. As ferramentas de geração de testes geralmente especificam os casos de teste gerados em uma linguagem não natural (normalmente uma linguagem formal). Entretanto, essa linguagem pode ser não trivial para os engenheiros que executarão manualmente os casos de teste. Com isso, seria de grande ajuda uma ferramenta que mapeasse os casos de teste gerados em uma linguagem natural. Este trabalho propõe uma ferramenta para gerar descrições em linguagem natural (LN) a partir de casos de teste especificados em linguagem formal, com o intuito de ajudar os engenheiros de teste a executarem testes manuais. Para validar a ferramenta proposta, nós desenvolvemos um protótipo que recebe como entrada casos de teste especificados na linguagem formal CSP. Como saída, o sistema devolve um texto em inglês que descreve os passos do caso de teste para aplicações móveis. O protótipo foi codificado na linguagem Java, e procurou manter critérios desejáveis de qualidade de software, como reusabilidade, extensibilidade e modularidade. Este trabalho faz parte de um projeto maior desenvolvido em parceria entre o CIn-UFPE e a Motorola
72

Extração automática de modelos CSP a partir de casos de uso

ARAÚJO, Renata Bezerra e Silva de 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T16:00:36Z (GMT). No. of bitstreams: 2 arquivo6806_1.pdf: 3125791 bytes, checksum: d312e759783582d509c1403b479df91e (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / No ciclo de vida de desenvolvimento de software, especificação de requisitos é uma atividade muito propensa a definições incorretas. Isto geralmente acontece porque esses documentos são normalmente escritos em linguagem natural, tornando muito alta a possibilidade de introduzir ambiguidades e interpretações errôneas. Por outro lado, a utilização de linguagem natural traz simplicidade e flexibilidade ao se especificar requisitos, considerando que esta é uma notação que pode ser compreendida tanto pelo cliente quanto pelo desenvolvedor. Uma vez que projetos de software possuem documentos precisos, engenheiros de software que tenham bom conhecimento em linguagens formais podem criar manualmente uma especificação formal com o propósito de validar as propriedades do sistema. No entanto, esta criação manual pode não cobrir todos os requisitos ou podem conter inconsistências. Desta forma, a geração automática de modelos formais a partir de documento de requisitos parece ser uma boa solução para este problema. Para alcançar este objetivo, os documentos de requisitos devem ser simples, diretos, uniformes e sem ambuiguidades. Para que isto aconteça, Linguagens Naturais Controladas (Controlled Natural Languages - CNL) são comumente utilizadas. Este trabalho faz parte do projeto de Pesquisa e Desenvolvimento do CIn Brazil Test Center (CInBTCRD), que é uma cooperação entre a Motorola e o Centro de Informática da Universidade Federal de Pernambuco (CIn-UFPE). Em primeiro lugar, este trabalho propõe uma linguagem restrita (CNL) para definir casos de uso contendo uma noção de estado, os quais consideram dados de entrada, saída, guarda e atualização de variáveis, como um complemento para a descrição textual. Depois disso, uma tradução automática dessa linguagem para a algebra de processos CSP foi proposta, a fim de permitir a análise formal de requisitos e geração de casos de teste. Finalmente, foi realizada a implementação e integração desta linguagem e sua tradução para CSP em uma ferramenta conhecida como TaRGeT, cujo propósito é a geração de casos de teste a partir de documentos de casos de uso que seguem um template padrão e são escritos utilizando uma CNL. A TaRGeT original não era capaz de lidar com definições de dados e as manipulações destes dados, e utiliza sistemas rotulados por transição (labelled transition systems) em vez de CSP, como formalismo. Para ilustrar as técnicas propostas neste trabalho, um estudo de caso foi realizado no ambiente da Motorola, adaptando um exemplo de caso de uso real da indústria de modo a encaixá-lo no nosso template. O documento de caso de uso considera situações de envio e recebimento de SMS/MMS, contendo uma feature com 7 casos de uso, incluindo definições e manipulações de dados, relacionamentos entre casos de uso e 6 fluxos alternativos. O CSP gerado contém 570 linhas de código e a verificação de suas propriedades foi checada com sucesso utilizando-se a ferramenta FDR, um verificador de modelo para CSP
73

Uma interface para consultas a Sistemas de Suporte à Decisão baseada em Linguagem Natural, Casamento de Padrões e Metadados

Nascimento, André Vinicius Rodrigues Passos 11 1900 (has links)
O crescimento da Internet e da World Wide Web veio acompanhado pelo desenvolvimento de tecnologias que permitiram o surgimento dos sistemas de suporte à decisão baseados na Web. Esse novo paradigma reduz barreiras tecnológicas e torna mais fácil e menos onerosa a tarefa de difundir informações para diversos tipos de usuários dentro de uma organização. Contudo, as interfaces tradicionais, desenvolvidas especialmente para usuários profissionais, nem sempre são adequadas para usuários casuais e não-especialistas. Esta dissertação apresenta uma proposta de interface para sistemas de suporte à decisão baseada em linguagem natural restrita, comparação de padrões e metadados. Essa nova arquitetura pretende auxiliar usuários sem o devido treinamento técnico a recuperar informações em sistemas de suporte à decisão. A solução proposta mostra que uma abordagem alternativa e mais simples para o problema de interfaces em linguagem natural para banco de dados pode alcançar bons resultados. A arquitetura apoia-se no modelo multdimensional e na modelagem dimensional para oferecer um acesso transparente e natural a banco de dados e solucionar o problema de transportabilidade entre aplicações. _________________________________________________________________________________________ ABSTRACT: The widespread use of the Word Wide Web and Internet has been accompanied by the development of technologies that enabled the emergence of web-based decision support systems. This new paradigm has reduced technological barriers and made it easier and less costly to make decision-relevant information available to all types of users in a company. However, traditional user interfaces specially designed for professional users will not work well for casual and non-specialist users. This dissertation presents a new interface to web-based decision support systems which is based on restricted natural language, pattern matching and metadata. This new architecture was designed with the aim of assisting users without technical instruction with the task of retrieving decision-relevant information. The proposed solution shows that an alternative and simpler approach to the problem of natural language interfaces to databases can achieve useful results. The architecture relies on the multidimensional model and dimensional modeling to provide a transparent and natural database access for non-specialist end-users, and address the domain portability problem.
74

Prototipo de um lexico para o processamento da linguagem natural : o caso dos adjetivos polissemicos

Bidarra, Jorge 15 January 2002 (has links)
Orientador: Edson Françozo / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Estudos da Linguagem / Made available in DSpace on 2018-07-31T14:54:37Z (GMT). No. of bitstreams: 1 Bidarra_Jorge_D.pdf: 8505000 bytes, checksum: 46e77365c759661986e5e483061127ca (MD5) Previous issue date: 2001 / Resumo: A maioria das palavras em português revela um alto grau de polissemia. Apesar disso, os modelos de léxicos convencionais não têm se mostrado aptos para lidar adequadamente com o fenômeno. O tratamento que dão às palavras polissêmicas, não raro, é exatamente o mesmo aplicado aos casos de homonímia. Ou seja, para cada significado diferente que a palavra admite, cria-se uma nova entrada no léxico, totalmente desarticulada dos demais sentidos, mesmo que entre eles haja algum tipo de relacionamento semântico estabelecido. A principal implicação desta falta de estruturação é que ao sistema lexical deixa-se pouco ou nenhum recurso para enfrentar situações tais como aquela em que um novo sentido de uma palavra é detectado mas que não encontra correspondência com qualquer das entradas descritas no léxico. Esta tese investiga justamente o problema da representação no léxico de palavras ambíguas, mas em particular no que tange à polissemia adjetival, e propõe um protótipo de léxico semântico para o PLN. O modelo em si resulta da integração de duas importantes teorias gramaticais, quais sejam, a do léxico gerativo de James PUSTEJOVSKY (1991, 1995) e a da HPSG desenvolvida por Carl POLLARD e Ivan A. SAG (1987, 1994). Do ponto de vista da arquitetura, o léxico como aqui é proposto, e que se encontra formalmente especificado, apresenta algumas vantagens (das quais citaremos apenas três) em relação a outras modelagens existentes. Uma delas dizendo respeito a sua capacidade para integrar de uma maneira bastante satisfatória ambos os níveis de representação sintática e semântico-conceitual de qualquer um dos itens a serem lexicalizados. Uma outra vantagem é que, partindo de uma representação lexical interna ricamente estruturada, cujas especificações são feitas com base nas chamadas estruturas de traços tipadas, dá-se ao modelo um alto poder de expressividade, na medida em que pela unificação das estruturas toma-se também possível combinar informações que não só as oriundas do próprio item lexical mas também aquelas obtidas de outros itens que com ele se estruturam para formar uma expressão gramatical mais complexa. A terceira e última vantagem, talvez sendo ela a mais importante de todas, tem a ver com a habilidade do modelo para, a partir de uma única entrada lexical (esta representando a especificação do significado básico e central da palavra polissêmica), capturar cada um dos diferentes sentidos que o item em questão possa admitir quando submetido ao contexto / Abstract: Most words in portuguese display a highest degree of polysemy. Nevertheless the conventional lexical models have not been able to deal with this phenomenon adequately. The treatment given to polysemy is often the same as to homonymy. That is, for each different meaning the word presents, a new lexicon entry is created, unrelated to the others even if there is some kind of semantic relation among them. The most important implication of this lack of structure is that the lexical system finds few or no resources to deal with situations in which a new sense is detected for a given word but this sense does not match any of the listed homonymous senses in the lexicon. This thesis investigates the lexical ambiguity problem but in particular that concerning the adjectival polysemy and proposes a prototypical semantic lexicon for NLP. The model we propose integrates two important grammatical theories, that is, the Generative Lexicon by James PUSTEJOVKSY (1991, 1995), and HPSG by Carl POLLARDand Ivan A. SAG (1987, 1994). From the point of view of its architecture, the lexicon formally specified here, shows some advantages (only three of them are mentioned here) when compared to the other proposed models. The first advantage is certainly its capacity to integrate satisfactorily both syntactical and semantic-conceptuallevels for any item to be inserted in the lexicon. Second, starting with a highly structured lexical representation, the model reaches a high leveI of expression because the unification of structures enables a combination of information obtained not only from the lexical item itself, but also trom other items combined to form a more complex grammatical expression. The last advantage, perhaps the most important one, refers to the model's ability to capture each one of the different senses the word admits when submitted to the context, taking as a start point only one lexical entry (which represents the basic and central meaning specification of the polyssemic word) / Doutorado / Doutor em Linguística Aplicada
75

Redes neurais e logica formal em processamento de linguagem natural

Rosa, João Luis Garcia 22 September 1993 (has links)
Orientador: Marcio Luiz de Andrade Netto / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-18T14:25:22Z (GMT). No. of bitstreams: 1 Rosa_JoaoLuisGarcia_M.pdf: 10533866 bytes, checksum: eff7483f9919f4d2a0a8d1da0a8ad44d (MD5) Previous issue date: 1993 / Resumo: Esta dissertação de mestrado é sobre Processamento de Linguagem Natural (PLN). O PLN consiste de uma série de tarefas que a máquina deve executar para analisar um texto. Na literatura existem vários trabalhos em diversas abordagens. Este trabalho faz uma combinação de abordagens baseadas em lógica e de abordagens conexionistas. O trabalho proposto tem três partes. A primeira parte faz a análise sintática de frases da língua portuguesa. É baseada em lógica. A segunda parte faz a análise semântica, ou a verificação do significado das palavras numa frase. Isto é feito através de redes neurais artificiais, que "aprendem" a representação binária das palavras (suas microcaracterísticas semânticas). Esta abordagem é chamada de conexionismo. Sua grande vantagem é a habilidade de generalização, ou seja, a rede é capaz de reconhecer uma palavra, mesmo que esta não tenha sido mostrada a ela. A terceira, e última, parte deste trabalho trata da utilização de redes recorrentes para análise de frases. Este tipo de rede serve para "ligar" as palavras em uma frase, pois a rede recorrente tem memória. Ela é capaz de "lembrar" da última palavra vista numa seqüência. É útil para ligar as palavras em uma sentença, por exemplo, o sujeito com o objeto, o objeto com o complemento, etc. Isto torna a frase uma entidade única a ser analisada / Abstract: This dissertation is about Natural Language Processing (NLP). NLP consists of a series of tasks the machine should carry out in analysing a texto In literature, there are papers having different approaches. This work combines two approaches: based on logic and connectionism. The proposed work is divided in three parts. The first makes the parsing, or the syntactic analysis of sentences in the Portuguese language, based on logic. The second part takes care of the semantic analysis, or the verification of the meaning of words in a sentence. This is achieved through artificial neural networks that "Iearn" the binary representation of the words (their semantic microfeatures). This approach is called connectionism. Its major advantage is the ability of generalizing, i. e., it is able to recognize a word even it is not presented to the nets. The third, and last, part of this work is about the use of recurrent networks in text analysis. This kind of network is to "Iink" the words in a sentence because the recurrent net is given memory, which makes it able to "remember" the last word seen in a sequence. This is useful to link the words in a sentence like the subject to the object, the object to the complement, etc. This makes a sentence an entire item to be analysed. / Mestrado / Mestre em Engenharia Elétrica
76

Análise lexicográfica da produção acadêmica da Fiocruz: uma proposta de metodologia

Lima, Jefferson da Costa 09 September 2016 (has links)
Submitted by Jefferson da Costa Lima (jeffersonlima@gmail.com) on 2016-10-31T15:52:52Z No. of bitstreams: 1 JeffersonLima-Dissertação.pdf: 1878827 bytes, checksum: bcf4cfbdcd70a96644fa2d4022eac581 (MD5) / Approved for entry into archive by Janete de Oliveira Feitosa (janete.feitosa@fgv.br) on 2016-11-07T12:54:12Z (GMT) No. of bitstreams: 1 JeffersonLima-Dissertação.pdf: 1878827 bytes, checksum: bcf4cfbdcd70a96644fa2d4022eac581 (MD5) / Made available in DSpace on 2016-11-08T17:24:34Z (GMT). No. of bitstreams: 1 JeffersonLima-Dissertação.pdf: 1878827 bytes, checksum: bcf4cfbdcd70a96644fa2d4022eac581 (MD5) Previous issue date: 2016-09-09 / With the objective to meet the health needs of the population, a huge amount of publications are generated each year. Scientific papers, thesis and dissertations become available digitally, but make them accessible to the user requires an understanding of the indexing process, which is usually made manually. This work proposes an experiment on the feasibility of automatically identify valid descriptors for the documents in the field of health. Are extracted n-grams of the texts and, after comparison with terms of vocabulary Health Sciences Descriptors (DeCS), are identified those who can act as descriptors for the works. We believe that this process can be applied to classification of document sets with deficiencies in their indexing and, even, in supporting the re-indexing processes, improving the precision and recall of the searches, and the possibility of establishing metrics of relevance. / Com o objetivo de atender às demandas de saúde da população, uma quantidade enorme de publicações são geradas a cada ano. Artigos científicos, teses e dissertações tornam-se digitalmente disponíveis, mas torná-los acessíveis aos usuário exige a compreensão do processo de indexação, que em geral é feito manualmente. O presente trabalho propõe um experimento sobre a viabilidade de identificar automaticamente descritores válidos para documentos do campo da saúde. São extraídos n-grams dos textos e, após comparação com termos do vocabulário Descritores em Ciências da Saúde (DeCS), são identificados aqueles que podem atuar como descritores para as obras. Acreditamos que este processo pode ser aplicado na classificação de conjuntos de documentos com deficiências na indexação e, até mesmo, no apoio a processos de reindexação, melhorando a precisão e a revocação das buscas, além da possibilidade de estabelecer métricas de relevância.
77

Técnicas de processamento de linguagem natural aplicadas às ciências sociais

Scarpa, Alice Duarte 24 August 2017 (has links)
Submitted by Alice Duarte Scarpa (alicescarpa@gmail.com) on 2017-09-26T15:54:11Z No. of bitstreams: 1 dissertacao (3).pdf: 2075770 bytes, checksum: 4838890c00b2e15a62cffbbbcb4ab5a8 (MD5) / Approved for entry into archive by Janete de Oliveira Feitosa (janete.feitosa@fgv.br) on 2017-10-31T11:43:22Z (GMT) No. of bitstreams: 1 dissertacao (3).pdf: 2075770 bytes, checksum: 4838890c00b2e15a62cffbbbcb4ab5a8 (MD5) / Made available in DSpace on 2017-11-10T18:24:46Z (GMT). No. of bitstreams: 1 dissertacao (3).pdf: 2075770 bytes, checksum: 4838890c00b2e15a62cffbbbcb4ab5a8 (MD5) Previous issue date: 2017-08-24 / The vast amount of documents available nowadays presents a great opportunity for advancing Political Sciences. At the same time, this deluge of information poses a problem, because it is no longer feasible for researchers to analyze every document manually. Modern natural language processing techniques have an essential role in helping with this process. The goal of this work is to create a tool based on natural language processing techniques that helps researchers to navigate an important database, Cablegate, which is a corpus of over 250 thousand diplomatic cables sent between US embassies that was published as part of WikiLeaks. This is a very important database that can shed new light at key historical moments of the twenty-first century. / A enorme quantidade de documentos disponíveis atualmente representa um grande potencial de avanço para as Ciências Políticas. Ao mesmo tempo essa riqueza de informações gera um problema, pois não é mais possível que pesquisadores analisem todos os documentos manualmente. Técnicas modernas de processamento de linguagem natural têm um papel essencial a cumprir para auxiliar tal avanço. O objetivo desse trabalho é criar uma ferramenta baseada em processamento de linguagem de natural que ajude pesquisadores a navegar uma base de dados muito importante, o \textit{Cablegate}, que é um conjunto de mais de 250 mil cabos diplomáticos de embaixadas dos Estados Unidos que foi publicado como parte do \textit{WikiLeaks}. Essa é uma base muito importante que pode trazer uma nova luz sobre vários momentos-chave do início do século XXI.
78

Aquisição de conhecimento de mundo para sistemas de processamento de linguagem natural / World of knowledge acquisition for systems of natural language processing

Silva, José Wellington Franco da January 2013 (has links)
SILVA, José Wellington Franco da. Aquisição de conhecimento de mundo para sistemas de processamento de linguagem natural. 2013. 88 f. Dissertação (Mestrado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2013. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-11T17:27:20Z No. of bitstreams: 1 2013_dis_jwfsilva.pdf: 3234188 bytes, checksum: 9b5bbdb17bd9bce014a2e05dd96198bc (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-18T15:14:38Z (GMT) No. of bitstreams: 1 2013_dis_jwfsilva.pdf: 3234188 bytes, checksum: 9b5bbdb17bd9bce014a2e05dd96198bc (MD5) / Made available in DSpace on 2016-07-18T15:14:38Z (GMT). No. of bitstreams: 1 2013_dis_jwfsilva.pdf: 3234188 bytes, checksum: 9b5bbdb17bd9bce014a2e05dd96198bc (MD5) Previous issue date: 2013 / One of the challenges of research in Natural Language Processing(NLP) is to provide semantic and linguistic resources to express knowledge of the world to support tasks such as Information Extraction, Information Retrieval systems, Questions & Answering, Text Summarization, Annotation Semantics of texts, etc. For this challenge this work proposes strategies for acquiring knowledge of the world. We propose two methods. The first is a semi-automatic method that has main idea of using a semantic reasoning process on pre-existing knowledge base semantics. The second is an acquisition method that utilizes automatic Wikipedia for generating semantical content. Wikipedia was used as a source of knowledge because of the reliability, dynamism and scope of its content. In this work we propose a method for acquiring semantic relations between concepts from the texts of Wikipedia articles that makes use of an implicit knowledge that exists in Wikipedia and in hypermedia systems: links between articles. Throughout the descriptive text of a Wikipedia article appear links to other articles that are evidence that there is a relationship between the current article and another article referenced by the link. The proposed method aims to capture the semantic relationship expressed in the text between them (current article and link to another article), no regular expressions identifying similar relationships through a semantic similarity measure. / Um dos desafios das pesquisas na área de Processamento de Linguagem Natural (PLN) é prover recursos semântico-linguísticos que expressem conhecimento de mundo para suportar tarefas como: extração de informação, recuperação de informação, sistemas de perguntas e respostas, sumarização de textos, anotação semântica de textos, dentre outras. Para esse desafio este trabalho propõe estratégias para aquisição de conhecimento de mundo. Propomos dois métodos. O primeiro é um método semiautomático que tem como ideia principal utilizar um processo de raciocínio semântico sobre o conhecimento pré-existente em uma base semântica. O segundo é um método de aquisição automática que utiliza a Wikipédia para a geração de conteúdo semântico. A Wikipédia foi utilizada como fonte de conhecimento devido à confiabilidade, dinamicidade e abrangência de seu conteúdo. Neste trabalho propomos um método para aquisição de relações semânticas entre conceitos a partir de textos de artigos da Wikipédia que faz uso de um conhecimento implícito existente na Wikipédia e em sistemas hipermídia: os links entre artigos. Ao longo do texto descritivo de um artigo da Wikipédia aparecem links para outros artigos que são evidências de que há uma relação entre o artigo corrente e o outro artigo referenciado pelo link. O método proposto objetiva capturar a relação semântica expressa no texto entre eles (artigo corrente e link para outro artigo), sem expressões regulares identificando relações similares através de uma medida de similaridade semântica.
79

Tell me why : uma arquitetura para fornecer explicações sobre revisões / Tell me why : an architecture to provide rich review explanations

Woloszyn, Vinicius January 2015 (has links)
O que as outras pessoas pensam sempre foi uma parte importante do processo de tomada de decisão. Por exemplo, as pessoas costumam consultar seus amigos para obter um parecer sobre um livro ou um filme ou um restaurante. Hoje em dia, os usuários publicam suas opiniões em sites de revisão colaborativa, como IMDB para filmes, Yelp para restaurantes e TripAdiviser para hotéis. Ao longo do tempo, esses sites têm construído um enorme banco de dados que conecta usuários, artigos e opiniões expressas por uma classificação numérica e um comentário de texto livre que explicam por que eles gostam ou não gostam de um item. Mas essa vasta quantidade de dados pode prejudicar o usuário a obter uma opinião. Muitos trabalhos relacionados fornecem uma interpretações de revisões para os usuários. Eles oferecem vantagens diferentes para vários tipos de resumos. No entanto, todos eles têm a mesma limitação: eles não fornecem resumos personalizados nem contrastantes comentários escritos por diferentes segmentos de colaboradores. Compreeder e contrastar comentários escritos por diferentes segmentos de revisores ainda é um problema de pesquisa em aberto. Assim, nosso trabalho propõe uma nova arquitetura, chamado Tell Me Why. TMW é um projeto desenvolvido no Laboratório de Informática Grenoble em cooperação com a Universidade Federal do Rio Grande do Sul para fornecer aos usuários uma melhor compreensão dos comentários. Propomos uma combinação de análise de texto a partir de comentários com a mineração de dados estruturado resultante do cruzamento de dimensões do avaliador e item. Além disso, este trabalho realiza uma investigação sobre métodos de sumarização utilizados na revisão de produtos. A saída de nossa arquitetura consiste em declarações personalizadas de texto usando Geração de Linguagem Natural composto por atributos de itens e comentários resumidos que explicam a opinião das pessoas sobre um determinado assunto. Os resultados obtidos a partir de uma avaliação comparativa com a Revisão Mais Útil da Amazon revelam que é uma abordagem promissora e útil na opinião do usuário. / What other people think has been always an important part of the process of decision-making. For instance, people usually consult their friends to get an opinion about a book, or a movie or a restaurant. Nowadays, users publish their opinions on collaborative reviewing sites such as IMDB for movies, Yelp for restaurants and TripAdvisor for hotels. Over the time, these sites have built a massive database that connects users, items and opinions expressed by a numeric rating and a free text review that explain why they like or dislike a specific item. But this vast amount of data can hamper the user to get an opinion. Several related work provide a review interpretations to the users. They offer different advantages for various types of summaries. However, they all have the same limitation: they do not provide personalized summaries nor contrasting reviews written by different segments of reviewers. Understanding and contrast reviews written by different segments of reviewers is still an open research problem. Our work proposes a new architecture, called Tell Me Why, which is a project developed at Grenoble Informatics Laboratory in cooperation with Federal University of Rio Grande do Sul to provide users a better understanding of reviews. We propose a combination of text analysis from reviews with mining structured data resulting from crossing reviewer and item dimensions. Additionally, this work performs an investigation of summarization methods utilized in review domain. The output of our architecture consists of personalized statement using Natural Language Generation that explain people’s opinion about a particular item. The evaluation reveal that it is a promising approach and useful in user’s opinion.
80

Tell me why : uma arquitetura para fornecer explicações sobre revisões / Tell me why : an architecture to provide rich review explanations

Woloszyn, Vinicius January 2015 (has links)
O que as outras pessoas pensam sempre foi uma parte importante do processo de tomada de decisão. Por exemplo, as pessoas costumam consultar seus amigos para obter um parecer sobre um livro ou um filme ou um restaurante. Hoje em dia, os usuários publicam suas opiniões em sites de revisão colaborativa, como IMDB para filmes, Yelp para restaurantes e TripAdiviser para hotéis. Ao longo do tempo, esses sites têm construído um enorme banco de dados que conecta usuários, artigos e opiniões expressas por uma classificação numérica e um comentário de texto livre que explicam por que eles gostam ou não gostam de um item. Mas essa vasta quantidade de dados pode prejudicar o usuário a obter uma opinião. Muitos trabalhos relacionados fornecem uma interpretações de revisões para os usuários. Eles oferecem vantagens diferentes para vários tipos de resumos. No entanto, todos eles têm a mesma limitação: eles não fornecem resumos personalizados nem contrastantes comentários escritos por diferentes segmentos de colaboradores. Compreeder e contrastar comentários escritos por diferentes segmentos de revisores ainda é um problema de pesquisa em aberto. Assim, nosso trabalho propõe uma nova arquitetura, chamado Tell Me Why. TMW é um projeto desenvolvido no Laboratório de Informática Grenoble em cooperação com a Universidade Federal do Rio Grande do Sul para fornecer aos usuários uma melhor compreensão dos comentários. Propomos uma combinação de análise de texto a partir de comentários com a mineração de dados estruturado resultante do cruzamento de dimensões do avaliador e item. Além disso, este trabalho realiza uma investigação sobre métodos de sumarização utilizados na revisão de produtos. A saída de nossa arquitetura consiste em declarações personalizadas de texto usando Geração de Linguagem Natural composto por atributos de itens e comentários resumidos que explicam a opinião das pessoas sobre um determinado assunto. Os resultados obtidos a partir de uma avaliação comparativa com a Revisão Mais Útil da Amazon revelam que é uma abordagem promissora e útil na opinião do usuário. / What other people think has been always an important part of the process of decision-making. For instance, people usually consult their friends to get an opinion about a book, or a movie or a restaurant. Nowadays, users publish their opinions on collaborative reviewing sites such as IMDB for movies, Yelp for restaurants and TripAdvisor for hotels. Over the time, these sites have built a massive database that connects users, items and opinions expressed by a numeric rating and a free text review that explain why they like or dislike a specific item. But this vast amount of data can hamper the user to get an opinion. Several related work provide a review interpretations to the users. They offer different advantages for various types of summaries. However, they all have the same limitation: they do not provide personalized summaries nor contrasting reviews written by different segments of reviewers. Understanding and contrast reviews written by different segments of reviewers is still an open research problem. Our work proposes a new architecture, called Tell Me Why, which is a project developed at Grenoble Informatics Laboratory in cooperation with Federal University of Rio Grande do Sul to provide users a better understanding of reviews. We propose a combination of text analysis from reviews with mining structured data resulting from crossing reviewer and item dimensions. Additionally, this work performs an investigation of summarization methods utilized in review domain. The output of our architecture consists of personalized statement using Natural Language Generation that explain people’s opinion about a particular item. The evaluation reveal that it is a promising approach and useful in user’s opinion.

Page generated in 0.0321 seconds