• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 291
  • 49
  • 6
  • 5
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • Tagged with
  • 348
  • 348
  • 281
  • 177
  • 151
  • 91
  • 62
  • 56
  • 55
  • 55
  • 52
  • 51
  • 50
  • 47
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Uma arquitetura de question-answering instanciada no domínio de doenças crônicas / A question-answering architecture instantiated on the domains of chronic disease

Almansa, Luciana Farina 08 August 2016 (has links)
Nos ambientes médico e de saúde, especificamente no tratamento clínico do paciente, o papel da informação descrita nos prontuários médicos é registrar o estado de saúde do paciente e auxiliar os profissionais diretamente ligados ao tratamento. A investigação dessas informações de estado clínico em pesquisas científicas na área de biomedicina podem suportar o desenvolvimento de padrões de prevenção e tratamento de enfermidades. Porém, ler artigos científicos é uma tarefa que exige tempo e disposição, uma vez que realizar buscas por informações específicas não é uma tarefa simples e a área médica e de saúde está em constante atualização. Além disso, os profissionais desta área, em sua grande maioria, possuem uma rotina estressante, trabalhando em diversos empregos e atendendo muitos pacientes em um único dia. O objetivo deste projeto é o desenvolvimento de um Framework de Question Answering (QA) para suportar o desenvolvimento de sistemas de QA, que auxiliem profissionais da área da saúde na busca rápida por informações, especificamente, em epigenética e doenças crônicas. Durante o processo de construção do framework, estão sendo utilizados dois frameworks desenvolvidos anteriormente pelo grupo de pesquisa da mestranda: o SisViDAS e o FREDS, além de desenvolver os demais módulos de processamento de pergunta e de respostas. O QASF foi avaliado por meio de uma coleção de referências e medidas estatísticas de desempenho e os resultados apontam valores de precisão em torno de 0.7 quando a revocação era 0.3, para ambos o número de artigos recuperados e analisados eram 200. Levando em consideração que as perguntas inseridas no QASF são longas, com 70 termos por pergunta em média, e complexas, o QASF apresentou resultados satisfatórios. Este projeto pretende contribuir na diminuição do tempo gasto por profissionais da saúde na busca por informações de interesse, uma vez que sistemas de QA fornecem respostas diretas e precisas sobre uma pergunta feita pelo usuário / The medical record describes health conditions of patients helping experts to make decisions about the treatment. The biomedical scientific knowledge can improve the prevention and the treatment of diseases. However, the search for relevant knowledge may be a hard task because it is necessary time and the healthcare research is constantly updating. Many healthcare professionals have a stressful routine, because they work in different hospitals or medical offices, taking care many patients per day. The goal of this project is to design a Question Answering Framework to support faster and more precise searches for information in epigenetic, chronic disease and thyroid images. To develop the proposal, we are reusing two frameworks that have already developed: SisViDAS and FREDS. These two frameworks are being exploited to compose a document processing module. The other modules (question and answer processing) are being completely developed. The QASF was evaluated by a reference collection and performance measures. The results show 0.7 of precision and 0.3 of recall for two hundred articles retrieved. Considering that the questions inserted on the framework have an average of seventy terms, the QASF shows good results. This project intends to decrease search time once QA systems provide straight and precise answers in a process started by a user question in natural language
202

Reescrita sentencial baseada em traços de personalidade / Text rewrite based on psychological profiles

Stávracas Neto, Georges Basile 13 March 2018 (has links)
Sistemas de Geração de Língua Natural tentam produzir textos de maneira automatizada. Em sistemas desse tipo, é desejável produzir textos de forma realista - ou psicologicamente plausível - como forma de aumentar o engajamento do leitor. Uma das formas de alcançar esse objetivo é gerando textos de modo a refletir uma personalidade-alvo de interesse. Por exemplo, uma pessoa extrovertida usaria palavras mais simples e seus textos teriam mais interjeições e traços de oralidade. Esse trabalho tem o objetivo de desenvolver um modelo de reescrita sentencial para o português brasileiro com base em traços de personalidade de um locutor-alvo. Para isso, foi coletado um córpus de textos e inventários de personalidade e, com base em uma análise preliminar desses dados, foram encontrados fortes indícios de correlação entre os fatores de personalidade e as características observadas dos textos em português brasileiro. Foram gerados três modelos de lexicalização, referentes à adjetivos, substantivos e verbos. Esses modelos de lexicalização, então, foram utilizados na proposta de um modelo de reescrita sentencial para selecionar as palavras mais adequadas à personalidade-alvo. Os resultados demonstram que o uso de personalidade permite que o texto gerado seja mais próximo do desempenho humano se comparado a um sistema de baseline que faz escolhas lexicais mais frequentes / Natural Language Generation Systems attempt to produce texts in an automated fashion. In systems of this kind, it is desired to produce texts realisticaly - or at least psychologically plausible - as a way to increase reader\'s engagement. One way to achieve this goal is generating texts in such a way to reflect a target personality profile. For example, an extroverted individual would use simpler words and its texts would have more interjections and orality traces. This work proposes the development of a Brazilian Portuguese personality-based sentence rewrite model. To this end, a corpus with text samples and personality inventories has been collected, and, based on a preliminary analysis, strong correlations between personality and text features have been found. Three lexicalization models were generated, related to adjectives, nouns and verbs. These models were then used by the sentence rewrite model to select the most appropriate word for the target personality. Results show that the usage of personality allows the generated text to be closer to human performance when compared to a baseline system that makes lexical choices based on frequency
203

OntoLP: construção semi-automática de ontologias a partir de textos da lingua portuguesa

Ribeiro Junior, Luiz Carlos 21 February 2008 (has links)
Made available in DSpace on 2015-03-05T13:59:42Z (GMT). No. of bitstreams: 0 Previous issue date: 21 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O crescimento da Internet provoca a necessidade de estruturas mais consistentes de representação do conhecimento disponível na rede. Nesse contexto, a Web Semântica e as ontologias aparecem como resposta ao problema. Contudo, a construção de ontologias é extremamente custosa, o que estimula diversas pesquisas visando automatizar a tarefa. Em sua maioria, essas pesquisas partem do conhecimento disponível em textos. As ferramentas e métodos são, nesse caso, dependentes de idioma. Para que todos tenham acesso aos benefícios da utilização de ontologias em larga escala, estudos específicos para cada língua são necessários. Nesse sentido, pouco foi feito para o Português. Este trabalho procura avançar nas questões concernentes à tarefa para a língua portuguesa, abrangendo o desenvolvimento e a avaliação de métodos para a construção automática de ontologias a partir de textos. Além disso, foi desenvolvida uma ferramenta de auxílio à construção de ontologias para a língua portuguesa integrada ao ambiente largamente / The internet evolution is in need of more sophisticated knowledge management techniques. In this context, the Semantic Web and Ontologies are being developed as a way to solve this problem. Ontology learning is, however, a dificult and expensive task. Research on ontology learning is usually based on natural language texts. Language specific tools have to be developed. There is no much research that considers specifically the portuguese language. This work advances in these questions and it considers portuguese in particular. The development and evaluation of methods are presented and discussed. Besides, the developed methods were integrated as a plug-in of the widely used ontology editor Protégé
204

Sistema de aplicação unificada de regras linguísticas e ontologias para a extração de informações

Araujo, Denis Andrei de 30 August 2013 (has links)
Submitted by Mariana Dornelles Vargas (marianadv) on 2015-05-29T14:51:35Z No. of bitstreams: 1 sistema_aplicacao.pdf: 3329376 bytes, checksum: 15eb7bd8bf245f93a6032e0aeec8c11a (MD5) / Made available in DSpace on 2015-05-29T14:51:35Z (GMT). No. of bitstreams: 1 sistema_aplicacao.pdf: 3329376 bytes, checksum: 15eb7bd8bf245f93a6032e0aeec8c11a (MD5) Previous issue date: 2013 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A Extração de Informações é um componente importante do conjunto de ferramentas computacionais que visam a identificação de informação relevante a partir de textos em linguagem natural. Regras de extração de conhecimento, baseadas no tratamento linguístico de aspectos específicos dos documentos textuais, podem contribuir para o alcance de melhores desempenhos nesta tarefa. Este trabalho apresenta um modelo para a Extração da Informação baseada em ontologias, a qual se utiliza de técnicas de Processamento da Linguagem Natural e corpus anotado para a identificação das informações de interesse. São descritos os principais componentes da proposta e apresentado um estudo de caso baseado em documentos jurídicos brasileiros. Os resultados obtidos nos experimentos realizados indicam índices relevantes de acurácia e precisão e boas perspectivas quanto a flexibilidade, expressividade e generalização das regras de extração. / Information extraction is an important part of a broader set of enabling tools to assist on identifying relevant information from natural language texts. Knowledge acquisition rules, based on linguistic treatment of specific aspects of textual documents, can provide an even broader set of possibilities. This work presents a model for addressing information extraction from texts based on ontology, which uses Natural Language Processing techniques and annotated corpus to identify relevant information. The main components of the proposal are described and presented a case study based on Brazilian legal documents. The results achieved on experiments indicate relevant accuracy and precision performance and good prospects regarding flexibility, expressiveness and generalization of the extraction rules.
205

Expans?o de consultas com realimenta??o e pseudo realimenta??o de relevantes em um sistema que utiliza o modelo TR+ para indexar e recuperar documentos

Borges, Thyago Bohrer 26 January 2009 (has links)
Made available in DSpace on 2015-04-14T14:49:10Z (GMT). No. of bitstreams: 1 416994.pdf: 2345425 bytes, checksum: 75ba39cb209e96c61f3f88810380759c (MD5) Previous issue date: 2009-01-26 / Este trabalho apresenta e discute os resultados obtidos com a aplica??o das t?cnicas de expans?o de consulta denominadas Pseudo Realimenta??o de Relevantes (PRR) e Realimenta??o de Relevantes (RR) em um Sistema de Recupera??o de Informa??o (SRI) que utiliza o modelo de recupera??o de informa??o denominado TR+. TR+ ? um modelo de recupera??o de informa??o que emprega, al?m de termos, Rela??es Lexicais Bin?rias (RLB) presentes nos textos e nas consultas, para indexar e recuperar documentos textuais em l?ngua portuguesa. A aplica??o das t?cnicas de expans?o de consultas PRR e RR t?m como objetivo melhorar os resultados obtidos pelo usu?rio que realiza uma consulta. As duas t?cnicas se diferenciam quanto ? participa??o do usu?rio: enquanto a RR utiliza o julgamento do usu?rio na defini??o de quais documentos recuperados pela consulta original fornecer?o as informa??es utilizadas na expans?o da consulta, a PRR busca eliminar a participa??o do usu?rio durante este processo. Os resultados obtidos pelos experimentos, tanto utilizando PRR quanto RR, n?o superaram os resultados utilizados como baseline (Gonzalez, 2005). Ao compararmos entre si os resultados dos experimentos com as t?cnicas PRR e RR, os experimentos com PRR foram superados pela RR somente em uma rodada. No contexto dessa disserta??o podemos concluir que a utiliza??o de RLBs ao inv?s de usar somente termos, ? uma op??o mais producente.
206

Resolu??o de correfer?ncia e categorias de entidades nomeadas

Moraes, Tatiane Coreixas 10 March 2010 (has links)
Made available in DSpace on 2015-04-14T14:49:27Z (GMT). No. of bitstreams: 1 427028.pdf: 957635 bytes, checksum: fbedf4df218091e4bc1e919c4ffd808b (MD5) Previous issue date: 2010-03-10 / Define-se correfer?ncia como a rela??o entre diversos componentes lingu?sticos com uma mesma entidade de mundo. A resolu??o autom?tica de correfer?ncia textual est? inserida num contexto muito importante na ?rea de Processamento da Linguagem Natural, pois v?rios sistemas necessitam dessa tarefa. O n?vel de processamento lingu?stico depende do conhecimento de mundo, e isso ainda ? um desafio para a ?rea. Esse desafio estimulou e tornou-se o objeto de estudo desta disserta??o. Nesse sentido, analisamos o papel das categorias de entidades nomeadas e, atrav?s de aprendizado de m?quina, verificamos as condi??es de resolu??o em diferentes categorias. Os resultados dos experimentos demonstraram que o conhecimento de mundo, representado nas categorias de entidades nomeadas, auxilia nessa tarefa, pois o percentual de retorno do sistema com base nas categorias teve uma melhora de 17% em compara??o com a vers?o sem as categorias.
207

Constru??o de estruturas ontol?gicas a partir de textos : um estudo baseado no m?todo formal concept analysis e em pap?is sem?nticos

Moraes, S?lvia Maria Wanderley 30 March 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:51Z (GMT). No. of bitstreams: 1 439881.pdf: 4189361 bytes, checksum: cc72da8cbd69a8a5387851bb140f1b30 (MD5) Previous issue date: 2012-03-30 / This work aims to study conceptual structures based on the Formal Concept Analysis method. We build these structures based on lexico-semantic information extracted from texts, among which we highlight the semantic roles. In our research, we propose ways to include semantic roles in concepts produced by this formal method. We analyze the contribution of semantic roles and verb classes in the composition of these concepts through structural measures. In these studies, we use the Penn Treebank Sample and SemLink 1.1 corpora, both in English. We test, also for English, the applicability of our proposal in the Finance and Tourism domains with text extracted from the Wikicorpus 1.0. This applicability was extrinsically analyzed based on the text categorization task, which was evaluated through functional measures traditionally used in this area. We also performed some preliminary studies for a corpus in Portuguese: PLN-BR CATEG. In our studies, we obtained satisfactory results which show that the proposed approach is promising. / Este trabalho tem como prop?sito estudar estruturas conceituais geradas seguindo o m?todo Formal Concept Analysis. Usamos na constru??o dessas estruturas informa??es lexicossem?nticas extra?das dos textos, dentre as quais se destacam os pap?is sem?nticos. Em nossa pesquisa, propomos formas de inclus?o de tais pap?is nos conceitos produzidos por esse m?todo formal. Analisamos a contribui??o dos pap?is sem?nticos e das classes de verbos na composi??o dos conceitos, por meio de medidas de ordem estrutural. Nesses estudos, utilizamos os corpora Penn TreeBank Sample e SemLink 1.1, ambos em L?ngua Inglesa. Testamos, tamb?m para L?ngua Inglesa, a aplicabilidade de nossa proposta nos dom?nios de Finan?as e Turismo com textos extra?dos do corpus Wikicorpus 1.0. Essa aplicabilidade foi analisada extrinsecamente com base na tarefa de categoriza??o de textos, a qual foi avaliada a partir de medidas de ordem funcional tradicionalmente usadas nessa ?rea. Realizamos ainda alguns estudos preliminares relacionados ? nossa proposta para um corpus em L?ngua Portuguesa: PLN-BR CATEG. Obtivemos, nos estudos realizados, resultados satisfat?rios os quais mostram que a abordagem proposta ? promissora.
208

Recursos do processamento da l?ngua natural aplicados na recupera??o sem?ntica de documentos de caso de uso

Silva J?nior, Cust?dio Gast?o da 15 December 2009 (has links)
Made available in DSpace on 2015-04-14T14:49:53Z (GMT). No. of bitstreams: 1 442334.pdf: 1018335 bytes, checksum: c77dd540cf5f9308c80ab3c9f7da5374 (MD5) Previous issue date: 2009-12-15 / The Requirements Engineering basically deals with how to discover, analyze, register and verify the functions and restrictions that software must consider. In this process the designer not only concentrates in understanding the necessities, goals and certainties of the interested users but also in changing them into software devices. This process is known as development cycle and it is carried out until the software covers all the requirements of the involved users. This study describes how the resources of the natural language processing were used in the construction for a solution of semantics recovery of use case document and it also presents the reached findings. For the construction of the solution, it is specified a method that organizes the preparation and recovery works in two phases. The first describes the form how the corpus must be prepared and how the terms used in the preparation phase can be used in the definition of the keys concepts of the domain. The second phase explains how the document recovery is carried out and shows how the described relationships in the ontology are used to improve the results of the recovery. The presented findings reveal the described method in this study is efficient, since it presented a covering of 100% in both tests. Related of measure of precision, that presented an inferior result of 50%, it was compensated by the ranking algorithm that sorted the documents of similar form of the manual classification done by the users. / A engenharia de requisitos trata fundamentalmente de como descobrir, analisar, documentar e verificar as fun??es e restri??es que um software deve contemplar. Neste processo o projetista se concentra em entender as necessidades, metas e convic??es dos interessados e em como transform?-las em artefatos de software. Isso ? conhecido como ciclo de desenvolvimento e ? realizado at? que o software atenda todos os requisitos dos interessados. Este trabalho descreve como os recursos do processamento da l?ngua natural foram utilizados na constru??o de uma solu??o para recupera??o sem?ntica de documentos de caso de uso e apresenta os resultados alcan?ados. Para a constru??o da solu??o, foi especificado um m?todo que organiza os trabalhos de prepara??o e recupera??o em duas fases. A primeira descreve a forma como o corpus deve ser preparado e como os termos utilizados na prepara??o podem ser utilizados na defini??o das palavras-chave do dom?nio. A segunda fase explica como a recupera??o de documentos ? realizada, e mostra como os relacionamentos descritos na ontologia s?o utilizados para melhorar os resultados da recupera??o. Os resultados apresentados mostram que o m?todo descrito neste trabalho ? promissor, visto que ele apresentou cobertura de 100% em ambos os testes. Quanto a medida de precis?o, que apresentou resultado inferior a 50%, o resultado foi compensado pelo algoritmo de ranking que ordenou os documentos de forma similar a classifica??o manual feita pelos usu?rios.
209

O reconhecimento de entidades nomeadas por meio de conditional Random Fields para a l?ngua portuguesa

Amaral, Daniela Oliveira Ferreira do 08 March 2013 (has links)
Made available in DSpace on 2015-04-14T14:50:10Z (GMT). No. of bitstreams: 1 457280.pdf: 1466158 bytes, checksum: 50a287eaebe41a6c016dd9b8f5bac19d (MD5) Previous issue date: 2013-03-08 / Many tasks in Natural Language Processing involves the provision of a large number of variables, which depend on each other. Structured prediction methods are essentially a combination of classification and modeling based on graphs. They combine the power of classification methods with the ability of this type of modeling to play compactly, multivariate data. The classification methods perform prediction using a large set of features as input. Conditional Random Fields (CRF) is a probabilistic method for predicting structured and has been widely applied in various areas such as natural language processing, including the Named Entity Recognition (NER), computer vision, and bioinformatics. Therefore, this dissertation proposes the application of CRF to NER for the Portuguese Language and to evaluate their performance based on the HAREM corpus. Finally, comparative tests of similar approaches were performed, illustrating the efficiency and competitiveness of the proposed system. / Muitas tarefas de Processamento da Linguagem Natural envolvem a previs?o de um grande n?mero de vari?veis, as quais dependem umas das outras. M?todos de predi??o estruturada s?o, essencialmente, uma combina??o de classifica??o e de modelagem baseada em grafo. Eles unem a compet?ncia dos m?todos de classifica??o com a capacidade desse tipo de modelagem de reproduzir, compactamente, dados multivariados. Os m?todos de classifica??o realizam a predi??o usando um grande conjunto de features como entrada. Conditional Random Fields (CRF) ? um m?todo probabil?stico de predi??o estruturada e tem sido amplamente aplicado em diversas ?reas, tais como processamento da linguagem natural, incluindo o Reconhecimento de Entidades Nomeadas (REN), vis?o computacional e bioinform?tica. Sendo assim, neste trabalho ? proposta a aplica??o do CRF para o REN em textos da L?ngua Portuguesa e, sequencialmente, avaliar o seu desempenho com base no corpus do HAREM. Finalmente, testes comparativos da abordagem determinada versus a similar da literatura foram realizados, ilustrando a competitividade e efic?cia do sistema proposto.
210

Resolu??o de correfer?ncias em l?ngua portuguesa : pessoa, local e organiza??o

Fonseca, Evandro Brasil 21 March 2014 (has links)
Made available in DSpace on 2015-04-14T14:50:12Z (GMT). No. of bitstreams: 1 458767.pdf: 3173862 bytes, checksum: 0f4ea1ec0b9741e176522697d0d4dd1d (MD5) Previous issue date: 2014-03-21 / Coreference resolution is a process that consists in identifying the several forms that a specific named entity may assume on certain text. In other words, this process consists in identifying certain terms and expressions that refer certain named entity. The automatic textual coreference resolution is in a very important context in the Natural Language Processing (NLP) area, because several systems need itstasks, such as the relation extraction between named entities. The linguistic processing level depends on the knowledgeabout the world, and this is a challenge for thisarea, mainly for the Portuguese language. The growing necessity of NLP tools and the lack of open source resources for Portuguese have inspired the research on this language, and they became the focus of this dissertation. The present work aims at building an open source tool for the Coreference resolution in Portuguese, focusing on the Person, Location and Organization domains. These three categories were chosen given their relevance for most NLP tasks, because they represent more specifically entities of common interest.Furthermore, they are the most explored categories in the related works. The choice for working only with open source resourcesis because most of related works forPortuguese usesprivate software, which limits his availability and his usability.The methodology is based on supervised machine learning. For this task, the use of features that help on the correct classification of noun phrase pairs as coreferent or non-coreferent are essential for grouping them later, thus building coreference chains.Although there are still many challenges to be overcome, the results of the system described in this dissertationare encouraging when compared indirectly, by using the same metric,to the current state of the art. / Resolu??o de correfer?ncias ? um processo que consiste em identificar as diversas formas que uma mesma entidade nomeada pode assumir em um determinado texto. Em outras palavras, esse processo consiste em identificar determinados termos e express?es que remetem a uma mesma entidade. A resolu??o autom?tica de correfer?ncia textual est? inserida num contexto muito importante na ?rea de Processamento da Linguagem Natural (PLN), pois v?rios sistemas necessitam dessa tarefa, como, por exemplo, a extra??o de rela??o entre entidades nomeadas. O n?vel de processamento lingu?stico depende do conhecimento de mundo, e isso ainda ? um desafio para a ?rea. A necessidade crescente por ferramentas de PLN e a escassez de recursos livres para a l?ngua portuguesa motivaram trabalhar com essa l?ngua nesta disserta??o de mestrado. O presente trabalho teve por objetivo desenvolver uma ferramenta open source para a resolu??o de correfer?ncias em l?ngua portuguesa, tendo como foco as categorias de entidades nomeadas Pessoa, Local e Organiza??o. Optou-se por essas tr?s categorias por essas serem as mais relevantes para a maioria das tarefas de PLN, pelo fato de tratarem entidades mais espec?ficas e de interesse comum. Al?m disso, s?o as categorias mais exploradas em trabalhos voltados ? resolu??o de correfer?ncia. Escolheu-se trabalhar apenas com recursos open source pelo fato de a maioria dos trabalhos para a l?ngua portuguesa utilizar recursos propriet?rios. Isso acaba limitando a disponibilidade da ferramenta e, consequentemente, o seu uso. A metodologia utilizada ? baseada em aprendizado de m?quina supervisionado. Para tal, o uso de features que auxiliem na correta classifica??o de pares de sintagmas como correferentes ou n?o-correferentes ? fundamental para,posteriormente,agrup?-los, gerando cadeias de correfer?ncia.Embora ainda existam muitos desafios a serem resolvidos, os resultados do sistema descrito nesta disserta??o s?o animadores, quando comparados indiretamente, por meio de uma mesma m?trica, ao atual estado da arte.

Page generated in 0.0211 seconds