• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 291
  • 49
  • 6
  • 5
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • Tagged with
  • 348
  • 348
  • 281
  • 177
  • 151
  • 91
  • 62
  • 56
  • 55
  • 55
  • 52
  • 51
  • 50
  • 47
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Geração de expressões de referência em situações de comunicação com restrição de tempo / Referring Expression Generation in time-constrained situations of communication

Mariotti, Andre Costa 13 September 2017 (has links)
Este documento apresenta uma pesquisa a nvel de mestrado acadêmico, cujo o foco é a tarefa computacional de Geração de Expressões de Referência (GER), uma parte fundamental da comunicação que é estudada na Geração de Linguagem Natural (GLN). Mais especificamente, foram estudados os aspectos da linguagem que se manifestam em contextos de comunicação com restrição de tempo, e com base nisso foi proposto um modelo computacional de GER para produzir expressões de referência com o nvel de superespecificação parametrizável. Além disso, considerando-se as caractersticas de adaptabilidade do modelo proposto, também foi sugerida uma generalização deste para outros domnios, como os que compreendem contextos de comunicação além dos que possuem restrição de tempo / This document presents a MSc research that focused on the computational subtask of Referring Expression Generation (REG), an important component of Natural Language Generation (NLG) systems. More specifically, this work analyzes how time-restricted contexts of communication may affect language production and a computational model of GER was proposed to produce reference expressions with parameterizable superspecification. Furthermore, given the adaptability characteristics of the proposed model, it has also been suggested a generalization to other domains, which includes communication contexts besides those that have time constraints
92

Investigação de métodos de desambiguação lexical de sentidos de verbos do português do Brasil / Research of word sense disambiguation methods for verbs in brazilian portuguese

Cabezudo, Marco Antonio Sobrevilla 28 August 2015 (has links)
A Desambiguação Lexical de Sentido (DLS) consiste em determinar o sentido mais apropriado da palavra em um contexto determinado, utilizando-se um repositório de sentidos pré-especificado. Esta tarefa é importante para outras aplicações, por exemplo, a tradução automática. Para o inglês, a DLS tem sido amplamente explorada, utilizando diferentes abordagens e técnicas, contudo, esta tarefa ainda é um desafio para os pesquisadores em semântica. Analisando os resultados dos métodos por classes gramaticais, nota-se que todas as classes não apresentam os mesmos resultados, sendo que os verbos são os que apresentam os piores resultados. Estudos ressaltam que os métodos de DLS usam informações superficiais e os verbos precisam de informação mais profunda para sua desambiguação, como frames sintáticos ou restrições seletivas. Para o português, existem poucos trabalhos nesta área e só recentemente tem-se investigado métodos de uso geral. Além disso, salienta-se que, nos últimos anos, têm sido desenvolvidos recursos lexicais focados nos verbos. Nesse contexto, neste trabalho de mestrado, visou-se investigar métodos de DLS de verbos em textos escritos em português do Brasil. Em particular, foram explorados alguns métodos tradicionais da área e, posteriormente, foi incorporado conhecimento linguístico proveniente da Verbnet.Br. Para subsidiar esta investigação, o córpus CSTNews foi anotado com sentidos de verbos usando a WordNet-Pr como repositório de sentidos. Os resultados obtidos mostraram que os métodos de DLS investigados não conseguiram superar o baseline mais forte e que a incorporação de conhecimento da VerbNet.Br produziu melhorias nos métodos, porém, estas melhorias não foram estatisticamente significantes. Algumas contribuições deste trabalho de mestrado foram um córpus anotado com sentidos de verbos, a criação de uma ferramenta que auxilie a anotação de sentidos, a investigação de métodos de DLS e o uso de informações especificas de verbos (provenientes da VerbNet.Br) na DLS de verbos. / Word Sense Disambiguation (WSD) aims at identifying the appropriate sense of a word in a given context, using a pre-specified sense-repository. This task is important to other applications as Machine Translation. For English, WSD has been widely studied, using different approaches and techniques, however, this task is still a challenge for researchers in Semantics. Analyzing the performance of different methods by the morphosyntactic class, note that not all classes have the same results, and the worst results are obtained for Verbs. Studies highlight that WSD methods use shallow information and Verbs need deeper information for its disambiguation, like syntactic frames or selectional restrictions. For Portuguese, there are few works in WSD and, recently, some works for general purpose. In addition, it is noted that, recently, have been developed lexical resources focused on Verbs. In this context, this master work aimed at researching WSD methods for verbs in texts written in Brazilian Portuguese. In particular, traditional WSD methods were explored and, subsequently, linguistic knowledge of VerbNet.Br was incorporated in these methods. To support this research, CSTNews corpus was annotated with verb senses using the WordNet-Pr as a sense-repository. The results showed that explored WSD methods did not outperform the hard baseline and the incorporation of VerbNet.Br knowledge yielded improvements in the methods, however, these improvements were not statistically significant. Some contributions of this work were the sense-annotated corpus, the creation of a tool for support the sense-annotation, the research of WSD methods for verbs and the use of specific information of verbs (from VerbNet.Br) in the WSD of verbs.
93

Método semi-automático de construção de ontologias parciais de domínio com base em textos. / Semi-automatic method for the construction of partial domain ontologies based on texts.

Carvalheira, Luiz Carlos da Cruz 31 August 2007 (has links)
Os recentes desenvolvimentos relacionados à gestão do conhecimento, à web semântica e à troca de informações eletrônicas por meio de agentes têm suscitado a necessidade de ontologias para descrever de modo formal conceituações compartilhadas à respeito dos mais variados domínios. Para que computadores e pessoas possam trabalhar em cooperação é necessário que as informações por eles utilizadas tenham significados bem definidos e compartilhados. Ontologias são instrumentos viabilizadores dessa cooperação. Entretanto, a construção de ontologias envolve um processo complexo e longo de aquisição de conhecimento, o que tem dificultado a utilização desse tipo de solução em mais larga escala. Este trabalho apresenta um método de criação semi-automática de ontologias a partir do uso de textos de um domínio qualquer para a extração dos conceitos e relações presentes nesses textos. Baseando-se na comparação da freqüência relativa dos termos extraídos com os escritos típicos da língua e na extração de padrões lingüísticos específicos, este método identifica termos candidatos a conceitos e relações existentes entre eles, apresenta-os a um ontologista para validação e, ao final, disponibiliza a ontologia ratificada para publicação e uso especificando-a na linguagem OWL. / The recent developments related to knowledge management, the semantic web and the exchange of electronic information through the use of agents have increased the need for ontologies to describe, in a formal way, shared understanding of a given domain. For computers and people to work in cooperation it is necessary that information have well defined and shared definitions. Ontologies are enablers of that cooperation. However, ontology construction remains a very complex and costly process, which has hindered its use in a wider scale. This work presents a method for the semi-automatic construction of ontologies using texts of any domain for the extraction of concepts and relations. By comparing the relative frequency of terms in the text with their expected use and extracting specific linguistic patterns, the method identifies concepts and relations and specifies the corresponding ontology using OWL for further use by other applications.
94

Modelo para sumarização computacional de textos científicos. / Scientific text computational summarization model.

Tarafa Guzmán, Alejandro 07 March 2017 (has links)
Neste trabalho, propõe-se um modelo para a sumarização computacional extrativa de textos de artigos técnico-cientificos em inglês. A metodologia utilizada baseia-se em um módulo de avaliação de similaridade semântica textual entre sentenças, desenvolvido especialmente para integrar o modelo de sumarização. A aplicação deste módulo de similaridade à extração de sentenças é feita por intermédio do conceito de uma janela deslizante de comprimento variável, que facilita a detecção de equivalência semântica entre frases do artigo e aquelas de um léxico de frases típicas, atribuíveis a uma estrutura básica dos artigos. Os sumários obtidos em aplicações do modelo apresentam qualidade razoável e utilizável, para os efeitos de antecipar a informação contida nos artigos. / In this work a model is proposed for the computational extractive summarization of scientific papers in English. Its methodology is based on a semantic textual similarity module, for the evaluation of equivalence between sentences, specially developed to integrate the summarization model. A variable width window facilitates the application of this module to detect semantic similarity between phrases in the article and those in a basic structure, assignable to the articles. Practical summaries obtained with the model show usable quality to anticipate the information found in the papers.
95

Exploração da mineração de texto em documentos da saúde em diferentes idiomas para acompanhamento médico de pacientes com doenças crônicas / Exploration of text mining in health documents in different languages for medical follow-up of patients with chronic diseases

Cacheta, Ana Katariny de Souza 08 November 2018 (has links)
O CleverCare é um framework para controle, gestão e orientação de pacientes que necessitam de acompanhamento médico contínuo. O sistema possui ferramentas de mineração de textos responsáveis por compreender o conteúdo das mensagens e integrar com serviços de mensagem para envio e recebimento das mesmas, onde inicia diálogos com o paciente para gerenciar atividades rotineiras personalizadas e permite, inclusive, ao paciente fazer perguntas a respeito de uma enfermidade ou condição clínica. Desta forma, a comunicação com o paciente é a base para o sucesso do CleverCare, o qual atualmente possui suporte para o português, atuando por meio de suporte e empoderando o paciente ao cuidado de sua saúde. Compreender as implicações lógicas e adaptações necessárias para a compreensão de textos em diferentes idiomas pode fornecer informações para a aplicação dos mesmos procedimentos a outros idiomas, correlacionando informações e estabelecendo lógicas para traduções e tratamento de termos específicos da área, permitindo atender a uma maior demanda de pacientes que necessitam de tratamento contínuo. Para o desenvolvimento do projeto foram utilizadas abordagens e técnicas visando a escalabilidade e expansão de idiomas de maneira dinâmica. Para isso além das decisões de alterações específicas do sistema foram utilizadas ferramentas como o NLTK para o aperfeiçoamento e realização das adaptações necessárias ao projeto, uma vez que essa ferramenta possui suporte a diversos idiomas e está em constante melhoria. Os resultados, analisados por meio de técnicas de acurácia, precisão e revocação, demonstram que a melhoria observada com as adaptações do sistema para suporte aos idiomas de interesse foram positivas e significativas, com aumento de 13% nos indicadores de revocação e acurácia e manutenção da precisão em 100%. Sendo assim, o CleverCare apresentou um bom desempenho e foi capaz de classificar corretamente as mensagens, permitindo ao sistema reconhecer e classificar corretamente diferentes idiomas. Esta solução permite ao sistema não apenas fazer o processamento de diálogos em português, inglês e espanhol, mas também ingressar no mercado internacional com a possibilidade de expansão e escalabilidade para outros idiomas / CleverCare is a framework for the control, management, and guidance of patients who need ongoing medical follow-up. The system has text-mining tools responsible for understanding the content of the messages and integrating with message services to send and receive messages, where it initiates dialogues with the patient to manage personalized routine activities and allows the patient to ask questions about them in relation to an illness or clinical condition. In this way, communication with the patient is the basis for the success of CleverCare, which currently has support for Portuguese, acting through support and empowering the patient to take care of their health. Understanding the logical implications and adaptations required for the understanding of texts in different languages can provide information for the application of the same procedures to other languages, correlating information and establishing logics for translations and treatment of specific terms of the area, allowing to supply a greater demand of patients who require continuous treatment. For the development of the project, it was used approaches and techniques aimed at scaling and language expansion in a dynamic way. For this in addition to the system-specific changes decisions tools like NLTK were used, aiming at the improvement and accomplishment of the necessary adaptations to the project, since this tool has support to several languages and is constantly improving. The results, analyzed using accuracy, precision and recall techniques, demonstrate that the improvement observed with the system adaptations to support the languages of interest were positive and significant, with an increase of 13% in recall and accuracy indicators and maintenance of 100% of precision. Thus, CleverCare performed well and was able to classify messages correctly, allowing the system to correctly recognize and classify different languages. This solution allows the system not only to process dialogues in Portuguese, English and Spanish, but also to enter the international market with the possibility of expansion and scalability for other languages
96

Exploração da mineração de texto em documentos da saúde em diferentes idiomas para acompanhamento médico de pacientes com doenças crônicas / Exploration of text mining in health documents in different languages for medical follow-up of patients with chronic diseases

Ana Katariny de Souza Cacheta 08 November 2018 (has links)
O CleverCare é um framework para controle, gestão e orientação de pacientes que necessitam de acompanhamento médico contínuo. O sistema possui ferramentas de mineração de textos responsáveis por compreender o conteúdo das mensagens e integrar com serviços de mensagem para envio e recebimento das mesmas, onde inicia diálogos com o paciente para gerenciar atividades rotineiras personalizadas e permite, inclusive, ao paciente fazer perguntas a respeito de uma enfermidade ou condição clínica. Desta forma, a comunicação com o paciente é a base para o sucesso do CleverCare, o qual atualmente possui suporte para o português, atuando por meio de suporte e empoderando o paciente ao cuidado de sua saúde. Compreender as implicações lógicas e adaptações necessárias para a compreensão de textos em diferentes idiomas pode fornecer informações para a aplicação dos mesmos procedimentos a outros idiomas, correlacionando informações e estabelecendo lógicas para traduções e tratamento de termos específicos da área, permitindo atender a uma maior demanda de pacientes que necessitam de tratamento contínuo. Para o desenvolvimento do projeto foram utilizadas abordagens e técnicas visando a escalabilidade e expansão de idiomas de maneira dinâmica. Para isso além das decisões de alterações específicas do sistema foram utilizadas ferramentas como o NLTK para o aperfeiçoamento e realização das adaptações necessárias ao projeto, uma vez que essa ferramenta possui suporte a diversos idiomas e está em constante melhoria. Os resultados, analisados por meio de técnicas de acurácia, precisão e revocação, demonstram que a melhoria observada com as adaptações do sistema para suporte aos idiomas de interesse foram positivas e significativas, com aumento de 13% nos indicadores de revocação e acurácia e manutenção da precisão em 100%. Sendo assim, o CleverCare apresentou um bom desempenho e foi capaz de classificar corretamente as mensagens, permitindo ao sistema reconhecer e classificar corretamente diferentes idiomas. Esta solução permite ao sistema não apenas fazer o processamento de diálogos em português, inglês e espanhol, mas também ingressar no mercado internacional com a possibilidade de expansão e escalabilidade para outros idiomas / CleverCare is a framework for the control, management, and guidance of patients who need ongoing medical follow-up. The system has text-mining tools responsible for understanding the content of the messages and integrating with message services to send and receive messages, where it initiates dialogues with the patient to manage personalized routine activities and allows the patient to ask questions about them in relation to an illness or clinical condition. In this way, communication with the patient is the basis for the success of CleverCare, which currently has support for Portuguese, acting through support and empowering the patient to take care of their health. Understanding the logical implications and adaptations required for the understanding of texts in different languages can provide information for the application of the same procedures to other languages, correlating information and establishing logics for translations and treatment of specific terms of the area, allowing to supply a greater demand of patients who require continuous treatment. For the development of the project, it was used approaches and techniques aimed at scaling and language expansion in a dynamic way. For this in addition to the system-specific changes decisions tools like NLTK were used, aiming at the improvement and accomplishment of the necessary adaptations to the project, since this tool has support to several languages and is constantly improving. The results, analyzed using accuracy, precision and recall techniques, demonstrate that the improvement observed with the system adaptations to support the languages of interest were positive and significant, with an increase of 13% in recall and accuracy indicators and maintenance of 100% of precision. Thus, CleverCare performed well and was able to classify messages correctly, allowing the system to correctly recognize and classify different languages. This solution allows the system not only to process dialogues in Portuguese, English and Spanish, but also to enter the international market with the possibility of expansion and scalability for other languages
97

Reconhecimento de expressões de emoções na interação mediada por computador

Pasqualotti, Paulo Roberto 29 February 2008 (has links)
Made available in DSpace on 2015-03-05T13:59:43Z (GMT). No. of bitstreams: 0 Previous issue date: 29 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / No Processamento da Linguagem Natural (PLN) os avanços recentes na análise automática de texto conduziram ao surgimento de uma nova área que é o tratamento e reconhecimento dos aspectos subjetivos no texto, considerando fatores como opiniões, sentimentos, emoções e afetividade. Entre as aplicações dessa área podemos citar: medir o nível de satisfação de clientes, reconhecer a diferença entre emissão de opiniões e descrição de fatos, reconhecer perfil empreendedor e posturas interpessoais, identificar possibilidades de estados depressivos em pessoas, entre outras possibilidades, envolvendo a subjetividade. A pesquisa na área requer o desenvolvimento de métodos, recursos e técnicas, que, integrados, possibilitarão a sistemas computacionais serem capazes de manipular significado afetivo no discurso. Porém, por tratar-se de estudos recentes, os recursos ainda são bastante escassos para a língua portuguesa. Dessa forma, essa dissertação propõe o desenvolvimento de um léxico afetivo para a língua portuguesa, den / In the area of Natural Language Processing (NLP) the recent advances in text automatic analysis have led to the emergence of a new area which is the management and recognition subjective aspects in texts, considering factors such as opinion, sentiments, emotions and affection. Among the applications of this area we enumerate: to determine the client satisfaction level, to recognize the difference between opinion emission and description of facts, to recognize entrepreneur profile and interpersonal posture, to identify the possibility of depressive states in people, among other possibilities related to subjectivity. The research in this area requires the development of methods, resources and techniques, that, integrated, can make computational systems able to manage the affective meaning in discourse. However, since these studies are recent, the resources are scarce for the portuguese language. In this way, this dissertation proposes the development of an affective lexicon for the portuguese language, named W
98

Uma abordagem semi-autom?tica para identifica??o de estruturas ontol?gicas a partir de textos na l?ngua portuguesa do Brasil

Bas?gio, T?lio Lima 05 January 2007 (has links)
Made available in DSpace on 2015-04-14T14:49:07Z (GMT). No. of bitstreams: 1 403014.pdf: 1442012 bytes, checksum: 5c452e448ac645ff8803369f1459add6 (MD5) Previous issue date: 2007-01-05 / Para v?rias ?reas de aplica??o, a constru??o semi-autom?tica ou autom?tica de ontologias seria extremamente ?til. Abordagens semi-autom?ticas para a extra??o de ontologias a partir de textos t?m sido propostas na literatura, as quais sugerem a extra??o de conhecimento encontrado nos textos de um dom?nio, com o apoio de t?cnicas de processamento da l?ngua natural. Este trabalho prop?e uma abordagem para suportar algumas fases do processo de aquisi??o de estruturas ontol?gicas, mais especificamente as fases de extra??o de conceitos e rela??es taxon?micas, de modo a semi-automatizar os passos da constru??o de ontologias a partir de textos na l?ngua portuguesa do Brasil. O resultado obtido serve como ponto de partida ao engenheiro de ontologia. Para avalia??o da abordagem proposta, foi desenvolvido um prot?tipo que incorpora mecanismos de importa??o de corpus, identifica??o de termos relevantes, identifica??o de rela??es taxon?micas entre esses termos e gera??o da estrutura ontol?gica em OWL. Este prot?tipo foi utilizado num estudo de caso sobre o dom?nio do Turismo, possibilitando a avalia??o com rela??o a diferentes aspectos do processo de aquisi??o de conceitos e rela??es.
99

Extra??o de estruturas ontol?gicas de dom?nio da Wikip?dia em l?ngua portuguesa

Xavier, Clarissa Castell? 08 March 2010 (has links)
Made available in DSpace on 2015-04-14T14:49:24Z (GMT). No. of bitstreams: 1 424692.pdf: 1937010 bytes, checksum: f88759e6fc1959ff14fdb14bd6afdae7 (MD5) Previous issue date: 2010-03-08 / A necessidade crescente por ontologias e a dificuldade em constru?-las manualmente v?m gerando iniciativas em busca de m?todos para a constru??o autom?tica e semi-autom?tica de ontologias. A Wikip?dia, contendo uma grande quantidade de conte?do organizado, livremente dispon?vel e cobrindo uma extensa faixa de assuntos, mostra-se uma fonte interessante para extra??o de estruturas ontol?gicas. Neste trabalho propomos um m?todo semi-autom?tico para a extra??o de estruturas ontol?gicas de dom?nio a partir da estrutura de categorias da Wikip?dia em portugu?s. Para validar o m?todo proposto, realizamos um estudo de caso no qual foi implementado um prot?tipo gerando uma estrutura ontol?gica do dom?nio Turismo. Os resultados obtidos foram avaliados atrav?s da compara??o da estrutura ontol?gica gerada com um mapeamento de refer?ncia, apresentando-se promissores, compar?veis aos encontrados na literatura para outros idiomas.
100

Extra??o autom?tica de conceitos a partir de textos em l?ngua portuguesa

Lopes, Lucelene 26 January 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:48Z (GMT). No. of bitstreams: 1 439085.pdf: 7508888 bytes, checksum: c69f67a5ec361212f83a17a4407866ce (MD5) Previous issue date: 2012-01-26 / This thesis describes a process to extract concepts from texts in portuguese language. The proposed process starts with linguistic annotated corpora from specific domains, and it generates lists of concepts for each corpus. The proposal of a linguistic oriented extraction procedure based on noun phrase detection, and a set of heuristics to improve the overall quality of concept candidate extraction is made. The improvement in precision and recall of extracted term list is from approximatively from 10% to more more than 60%. A new index (tf-dcf) based on contrastive corpora is proposed to sort the concept candidate terms according to the their relevance to their respective domain. The precision results achieved by this new index are superior to to the results achieved by indices proposed in similar works. Cut-off points are proposed in order to identify, among extracted concept candidate terms sorted according to their relevance, which of them will be considered concepts. A hybrid approach to choose cut-off points delivers reasonable F-measure values, and it brings quality to the concept identification process. Additionally, four applications are proposed in order to facilitate the comprehension, handling, and visualization of extracted terms and concepts. Such applications enlarge this thesis contributions available to a broader community of researchers and users of Natural Language Processing area. The proposed process is described in detail, and experiments empirically evaluate each process step. Besides the scientific contribution made with the process proposal, this thesis also delivers extracted concept lists for five different domain corpora, and the prototype of a software tool (EχATOLP) implementing all steps of the proposed process. / Essa tese descreve um processo para extrair conceitos de textos em l?ngua portuguesa. O processo proposto inicia com corpora de dom?nio linguisticamente anotados, e gera listas de conceitos dos dom?nios de cada corpus. Utiliza-se uma abordagem lingu?stica, que baseia-se na identifica??o de sintagmas nominais e um conjunto de heur?sticas que melhoram a qualidade da extra??o de candidatos a conceitos. Essa melhora ? expressa por incrementos aproximadamente de 10% para mais de 60% nos valores de precis?o e abrang?ncia das listas de termos extra?das. Prop?e-se um novo ?ndice (tf-dcf) baseado na compara??o com corpora contrastantes, para ordenar os termos candidatos a conceito extra?dos de acordo com suas relev?ncias para o corpus de dom?nio. Os resultados obtidos com esse novo ?ndice s?o superiores aos resultados obtidos com ?ndices propostos em trabalhos similares. Aplicam-se pontos de corte para identificar, dentre os termos candidatos classificados segundo sua relev?ncia, quais ser?o considerados conceitos. O uso de uma abordagem h?brida para escolha de pontos de corte fornece valores adequados de medida F, trazendo qualidade ao processo de identifica??o de conceitos. Adicionalmente. prop?em-se quatro aplica??es para facilitar a compreens?o, manipula??o e visualiza??o dos termos e conceitos extra?dos. Essas aplica??es tornam as contribui??es dessa tese acess?veis a um maior n?mero de pesquisadores e usu?rios da ?rea de Processamento de Linguagem Natural. Todo o processo proposto ? descrito em detalhe, e experimentos avaliam empiricamente cada passo. Al?m das contribui??es cient?ficas feitas com a proposta do processo, essa tese tamb?m apresenta listas de conceitos extra?dos para cinco diferentes corpora de dom?nio, e o prot?tipo de numa ferramenta de software (EXATOLP) que implementa todos os passos propostos.

Page generated in 0.0537 seconds