• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 343
  • 113
  • 42
  • 8
  • 4
  • 3
  • 3
  • 3
  • 3
  • 1
  • 1
  • Tagged with
  • 511
  • 175
  • 142
  • 67
  • 47
  • 43
  • 38
  • 38
  • 37
  • 36
  • 36
  • 34
  • 34
  • 33
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Um método para a fusão automática de sentenças similares em português / A method for automatic fusion of similar sentence in portuguese

Seno, Eloize Rossi Marques 24 May 2010 (has links)
Nos últimos anos, há um crescente interesse por aplicações do Processamento de Língua Natural (PLN) que processam uma coleção de textos sobre um mesmo assunto e produzem um novo texto de saída, quer seja um sumário ou uma resposta para uma dada pergunta. Para se produzir textos com qualidade, essas aplicações precisam lidar adequadamente com vários fenômenos, tais como a redundância, a contradição e a complementaridade de informações. Nesse contexto, um processo que permita a identificação de informações comuns em um conjunto de sentenças relacionadas, e gere uma nova sentença a partir da fusão de informações das sentenças de entrada, sem redundâncias e sem contradições, é de grande relevância para as aplicações que processam múltiplos textos. A fusão automática de sentenças é um tema de pesquisa relativamente recente na literatura de PLN e para a língua portuguesa, em particular, não se tem conhecimento de trabalhos dessa natureza. Neste trabalho propõe-se um método inédito para a fusão de sentenças similares em português, baseado em uma abordagem simbólica e independente de domínio, e produz-se o Zíper, um sistema de fusão sentencial que implementa o método proposto. O Zíper é o primeiro sistema a contemplar a geração de sentenças que expressam todas as informações das sentenças de entrada, ou seja, que representam a união do conjunto. Além disso, ele permite a geração de sentenças que expressam apenas as informações redundantes do conjunto (consideradas mais importantes), isto é, que representam a interseção das sentenças de entrada. O sistema foi avaliado intrinsecamente e os resultados obtidos mostram que, de modo geral, as sentenças produzidas são bem formadas e preservam a mensagem original do conjunto (isto é, a mensagem toda, na fusão por união e apenas a mensagem principal, na fusão por interseção). Zíper também foi avaliado extrinsecamente no contexto de um sumarizador multidocumento do português. Os resultados alcançados sugerem que o método proposto contribui para melhorar a qualidade dos sumários, reduzindo a redundância de informações, que frequentemente provoca a perda de coesão e de coerência / In recent years, there is increasing interest in applications of Natural Language Processing (NLP) that process a collection of texts on the same subject and generate a new output text, for instance, a summary or an answer to a given question. In order to generate quality texts, these applications need to cope with various phenomena such as information redundancy, contradiction and complementarity. In this context, a process that is able to identify common information in a set of related sentences and generate a new sentence by merging information from the input sentences, without redundancies and contradictions, is of great relevance for applications that process multiple texts. Automatic sentence fusion is a relatively new research topic in NLP literature and for Portuguese, in particular, we are not aware of any such work. This work proposes a new method for fusing similar sentences in Portuguese, based on a symbolic and domainindependent approach, and produces Zíper, a sentence fusion system that implements the proposed method. Zíper is the first such system to generate sentences that express all the information from input sentences, i.e., the union of the input set. Moreover, it allows generating sentences that express only the redundant information of the set (considered more important), i.e., the intersection of the input sentences. The system was evaluated intrinsically and the results show that, in general, the generated sentences are well formed and preserve the original message of the set (i.e. the entire message in the fusion by union, and only the main message in the fusion by intersection). Zíper was also evaluated extrinsically in the context of a Portuguese multi-document summarizer. The results suggest that it can improve the quality of summaries by reducing redundancy, which often causes loss of cohesion and coherence
142

Investigação de processo de conversão automática de textos estruturados para hiperdocumentos. / Investigation of an automatic conversion process from structured texts to hipertexts.

Dorante, Alessandra 28 November 1997 (has links)
Esta dissertação investiga o processo de conversão automática de textos estruturados para hiperdocumentos. Analisa vantagens e desvantagens da utilização de um processo automático. Faz um levantamento detalhado das etapas envolvidas nesta conversão. Como resultado da pesquisa propõe um processo de conversão baseado em definições formais da estrutura dos documentos e das citações. O domínio de aplicação do processo de conversão é o conjunto de normas estatutárias jurídicas brasileiras. Outro resultado deste trabalho é a ferramenta WebifyLaw que implementa o processo de conversão automática para o conjunto das normas estatutárias jurídicas brasileiras. Os resultados da aplicação da WebifyLaw na Constituição Federal, no Código Civil e no Código de Processo Civil e em outras 42 normas são apresentados e discutidos. / This work centered in the research of the automatic conversion of structured texts into hyperdocuments. It presents an analysis concerning the advantages and disadvantages of such automatic process. It also details the steps involved in this conversion. As one of the results it proposes an automatic conversion process, which is based on document structure and citations´ formal definitions. The application domain is set as Brazilian statutory norms. Another contribution from this work is a tool called WebifyLaw, which implements the automatic conversion process for the chosen domain. The tool was applied to the Brazilian Constitution, the Civil Code among other 42 norms. The results obtained in using this application are also presented and discussed.
143

Exploração de métodos de sumarização automática multidocumento com base em conhecimento semântico-discursivo / Exploration of automatic methods for multi-document summarization using discourse models

Cardoso, Paula Christina Figueira 05 September 2014 (has links)
A sumarização automática multidocumento visa à produção de um sumário a partir de um conjunto de textos relacionados, para ser utilizado por um usuário particular e/ou para determinada tarefa. Com o crescimento exponencial das informações disponíveis e a necessidade das pessoas obterem a informação em um curto espaço de tempo, a tarefa de sumarização automática tem recebido muita atenção nos últimos tempos. Sabe-se que em um conjunto de textos relacionados existem informações redundantes, contraditórias e complementares, que representam os fenômenos multidocumento. Em cada texto-fonte, o assunto principal é descrito em uma sequência de subtópicos. Além disso, as sentenças de um texto-fonte possuem graus de relevância diferentes. Nesse contexto, espera-se que um sumário multidocumento consista das informações relevantes que representem o total de textos do conjunto. No entanto, as estratégias de sumarização automática multidocumento adotadas até o presente utilizam somente os relacionamentos entre textos e descartam a análise da estrutura textual de cada texto-fonte, resultando em sumários que são pouco representativos dos subtópicos textuais e menos informativos do que poderiam ser. A fim de tratar adequadamente a relevância das informações, os fenômenos multidocumento e a distribuição de subtópicos, neste trabalho de doutorado, investigou-se como modelar o processo de sumarização automática usando o conhecimento semântico-discursivo em métodos de seleção de conteúdo e o impacto disso para a produção de sumários mais informativos e representativos dos textos-fonte. Na formalização do conhecimento semântico-discursivo, foram utilizadas as teorias semântico-discursivas RST (Rhetorical Structure Theory) e CST (Cross-document Structure Theory). Para apoiar o trabalho, um córpus multidocumento foi anotado com RST e subtópicos, consistindo em um recurso disponível para outras pesquisas. A partir da análise de córpus, foram propostos 10 métodos de segmentação em subtópicos e 13 métodos inovadores de sumarização automática. A avaliação dos métodos de segmentação em subtópicos mostrou que existe uma forte relação entre a estrutura de subtópicos e a análise retórica de um texto. Quanto à avaliação dos métodos de sumarização automática, os resultados indicam que o uso do conhecimento semântico-discursivo em boas estratégias de seleção de conteúdo afeta positivamente a produção de sumários informativos. / The multi-document summarization aims at producing a summary from a set of related texts to be used for an individual or/and a particular task. Nowadays, with the exponential growth of available information and the peoples need to obtain information in a short time, the task of automatic summarization has received wide attention. It is known that in a set of related texts there are pieces of redundant, contradictory and complementary information that represent the multi-document phenomenon. In each source text, the main subject is described in a sequence of subtopics. Furthermore, some sentences in the same text are more relevant than others. Considering this context, it is expected that a multi-document summary consists of relevant information that represents a set of texts. However, strategies for automatic multi-document summarization adopted until now have used only the relationships between texts and dismissed the analysis of textual structure of each source text, resulting in summaries that are less representative of subtopics and less informative than they could be. In order to properly treat the relevance of information, multi-document phenomena and distribution of subtopics, in this thesis, we investigated how to model the summarization process using the semantic-discursive knowledge and its impact for producing more informative and representative summaries from source texts. In order to formalize the semantic-discursive knowledge, we adopted RST (Rhetorical Structure Theory) and CST (Cross-document Structure Theory) theories. To support the work, a multi-document corpus was annotated with RST and subtopics, consisting of a new resource available for other researchers. From the corpus analysis, 10 methods for subtopic segmentation and 13 orignal methods for automatic summarization were proposed. The assessment of methods for subtopic segmentation showed that there is a strong relationship between the subtopics structure and the rhetorical analysis of a text. In regards to the assessment of the methods for automatic summarization, the results indicate that the use of semantic-discursive knowledge in good strategies for content selection affects positively the production of informative summaries.
144

Seleção de atributos relevantes para aprendizado de máquina utilizando a abordagem de Rough Sets. / Machine learning feature subset selection using Rough Sets approach.

Pila, Adriano Donizete 25 May 2001 (has links)
No Aprendizado de Máquina Supervisionado---AM---o algoritmo de indução trabalha com um conjunto de exemplos de treinamento, no qual cada exemplo é constituído de um vetor com os valores dos atributos e as classes, e tem como tarefa induzir um classificador capaz de predizer a qual classe pertence um novo exemplo. Em geral, os algoritmos de indução baseiam-se nos exemplos de treinamento para a construção do classificador, sendo que uma representação inadequada desses exemplos, bem como inconsistências nos mesmos podem tornar a tarefa de aprendizado difícil. Um dos problemas centrais de AM é a Seleção de um Subconjunto de Atributos---SSA---cujo objetivo é diminuir o número de atributos utilizados na representação dos exemplos. São três as principais razões para a realização de SSA. A primeira razão é que a maioria dos algoritmos de AM, computacionalmente viáveis, não trabalham bem na presença de vários atributos. A segunda razão é que, com um número menor de atributos, o conceito induzido através do classificador pode ser melhor compreendido. E, a terceira razão é o alto custo para coletar e processar grande quantidade de informações. Basicamente, são três as abordagens para a SSA: embedded, filtro e wrapper. A Teoria de Rough Sets---RS---é uma abordagem matemática criada no início da década de 80, cuja principal funcionalidade são os redutos, e será tratada neste trabalho. Segundo essa abordagem, os redutos são subconjuntos mínimos de atributos que possuem a propriedade de preservar o poder de descrição do conceito relacionado ao conjunto de todos os atributos. Neste trabalho o enfoque esta na abordagem filtro para a realização da SSA utilizando como filtro os redutos calculados através de RS. São descritos vários experimentos sobre nove conjuntos de dados naturais utilizando redutos, bem como outros filtros para SSA. Feito isso, os atributos selecionados foram submetidos a dois algoritmos simbólicos de AM. Para cada conjunto de dados e indutor, foram realizadas várias medidas, tais como número de atributos selecionados, precisão e números de regras induzidas. Também, é descrito um estudo de caso sobre um conjunto de dados do mundo real proveniente da área médica. O objetivo desse estudo pode ser dividido em dois focos: comparar a precisão dos algoritmos de indução e avaliar o conhecimento extraído com a ajuda do especialista. Embora o conhecimento extraído não apresente surpresa, pôde-se confirmar algumas hipóteses feitas anteriormente pelo especialista utilizando outros métodos. Isso mostra que o Aprendizado de Máquina também pode ser visto como uma contribuição para outros campos científicos. / In Supervised Machine Learning---ML---an induction algorithm is typically presented with a set of training examples, where each example is described by a vector of feature values and a class label. The task of the induction algorithm is to induce a classifier that will be useful in classifying new cases. In general, the inductive-learning algorithms rely on existing provided data to build their classifiers. Inadequate representation of the examples through the description language as well as inconsistencies in the training examples can make the learning task hard. One of the main problems in ML is the Feature Subset Selection---FSS---problem, i.e. the learning algorithm is faced with the problem of selecting some subset of feature upon which to focus its attention, while ignoring the rest. There are three main reasons that justify doing FSS. The first reason is that most ML algorithms, that are computationally feasible, do not work well in the presence of many features. The second reason is that FSS may improve comprehensibility, when using less features to induce symbolic concepts. And, the third reason for doing FSS is the high cost in some domains for collecting data. Basically, there are three approaches in ML for FSS: embedded, filter and wrapper. The Rough Sets Theory---RS---is a mathematical approach developed in the early 1980\'s whose main functionality are the reducts, and will be treated in this work. According to this approach, the reducts are minimal subsets of features capable to preserve the same concept description related to the entire set of features. In this work we focus on the filter approach for FSS using as filter the reducts obtained through the RS approach. We describe a series of FSS experiments on nine natural datasets using RS reducts as well as other filters. Afterwards we submit the selected features to two symbolic ML algorithms. For each dataset, various measures are taken to compare inducers performance, such as number of selected features, accuracy and number of induced rules. We also present a case study on a real world dataset from the medical area. The aim of this case study is twofold: comparing the induction algorithms performance as well as evaluating the extracted knowledge with the aid of the specialist. Although the induced knowledge lacks surprising, it allows us to confirm some hypothesis already made by the specialist using other methods. This shows that Machine Learning can also be viewed as a contribution to other scientific fields.
145

Indexação automática e visualização de informações: um estudo baseado em lógica paraconsistente / Automatic indexing and information visualization: a research based on Paraconsistent logic

Corrêa, Carlos Alberto 17 May 2011 (has links)
Pode-se afirmar que os processos de organização, recuperação e visualização de informações estão interligados por pelo menos um ponto em comum: a indexação de textos ou documentos. A indexação, um componente essencial do tratamento e organização de informações, é também importante tanto para a recuperação quanto para a visualização de informações. Nesse contexto, destacam-se as soluções que objetivam automatizar a indexação. As pesquisas que propõe soluções de indexação automática são desenvolvidas com base em diferentes pressupostos teóricos, entre os quais podem ser destacados: a Estatística, a Lingüística e o Controle de Vocabulários (Leiva, 1999). A grande maioria dessas soluções utiliza modelos híbridos que combinam dois ou três desses pressupostos. Outras abordagens para o problema da indexação automática utilizam, além dos pressupostos anteriormente citados, teorias que permitem o tratamento da incerteza, da imprecisão e da vagueza, tais como a teoria de Dempster-Shafer e a lógica difusa. O objetivo desta pesquisa é avaliar o potencial de utilização da lógica paraconsistente, uma lógica não clássica, com capacidade para tratar situações que envolvem incerteza, imprecisão e vagueza nos procedimentos de indexação automática. A hipótese de trabalho sustentada nesta pesquisa apóia-se teoricamente nos princípios da Lógica Paraconsistente. A utilização dessa lógica e de métodos derivados da mesma, por ser flexível e comportar estados lógicos que vão além das dicotomias sim e não, permite adiantar a hipótese de que os resultados da indexação poderão ser melhores do que os obtidos por métodos tradicionais. Do ponto de vista metodológico, optou-se pela utilização de um algoritmo para tratamento de incerteza e imprecisão, desenvolvido no âmbito da lógica paraconsistente, para modificar os valores dos pesos atribuídos aos termos de indexação. Os testes foram realizados em um sistema de visualização de informações, com código fonte disponível. As coleções utilizadas são disponibilizadas com o sistema. Os resultados obtidos foram avaliados por meio de critérios e índices embutidos no próprio sistema de visualização, e demonstram ganhos mensuráveis de qualidade na construção das visualizações, confirmando, assim a hipótese de pesquisa elencada. / It can be argued that the processes of organization, retrieval and visualization of information are conected, presenting one point in common: the indexing of texts or documents. Indexing, an essential component of text analysis, is important to information retrieval and visualization. In this context, we highlight solutions to automate indexing. Researchs that propose solutions for automatic indexing are developed based on different theoretical assumptions as, for example: Statistics, Linguistics and Controlled vocabularies (Leiva, 1999). Most of these solutions uses hybrid models combining two or three of these theoretical assumptions. Other approaches to the problem of automatic indexing uses, besides the aforementioned assumptions, theories that allow the treatment of uncertainty, imprecision and vagueness, as the Dempster-Shafer theory and the fuzzy logic. The aim of this research is to evaluate the use of paraconsistent logic, a nonclassical logic, capable of dealing with situations involving uncertainty, imprecision and vagueness, in the procedures of automatic indexing. The working hypothesis supported in this research is based theoretically on the principles of Paraconsistent Logic. The utilization of this logic, being flexible and containing logical states that go beyond the dichotomies yes and no, permit to advance the hypothesis that the results of indexing could be better than those obtained by traditional methods. From the methodological point of view, we chose to use an algorithm for treatment of uncertainty and imprecision, developed under the paraconsistent logic, to modify the values of the weights assigned to index terms. The tests were performed on a information visualization system, with source code available. The collections used are available with the system. The results were evaluated by criteria and indices built into the information visualization system itself, and demonstrate measurable gains in the construction quality of the displays, thus confirming the hypothesis listed.
146

Extensión de técnicas de planificación espacio-temporal a sistemas de visión por computador

Candelas-Herías, Francisco A. 16 November 2001 (has links)
No description available.
147

Aplicación de la transformada de wavelet a sismogramas locales: filtrado, deconvolución y estimación del ángulo azimut

Galiana-Merino, Juan José 04 July 2001 (has links)
Ayuda a la investigación en la convocatoria de 2000 en el apartado II. Apoyo a la investigación. II.4. Tesis doctorales. (re.847 m) del Instituto Alicantino de Cultura Juan Gil-Albert (Diputación Provincial de Alicante)
148

Compiladores de datos lingüísticos para la generación de módulos de estados finitos para la traducción automática

Garrido Alenda, Alicia January 2002 (has links)
No description available.
149

Generación automática de componentes software a partir de modelos conceptuales orientados a objetos

Gómez Ortega, Jaime 07 February 2000 (has links)
No description available.
150

Diseño de una red de ordenadores aplicada al control de procesos remotos

Rosa-Herranz, Julio 28 April 1997 (has links)
No description available.

Page generated in 0.0564 seconds