• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • Tagged with
  • 5
  • 5
  • 5
  • 5
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Mapeamento semântico entre UNL e componentes de software para execução de requisições imperativas em linguagem natural / Semantic mapping between UNL and software components to the execution of imperative natural requests

Linhalis, Flávia 13 April 2007 (has links)
A linguagem natural corresponde ao meio mais convencional de comunicação entre as pessoas. O desejo que os seres humanos possuem de se comunicar com as máquinas é evidenciado por pesquisas, que têm sido realizadas desde o final da década de 70, com o objetivo de ter requisições expressas em linguagem natural executadas pelas máquinas. Alguns trabalhos na literatura têm sido propostos com esse fim, entretanto a maioria deles considera requisições expressas apenas em Inglês. Uma maneira de flexibilizar a utilização de várias línguas em sistemas que utilizam linguagem natural é por meio de uma interlíngua, pois essa é uma representação intermediária e processável por máquina das informações contidas em diversas línguas naturais. O trabalho descrito nesta tese propõe que requisições imperativas em linguagem natural sejam convertidas para a interlíngua UNL (Universal Networking Language) e executadas por meio da ativação dos componentes de software apropriados. Para atingir esse objetivo, este trabalho propõe a Arquitetura OntoMap (Ontology-based Semantic Mapping), que utiliza ontologias para realizar o mapeamento semântico entre UNL e componentes de software e para realizar a busca pelos componentes mais apropriados para executar as requisições. A Arquitetura OntoMap conta com (i) um serviço para converter requisições em linguagem natural para UNL; (ii) uma ontologia de alto nível, chamada Ontologia InterComp (Interlíngua-Componentes), que juntamente com regras e inferência, fornece informações semânticas a respeito dos componentes que podem ser utilizados para executar a requisição; (iii) uma Ontologia de Componentes, que relaciona dados das interfaces dos componentes com informações semânticas do domínio de aplicação dos mesmos; e (iv) um Módulo de Busca que utiliza as informações semânticas inferidas e a Ontologia de Componentes para encontrar os componentes apropriados para executar as requisições expressas em linguagem natural. Este trabalho propõe ainda um processo para utilizar a Arquitetura OntoMap em diversos domínios de aplicação e com diferentes conjuntos de componentes. Esse processo foi instanciado considerando componentes desenvolvidos para o domínio de gerenciamento de cursos / Natural Language is the common way of communication between people. The desire of human beings to communicate with machines is evidenced by research, that has been conducted since the late 70?s, triyng to express requests in natural language that can be executed by machines. However, most of the works that have pursued this goal consider requests expressed only in English. A way to facilitate the use of several languages in natural language systems is by using an interlingua. An interlingua is an intermediary representation for natural language information that can be processed by machines. The work described in this thesis proposes to convert imperative natural language requests into the UNL (Universal Networking Language) interlingua and to execute those requests using the apropriate software components. In order to achieve this goal, this work proposes the OntoMap (Ontology-based Semantic Mapping) architecture. It uses ontologies to perform a semantic mapping between UNL and software componente and to search for software components to execute the requests. The OntoMap architecture is composed by (i) a service to convert natural language requests into UNL; (ii) an upper ontology, named InterComp (Interlingua-Components), that uses inference to provide semantic information about components that could be used to execute the requests; (iii) a Components Ontology that relates the component?s interfaces to semantic information about the application domain of the components; and (iv) a search module that uses the infered information and the Components Ontology to reach the components to execute the requests. This work also proposes a process to help the use of the OntoMap architecture in several application domains using different component sets. This process is intanciated considering compoments developed for the course management domain
2

Mapeamento semântico entre UNL e componentes de software para execução de requisições imperativas em linguagem natural / Semantic mapping between UNL and software components to the execution of imperative natural requests

Flávia Linhalis 13 April 2007 (has links)
A linguagem natural corresponde ao meio mais convencional de comunicação entre as pessoas. O desejo que os seres humanos possuem de se comunicar com as máquinas é evidenciado por pesquisas, que têm sido realizadas desde o final da década de 70, com o objetivo de ter requisições expressas em linguagem natural executadas pelas máquinas. Alguns trabalhos na literatura têm sido propostos com esse fim, entretanto a maioria deles considera requisições expressas apenas em Inglês. Uma maneira de flexibilizar a utilização de várias línguas em sistemas que utilizam linguagem natural é por meio de uma interlíngua, pois essa é uma representação intermediária e processável por máquina das informações contidas em diversas línguas naturais. O trabalho descrito nesta tese propõe que requisições imperativas em linguagem natural sejam convertidas para a interlíngua UNL (Universal Networking Language) e executadas por meio da ativação dos componentes de software apropriados. Para atingir esse objetivo, este trabalho propõe a Arquitetura OntoMap (Ontology-based Semantic Mapping), que utiliza ontologias para realizar o mapeamento semântico entre UNL e componentes de software e para realizar a busca pelos componentes mais apropriados para executar as requisições. A Arquitetura OntoMap conta com (i) um serviço para converter requisições em linguagem natural para UNL; (ii) uma ontologia de alto nível, chamada Ontologia InterComp (Interlíngua-Componentes), que juntamente com regras e inferência, fornece informações semânticas a respeito dos componentes que podem ser utilizados para executar a requisição; (iii) uma Ontologia de Componentes, que relaciona dados das interfaces dos componentes com informações semânticas do domínio de aplicação dos mesmos; e (iv) um Módulo de Busca que utiliza as informações semânticas inferidas e a Ontologia de Componentes para encontrar os componentes apropriados para executar as requisições expressas em linguagem natural. Este trabalho propõe ainda um processo para utilizar a Arquitetura OntoMap em diversos domínios de aplicação e com diferentes conjuntos de componentes. Esse processo foi instanciado considerando componentes desenvolvidos para o domínio de gerenciamento de cursos / Natural Language is the common way of communication between people. The desire of human beings to communicate with machines is evidenced by research, that has been conducted since the late 70?s, triyng to express requests in natural language that can be executed by machines. However, most of the works that have pursued this goal consider requests expressed only in English. A way to facilitate the use of several languages in natural language systems is by using an interlingua. An interlingua is an intermediary representation for natural language information that can be processed by machines. The work described in this thesis proposes to convert imperative natural language requests into the UNL (Universal Networking Language) interlingua and to execute those requests using the apropriate software components. In order to achieve this goal, this work proposes the OntoMap (Ontology-based Semantic Mapping) architecture. It uses ontologies to perform a semantic mapping between UNL and software componente and to search for software components to execute the requests. The OntoMap architecture is composed by (i) a service to convert natural language requests into UNL; (ii) an upper ontology, named InterComp (Interlingua-Components), that uses inference to provide semantic information about components that could be used to execute the requests; (iii) a Components Ontology that relates the component?s interfaces to semantic information about the application domain of the components; and (iv) a search module that uses the infered information and the Components Ontology to reach the components to execute the requests. This work also proposes a process to help the use of the OntoMap architecture in several application domains using different component sets. This process is intanciated considering compoments developed for the course management domain
3

"SemanticAgent, uma plataforma para desenvolvimento de agentes inteligentes" / SemanticAgent, a platform for development of Intelligent Agents capable of processing restricted natural language.

Lucena, Percival Silva de 15 April 2003 (has links)
Agentes inteligentes é um termo guarda-chuva que agrega diversas pesquisas no desenvolvimento de softwares autônomos que utilizam técnicas de Inteligência Artificial a fim de satisfazer metas estabelecidas por seus usuários. A construção de sistemas baseados em agentes inteligentes é uma tarefa complexa que envolve aspectos como comunicação entre agentes, planejamento, divisão de tarefas, coordenação, representação e manipulação de conhecimento e comportamentos, entre outras tarefas. Plataformas para agentes prevêem alguns serviços que permitem a desenvolvedores construir soluções sem a necessidade de se preocupar com todos detalhes da implementação. Um novo modelo para criação de agentes chamado 'agentes atômicos' é proposto com o objetivo de oferecer flexibilidade para o gerenciamento de conhecimento e implementação de comportamentos. A arquitetura Agentes Semânticos provê um framework para a implementação de tal modelo, oferecendo um conjunto de ferramentas para a criação de agentes inteligentes. Um protótipo de plataforma para agentes, baseado em tal arquitetura, foi desenvolvido em Java e permite a criação de aplicações capazes de processar linguagem natural restrita, manipular conhecimento e executar ações úteis. / Intelligent Agents is an umbrella term that aggregates different research on the development of autonomous software that uses Artificial Intelligence techniques in order to satisfy user requests. The construction of systems based on intelligent agents is a complex task that involves aspects such as agent communication, planning, work division, cooperation, epresentation and manipulation of knowledge,among other activities. Agent Platforms provide some services that allow developers to build solutions without the need of worrying about every implementation detail. A new model for creating agents, called 'atomic agents', is proposed with the goal of offering flexible knowledge management and behavior implementation for constructing software agents. The Semantic AgentArchitecture provides a framework for the implementation of such model, offering a set of tools for the creation of intelligent agents. A prototype Agent Platform, based on the architecture, was developed in Java and allows the creation of applications that are able to process restricted natural language, manipulate knowledge and execute useful actions.
4

Investigação de estratégias de seleção de conteúdo baseadas na UNL (Universal Networking Language)

Chaud, Matheus Rigobelo 03 March 2015 (has links)
Made available in DSpace on 2016-06-02T20:25:24Z (GMT). No. of bitstreams: 1 6636.pdf: 3131517 bytes, checksum: 2afb763348af4eeb377c36a05732707f (MD5) Previous issue date: 2015-03-03 / Financiadora de Estudos e Projetos / The field of Natural Language Processing (NLP) has witnessed increased attention to Multilingual Multidocument Summarization (MMS), whose goal is to process a cluster of source documents in more than one language and generate a summary of this collection in one of the target languages. In MMS, the selection of sentences from source texts for summary generation may be based on either shallow or deep linguistic features. The purpose of this research was to investigate whether the use of deep knowledge, obtained from a conceptual representation of the source texts, could be useful for content selection in texts within the newspaper genre. In this study, we used a formal representation system the UNL (Universal Networking Language). In order to investigate content selection strategies based on this interlingua, 3 clusters of texts were represented in UNL, each consisting of 1 text in Portuguese, 1 text in English and 1 human-written reference summary. Additionally, in each cluster, the sentences of the source texts were aligned to the sentences of their respective human summaries, in order to identify total or partial content overlap between these sentences. The data collected allowed a comparison between content selection strategies based on conceptual information and a traditional selection method based on a superficial feature - the position of the sentence in the source text. According to the results, content selection based on sentence position was more closely correlated with the selection made by the human summarizer, compared to the conceptual methods investigated. Furthermore, the sentences in the beginning of the source texts, which, in newspaper articles, usually convey the most relevant information, did not necessarily contain the most frequent concepts in the text collection; on several occasions, the sentences with the most frequent concepts were in the middle or at the end of the text. These results indicate that, at least in the clusters analyzed, other criteria besides concept frequency help determine the relevance of a sentence. In other words, content selection in human multidocument summarization may not be limited to the selection of the sentences with the most frequent concepts. In fact, it seems to be a much more complex process. / Na área de Processamento Automático das Línguas Naturais (PLN), há um destaque crescente para a Sumarização Automática Multidocumento Multilíngue (SAMM), cujo objetivo é processar uma coleção de documentos-fonte em mais de uma língua e gerar um sumário correspondente a essa coleção em uma das línguas-alvo. Na SAMM, a seleção das sentenças dos textos-fonte para composição do sumário pode ser feita com base em atributos linguísticos superficiais ou profundos. O objetivo deste projeto foi investigar se a utilização de conhecimento profundo, obtido a partir de uma representação conceitual dos textos-fonte, pode ser útil na seleção de conteúdo em textos do gênero jornalístico. Para isso, utilizou-se um sistema de representação formal a UNL (Universal Networking Language). Visando investigar estratégias de seleção de conteúdo baseadas nessa interlíngua, fez-se a representação em UNL de 3 coleções de textos, cada qual com 1 texto-fonte em português, 1 texto-fonte em inglês e 1 sumário humano de referência. Fez-se também o alinhamento das sentenças dos textos-fonte de cada coleção às sentenças de seus respectivos sumários humanos, objetivando identificar sobreposição total ou parcial de conteúdo entre essas sentenças. Esses dados permitiram a comparação entre estratégias de seleção de conteúdo baseadas em informações conceituais e um método de seleção tradicional baseado em um atributo superficial a posição da sentença no texto-fonte. De acordo com os resultados obtidos, a seleção de conteúdo com base na posição no texto-fonte correlacionou-se mais adequadamente com a seleção realizada pelo sumarizador humano, comparado aos métodos conceituais investigados. Além disso, as sentenças iniciais dos textos-fonte, que, em textos jornalísticos, normalmente veiculam as informações mais relevantes, não necessariamente continham os conceitos mais frequentes da coleção; em diversas ocasiões, as sentenças com os conceitos mais frequentes estavam em posição intermediária ou final no texto. Esses resultados indicam que, ao menos nas coleções analisadas, outros critérios, além da frequência de conceitos, concorrem para determinar a relevância de uma sentença. Em outras palavras, na sumarização humana multidocumento, a seleção de conteúdo provavelmente não se resume a selecionar sentenças com os conceitos mais frequentes, tratando-se de um processo bem mais complexo.
5

"SemanticAgent, uma plataforma para desenvolvimento de agentes inteligentes" / SemanticAgent, a platform for development of Intelligent Agents capable of processing restricted natural language.

Percival Silva de Lucena 15 April 2003 (has links)
Agentes inteligentes é um termo guarda-chuva que agrega diversas pesquisas no desenvolvimento de softwares autônomos que utilizam técnicas de Inteligência Artificial a fim de satisfazer metas estabelecidas por seus usuários. A construção de sistemas baseados em agentes inteligentes é uma tarefa complexa que envolve aspectos como comunicação entre agentes, planejamento, divisão de tarefas, coordenação, representação e manipulação de conhecimento e comportamentos, entre outras tarefas. Plataformas para agentes prevêem alguns serviços que permitem a desenvolvedores construir soluções sem a necessidade de se preocupar com todos detalhes da implementação. Um novo modelo para criação de agentes chamado 'agentes atômicos' é proposto com o objetivo de oferecer flexibilidade para o gerenciamento de conhecimento e implementação de comportamentos. A arquitetura Agentes Semânticos provê um framework para a implementação de tal modelo, oferecendo um conjunto de ferramentas para a criação de agentes inteligentes. Um protótipo de plataforma para agentes, baseado em tal arquitetura, foi desenvolvido em Java e permite a criação de aplicações capazes de processar linguagem natural restrita, manipular conhecimento e executar ações úteis. / Intelligent Agents is an umbrella term that aggregates different research on the development of autonomous software that uses Artificial Intelligence techniques in order to satisfy user requests. The construction of systems based on intelligent agents is a complex task that involves aspects such as agent communication, planning, work division, cooperation, epresentation and manipulation of knowledge,among other activities. Agent Platforms provide some services that allow developers to build solutions without the need of worrying about every implementation detail. A new model for creating agents, called 'atomic agents', is proposed with the goal of offering flexible knowledge management and behavior implementation for constructing software agents. The Semantic AgentArchitecture provides a framework for the implementation of such model, offering a set of tools for the creation of intelligent agents. A prototype Agent Platform, based on the architecture, was developed in Java and allows the creation of applications that are able to process restricted natural language, manipulate knowledge and execute useful actions.

Page generated in 0.1316 seconds