• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 376
  • 36
  • 23
  • 22
  • 22
  • 22
  • 22
  • 5
  • 1
  • Tagged with
  • 427
  • 167
  • 148
  • 119
  • 102
  • 95
  • 93
  • 87
  • 83
  • 80
  • 73
  • 73
  • 69
  • 68
  • 64
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Construção de ontologias de tarefa e sua reutilização na engenharia de requisitos

Martins, Aline Freitas 24 June 2009 (has links)
Made available in DSpace on 2016-12-23T14:33:38Z (GMT). No. of bitstreams: 1 dissertacao.pdf: 2000193 bytes, checksum: 7b0d1bbfbe14616b4ce8e7a9cf5a9d4f (MD5) Previous issue date: 2009-06-24 / Nowadays, it is acknowledged that reuse offers an important opportunity to achieve improvements in software development. Greater benefits, however, are achieved by reusing knowledge. Concerning knowledge reuse, two major kinds of knowledge should be considered: domain and task knowledge. For developing knowledge for reuse, models are needed to capture both, and ontologies can be used for this purpose. Domain ontologies describe the vocabulary related to a generic domain, while task ontologies describe the vocabulary related to a generic task. Domain ontologies have been extensively used in several areas in Computer Science, however, the same does not occur with task ontologies. There are few works presenting task ontologies, and there is no uniformity in representing them. Task knowledge involves two different facets: task decomposition and knowledge roles involved in the fulfillment of the subtasks. This work proposes the use of UFO (Unified Foundational Ontology) based UML profiles for representing task knowledge: OntoUML (that concerns class diagrams) modeling the knowledge roles involved and their properties and relations, and E-OntoUML (that concerns activity diagrams) capturing task decomposition and how knowledge roles act in their fulfillment. OntoUML is currently used to represent several domain ontologies. E-OntoUML is a new profile that is proposed here. This work also discusses how task ontologies can be combined with domain ontologies in order to describe the knowledge involved in a class of applications. Finally, since the main goal for capturing knowledge is to allow its reuse and sharing, an approach is proposed for reusing task ontologies in the Requirements Engineering process. / Atualmente, reconhece-se que a reutilização oferece uma importante oportunidade para alcançar melhorias no desenvolvimento de software. Maiores benefícios, no entanto, são obtidos pela reutilização em níveis mais altos de abstração, sobretudo pelo reúso de conhecimento. Em relação à reutilização de conhecimento, dois grandes tipos de conhecimento devem ser considerados: conhecimento de domínio e de tarefa. Para desenvolver o conhecimento para a reutilização, necessita-se de modelos para capturar ambos e ontologias podem ser utilizadas para este fim. Ontologias de domínio descrevem o vocabulário relacionado a um domínio genérico, enquanto ontologias de tarefa descrevem o vocabulário relacionado a uma tarefa genérica. Ontologias de domínio têm sido amplamente utilizadas nas mais diversas áreas da Ciência da Computação, entretanto o mesmo não ocorre com ontologias de tarefa. Existem poucos trabalhos apresentando ontologias de tarefa e não há uniformidade na representação das mesmas. O conhecimento de tarefa envolve dois aspectos principais: a decomposição em subtarefas e os papéis de conhecimento que as entidades do domínio irão exercer na realização da tarefa. Este trabalho propõe o uso de perfis UML baseados na Ontologia de Fundamentação Unificada (Unified Foundational Ontology UFO) para representar ontologias de tarefa: OntoUML (com base em diagramas de classes), para a modelagem dos papéis de conhecimento envolvidos e suas propriedades e relações, e E-OntoUML (com base em diagramas de atividades), para capturar a decomposição de tarefa e a participação dos papéis de conhecimento nas mesmas. O primeiro tem sido bastante utilizado para representar ontologias de domínio, enquanto o segundo é um novo perfil, proposto neste trabalho. Discute-se, também, como ontologias de tarefa podem ser combinadas com ontologias de domínio, a fim de descrever o conhecimento relativo a uma classe de aplicações. Por fim, uma vez que o principal objetivo para a captura do conhecimento é permitir o seu reuso e compartilhamento, propõe-se uma abordagem para reutilização de ontologias de tarefa no processo de Engenharia de Requisitos.
112

UM PROCESSO PARA A AQUISIÇÃO DE RELAÇÕES TAXONÔMICAS DE UMA ONTOLOGIA / A PROCESS FOR THE ACQUISITION OF FOREIGN TAXONOMY OF AN ONTOLOGY

Correia, Jone dos Santos Sodré 06 May 2011 (has links)
Made available in DSpace on 2016-08-17T14:53:16Z (GMT). No. of bitstreams: 1 Jone dos Santos Sodre Correa.pdf: 2272440 bytes, checksum: e8708cabafde69a2eb7580860867bc89 (MD5) Previous issue date: 2011-05-06 / Ontologies are an approach for knowledge representation capable of expressing a set of entities and their relationships, constraints, axioms and vocabulary of a given domain. Manual construction of ontologies by domain experts and knowledge engineers is an expensive and time consuming task so, automatic and/or semi-automatic approaches are needed. Ontology Learning looks for automatically or semi-automatically identifying ontology elements like classes, taxonomic and non-taxonomic relationships, properties and axioms from textual resources. This work proposes a process for automatic learning of ontologies from text focusing on the application of natural language processing techniques to acquire taxonomic relationships. Some experiments using a legal corpus were conducted in order to evaluate it. Initial results are promising. / Ontologias são uma forma de representação de conhecimento capaz de expressar um conjunto de entidades e suas relações, restrições, axiomas e vocabulário de um determinado domínio. A construção manual de ontologias por especialistas de domínio e engenheiros de conhecimento é uma tarefa cara e demorada e a automatização/semi-automatização desta tarefa é uma necessidade. O aprendizado de ontologias visa automatizar ou semi-automatizar a identificação de elementos de uma ontologia como classes, relações taxonômicas e não-taxonômicas, propriedades e axiomas de fontes textuais. Este trabalho propõe um processo de aprendizagem automática de ontologias a partir de fontes textuais enfocando a aplicação de técnicas de processamento de linguagem natural para adquirir relações taxonômicas. Alguns experimentos utilizando um corpus jurídico foram realizados para a avaliação da abordagem proposta. Os resultados iniciais são promissores.
113

[en] PROVENANCE CONCEPTUAL MODELS / [pt] MODELOS CONCEITUAIS PARA PROVENIÊNCIA

ANDRE LUIZ ALMEIDA MARINS 07 July 2008 (has links)
[pt] Sistemas de informação, desenvolvidos para diversos setores econômicos, necessitam com maior freqüência capacidade de rastreabilidade dos dados. Para habilitar tal capacidade, é necessário modelar a proveniência dos dados. Proveniência permite testar conformidade com a legislação, repetição de experimentos, controle de qualidade, entre outros. Habilita também a identificação de agentes (pessoas, organizações ou agentes de software) e pode ser utilizada para estabelecer níveis de confiança para as transformações dos dados. Esta dissertação propõe um modelo genérico de proveniência criado com base no alinhamento de recortes de ontologias de alto nível, padrões internacionais e propostas de padrões que tratam direta ou indiretamente de conceitos relacionados à proveniência. As contribuições da dissertação são portanto em duas direções: um modelo conceitual para proveniência - bem fundamentado - e a aplicação da estratégia de projeto conceitual baseada em alinhamento de ontologias. / [en] Information systems, developed for several economic segments, increasingly demand data traceability functionality. To endow information systems with such capacity, we depend on data provenance modeling. Provenance enables legal compliance, experiment validation, and quality control, among others . Provenance also helps identifying participants (determinants or immanents) like people, organizations, software agents among others, as well as their association with activities, events or processes. It can also be used to establish levels of trust for data transformations. This dissertation proposes a generic conceptual model for provenance, designed by aligning fragments of upper ontologies, international standards and broadly recognized projects. The contributions are in two directions: a provenance conceptual model - extensively documented - that facilitates interoperability and the application of a design methodology based on ontology alignment.
114

[en] A SINGLE GOAL HEURISTIC APPROACH TO SOLVE TUNING IN ONTOLOGY META-MATCHING / [pt] UMA ABORDAGEM HEURÍSTICA UNI-OBJETIVO PARA CALIBRAGEM EM META-ALINHADORES DE ONTOLOGIAS

JAIRO FRANCISCO DE SOUZA 23 July 2012 (has links)
[pt] Ontologias são vistas como uma solução para o problema de interoperabilidade em muitas aplicações como integração de banco de dados, comércio eletrônico, serviços web e redes sociais. Contudo, ao utilizar diferentes ontologias, persiste o problema de incompatibilidade semântica entre os modelos. Dentre os desafios para o campo de alinhamento de ontologia, está a seleção de alinhadores e a auto-configuração desses alinhadores . Este trabalho tem por objetivo tratar o problema de meta-alinhamento de ontologias utilizando métodos heurísticos para calibragem de alinhadores escolhidos sem detrimento do desempenho do sistema. Para avaliar esta proposta em comparação a outras propostas da literatura, optou-se por utilizar um benchmark para alinhamentos de ontologias amplamente utilizado por pesquisadores desse campo. A comparação entre as propostas é realizada com base em medidas de qualidade de alinhamentos sugeridas pelo benchmark. Além da avaliação quantitativa proposta pelo benchmark, é realizada uma comparação qualitativa em relação às características desejáveis de meta-alinhadores propostas na literatura. / [en] Ontologies are seen as a solution for many applications such as database integration, e-commerce, web services and social networks. However, the use of distinet ontologies does not solve the semantic interoperability problem among modls. Matcher selection and self-configuring are challenges from the ontology matching field. This work aims to treat the ontology metamatching problem using heuristic methods to fast tune a set of matchers. To evalutate this proporsal, a well-known benchark for ontology matching is used. The comparison among meta-matching approaches includes the benchmark evaluation metries and qualitative metries for meta-matching proposed in the literature.
115

[en] SUPPORT FOR RECORDING AND USING DESIGN RATIONALE FOR WEB APPLICATION DESIGN / [pt] SUPORTE AO REGISTRO E USO DE DECISÕES DE PROJETOS DE APLICAÇÕES PARA A WEB

DANIELE REIS GONZAGA SANTOS 11 October 2007 (has links)
[pt] Todo projetista realiza, ao projetar algum artefato, uma seqüência de raciocínio e de tomadas de decisão de projeto que resultam neste artefato. A captura do raciocínio utilizado pelo projetista durante a modelagem de uma aplicação raramente é realizada. Tal raciocínio é denominado na literatura como Design Rationale, e a dificuldade de sua captura e uso é atribuída em grande parte à falta de ferramentas adequadas a este fim. Tais ferramentas devem ser integradas ao processo de design, interrompendo minimamente o raciocínio do projetista/desenvolvedor que está construindo a aplicação. Estas ferramentas devem também permitir o reuso de soluções, auxiliando o projetista/desenvolvedor a melhorar a qualidade de design de seus artefatos. O objetivo do trabalho realizado é integrar a captura e uso de design rationale a um ambiente de prototipação de aplicações hipermídia, além de permitir o reuso de designs registrados. Como resultado, é apresentado o ambiente integrado HyperDE+DR, baseado no ambiente HyperDE para prototipação de aplicações hipermídia e na abordagem Kuaba para representação e uso de design rationale. O ambiente integrado HyperDE+DR desenvolvido e implementado gera e registra automaticamente decisões de design tomadas durante a construção dos artefatos pelo projetista/desenvolvedor. Questões e idéias são geradas e respondidas também automaticamente pelo ambiente, de acordo com os métodos de design usados pelo ambiente - OOHDM e SHDM -, o que facilita o processo de captura do design rationale. Adicionalmente, o ambiente possibilita o reuso de design rationales, permitindo a integração ou reutilização de designs para a construção de novas aplicações, podendo torná-las mais completas, consistentes e reduzir o esforço de desenvolvimento. / [en] Every designer follows some line of reasoning, and makes several decisions when designing an artifact, which is the final result of this decision process. This design reasoning and decision structure, commonly called Design Rationale, is rarely captured and recorded. The reasons for this seem to be due to the lack of appropriate tools, which should capture the Design Rationale in an unobtrusive way, allowing the designer to focus on the design itself. Such tools should also allow reusing previous design solutions, helping the designer/developer to improve the quality of the solution. The goal of this dissertation is to provide means to capture, record and use Design rationale within a prototyping environment for hypermedia applications. As result, we present the HyperDE+DR environment, which combines the HyperDE environment with the Kuaba approach for recording Design Rationale. The HyperDE+DR environment automatically generates and records design decisions made by the designer during the development process. Questions and ideas are automatically generated and tentatively answered, to be reviewed later by the designer by following the OOHDM and SHDM design methods that underlie the original HyperDE environment. In addition, HyperDE+DR supports Design Rationale use, by allowing integration of previous design rationales into a design being developed. This allows improving the completeness and consistency of the resulting design, also lowering development costs.
116

Sistematização semântico-ontológica computacional do vocabulário técnico da indústria de artefatos de borracha /

Batista, Abner Maicon Fortunato. January 2012 (has links)
Orientador: Claudia Zavaglia / Banca: Rogério Aparecido Sá Ramalho / Banca: Maria Cristina Parreira da Silva / Resumo: Ontologias têm diversas aplicações em sistemas de Processamento Automático de Línguas Naturais (PLN), tais como tradutores automáticos e sistemas de recuperação e de extração de informação. Ontologias são também o alicerce da chamada Web Semântica, um novo conceito de Web que permite a interoperabilidade entre recursos, fornecendo significado aos sistemas que operam com grandes contingentes de dados na Web, a rede mundial de computadores. Gruber (1993) define ontologia como uma especificação formal de uma conceitualização, ou seja, uma descrição formal dos conceitos e das relações existentes entre esses conceitos em um determinado domínio do conhecimento. No caso de uma ontologia linguística, abordam-se apenas os conceitos lexicalizados em uma língua. Desse modo, a estruturação de um domínio em uma ontologia linguística se concentra em uma dimensão semântico-conceitual. Este trabalho propõe a construção de ontologia linguisticamente motivada para o domínio da Indústria de Artefatos de Borracha (IAB), uma área de grande interesse à indústria e à pesquisa no Brasil, porém pouco explorada quanto aos recursos informacionais que esse setor demanda. Para estruturar o conhecimento do domínio da IAB, estabelecendo as relações entre os conceitos, lançou-se mão de um córpus em língua portuguesa para o referido domínio de onde são extraídos e analisados os termos. A análise dos termos e de suas relações de sentido foi fundamentada a partir da Teoria do Léxico Gerativo de Pustejovsky (1995), valendo-se, sobretudo, da Estrutura Qualia, que especifica quatro aspectos essenciais do sentido de uma palavra, a saber: constitutivo, formal, télico e agentivo. Em seguida, o modelo conceito obtido foi implementado em OWL (Ontology Web Language), uma linguagem computacional voltada para a Web Semântica. O resultado obtido com essa pesquisa foi uma... / Abstract: Ontologies have several applications on Natural Language Processing (NLP) such as machine translators and retrieval and extraction information systems. Ontologies are also the foundation of the so-called Semantic Web, a new concept of the Web that allows interoperability among resources, providing meaning to systems that operate with a large number of data on the Web. Gruber (1993) defines ontology as a formal specification of a conceptualization, i.e., a formal description of concepts and the relationships among these concepts in a given field of knowledge. In the case of a linguistic ontology, only lexicalized concepts in a natural language are approached. Thus, the structuring of a domain in a linguistic ontology focuses on a semantic-conceptual dimension. This research proposes the construction of a linguistically motivated ontology for the domain of Rubber Artifacts Industry (RAI), an area of great interest to industry and research in Brazil, but little explored with regard to the information resources that this industry demands. In order to structure knowledge of the field of RAI, establishing relationships among concepts, a Portuguese corpus was used for that domain from which the terms are extracted and analyzed. The analysis of the terms and their semantic relationships was based on the Generative Lexicon Theory by Pustejovsky (1995), mainly with the use of the Qualia Structure, which specifies four essential aspects of word meaning, namely, constitutive, formal, telic and agentive. Then, the conceptual model obtained was implemented in OWL (Ontology Web Language), a Semantic Web-oriented computer language. The results obtained from this research were a computational semanticontological systematization of the technical vocabulary of Rubber Artifacts Industry (including translations of technical terms in English and French) that can generate a number of useful ... / Résumé: Les ontologies ont plusieurs applications sur le traitement automatique du langage naturel (TALN) tels que les traducteurs automatiques et des systèmes d'information et de récupération d'extraction. Les ontologies sont aussi à la base de la Web Sémantique que l'on appelle, un nouveau concept du Web qui permet l'interopérabilité entre les ressources, donner un sens à des systèmes qui fonctionnent avec un grand nombre de données sur le Web. Gruber (1993) définit l'ontologie comme une spécification formelle d'une conceptualisation, c'est à dire, une description formelle des concepts et des relations entre ces concepts dans un certain domaine de la connaissance. Dans le cas d'une ontologie linguistique, seulement les concepts lexicalisés dans une langue naturelle sont abordés. Ainsi, la structuration d'un domaine dans une ontologie linguistique met l'accent sur une dimension sémantique et conceptuelle. Cette recherche propose la construction d'une ontologie linguistique motivée pour le domaine de l'industrie d'artifacts de caoutchouc (IAC), une zone d'un grand intérêt pour l'industrie et la recherche au Brésil, mais peu explorée en ce qui concerne les sources d'information que ce secteur exige. Afin de structurer les connaissances du domaine de la IAC, l'établissement de relations entre les concepts, un corpus portugais a été utilisé pour ce domaine à partir duquel les termes sont extraits et analysés. L'analyse des termes et leurs relations sémantiques a été basée sur la Théorie Du Lexique Génératif de Pustejovsky (1995), principalement avec l'utilisation de la structure Qualia, qui spécifie quatre aspects essentiels du sens des mots, à savoir, constitutifs, formel, télique et agentif. Ensuite, le modèle conceptuel obtenu a été mis en œuvre dans le langage OWL (Ontology Web Language), un langage informatique orienté à Web ... / Mestre
117

Representação da informação dinâmica em ambientes digitais

Ribeiro, Camila 09 August 2013 (has links)
Este trabalho é um estudo exploratório interdisciplinar, pois converge de duas áreas não pertencentes à mesma classe acadêmica, Ciência da Informação (CI) e Ciência da Computação. O objetivo é, além de estudar a representação no ambiente virtual, encontrar uma forma de representar a informação não textual (multimídia) que atenda essas \"novas necessidades\" e possibilidades que a Web Semântica requer no desenvolvimento de contextos com uso do XML. Conforme a complexidade dos documentos multimodais que envolvem textos, vídeos e imagens descritos em mais de um formato, a opção para a interoperabilidade da descrição foi representar o contexto destes documentos com uso de ontologia. Através de uma metodologia de pesquisa qualitativa de análise exploratória e descritiva, apresentam-se ontologias que permitam que esta descrição feita em padrões convencionais, mas interoperáveis, de formatos de descrição, e que possam atingir um conjunto de objetos multimodais. A descrição desta ontologia, em dois formatos interoperáveis, MARC21 e Dublin Core, foi criada utilizando o software Protégé; e para validação da ontologia, foram feitas 3 aplicações práticas com vídeos acadêmicos (uma aula, um trabalho de conclusão de curso e uma defesa de dissertação de mestrado), que possuem imagens retiradas dos slideshows e compostas num documento final. O resultado alcançado é uma representação dinâmica de vídeo, que faça as relações com os outros objetos que a vídeo trás além da interoperabilidade dos formatos de descrição, tais como: Dublin Core e MARC21. / This work is an exploratory interdisciplinary study, since it mixes two different academic areas: Information science (IS) and Computer Science. The search for a new way of represent non-textual information (media) that supplies the current needs and possibilities that semantic web requires on XML developed contexts is one of the aims of this study. According to the complexity of multimodal documents that converge text, videos and images described in more than one format, ontology use was choose to represent the description interoperability. Through a qualitative research using exploratory and descriptive analysis will be presented ontologies that allow the conventional patterns of description to be interoperable, being able to show a multimodal object set. This ontology description was made in two interoperable formats: MARC21 and Dublin Core. It was created using the Protégé software. To validate the ontologies, they will be applied in 3 academic videos (a lesson video, a graduation defense, and a masters defense), and all of three are composed with slideshows images that are attached in the final document. The result obtained is a dynamic video representation that can make relations with the other video objects beyond interoperability of description formats, such as Dublin Core and MARC21.
118

Portal de conhecimento sobre critérios, estratégias, técnicas e ferramentas de teste de aplicações web / Knowledge portal about testing web application criteria, procedures, techniques and tools

Costa, Marcella Letícia de Souza 26 February 2008 (has links)
O advento da tecnologia da Internet, juntamente com a World Wide Web, popularizaram e permitiram uma grande expansão e demanda por aplicações web. Por executarem em um ambiete heterogêneo e complexo, as aplicações web apresentam várias características que as diferenciam dos sistemas tradicionais. As particularidades dessas aplicações tornam o fator qualidade essencial para o sucesso dessas aplicações. Alguns requisitos de qualidade, como usabilidade, confiabilidade, interoperabilidade e segurança devem, então, ser validados. Para assegurar a qualidade desejada, são necessárias executar as atividades de Verificação, Validação e Teste (VV&T). Dentre elas, as mais utilizadas são as atividades de teste. Os critérios, estratégias e ferramentas de teste precisam ser identificados e avaliados para se estabelecer uma relação entre os custos e benefícios entre elas, a fim de guiar a escolha de cada uma durante os testes de aplicações web. A realização de estudos experimentais para realizar essa análise beneficia tanto a academia, nas atividades de ensino e pesquisa, como a indústria, nas atividades de seleção e aplicação de critérios, estratégias e ferramentas de teste de aplicações web. Para que os resultados obtidos estejam acessíveis, é proposto o desenvolvimento de um portal de conhecimento que disponibilize de maneira sistemática o conhecimento obtido sobre critérios, estratégias e ferramentas de teste de aplicações web. Esse portal tem como objetivo oferecer às organizações um ambiente compartilhado de conhecimento, a fim de proporcionar a existência de um ciclo de criação, troca, retenção e reuso do conhecimento / The development of internet technology, along with the World Wide Web, made popular and allowed a demand boom and expansion of web applications. Web applications present some characteristics that differentiate them from the traditional systems, since they execute in a heterogeneous and complex environment. The particularities of these applications demand quality as an essential factor for success. Is this way, quality requirements, like usability, reliability, interoperability and security must be validated. To assure the desired quality, it\'s necessary to execute the activities of Verification, Validation and Test (VV&T), where the most used are the testing activities. The testing criteria, strategies and tools need to be identified and evaluated to establish a relation between the costs and benefits, in order to guide the choice of each one during the tests of web applications. The carrying out of experimental studies benefits the academy, in the activities of education and research, and the industry, in the activities of selection and application of criteria, strategies and tools of testing web applications. Moreover, these results need to be accessible to make available information to the interest people. This work presents the development of a knowledge portal, to facilitate knowledge sharing in a systematic way, with information of test criteria, strategies and tools for validating web applications. This portal intends to offer to the organizations and academic institutions a shared environment of web application test knowledge, in order to constitute a knowledge creation, change, retention and reuse cycle
119

Mapeamento semântico entre UNL e componentes de software para execução de requisições imperativas em linguagem natural / Semantic mapping between UNL and software components to the execution of imperative natural requests

Linhalis, Flávia 13 April 2007 (has links)
A linguagem natural corresponde ao meio mais convencional de comunicação entre as pessoas. O desejo que os seres humanos possuem de se comunicar com as máquinas é evidenciado por pesquisas, que têm sido realizadas desde o final da década de 70, com o objetivo de ter requisições expressas em linguagem natural executadas pelas máquinas. Alguns trabalhos na literatura têm sido propostos com esse fim, entretanto a maioria deles considera requisições expressas apenas em Inglês. Uma maneira de flexibilizar a utilização de várias línguas em sistemas que utilizam linguagem natural é por meio de uma interlíngua, pois essa é uma representação intermediária e processável por máquina das informações contidas em diversas línguas naturais. O trabalho descrito nesta tese propõe que requisições imperativas em linguagem natural sejam convertidas para a interlíngua UNL (Universal Networking Language) e executadas por meio da ativação dos componentes de software apropriados. Para atingir esse objetivo, este trabalho propõe a Arquitetura OntoMap (Ontology-based Semantic Mapping), que utiliza ontologias para realizar o mapeamento semântico entre UNL e componentes de software e para realizar a busca pelos componentes mais apropriados para executar as requisições. A Arquitetura OntoMap conta com (i) um serviço para converter requisições em linguagem natural para UNL; (ii) uma ontologia de alto nível, chamada Ontologia InterComp (Interlíngua-Componentes), que juntamente com regras e inferência, fornece informações semânticas a respeito dos componentes que podem ser utilizados para executar a requisição; (iii) uma Ontologia de Componentes, que relaciona dados das interfaces dos componentes com informações semânticas do domínio de aplicação dos mesmos; e (iv) um Módulo de Busca que utiliza as informações semânticas inferidas e a Ontologia de Componentes para encontrar os componentes apropriados para executar as requisições expressas em linguagem natural. Este trabalho propõe ainda um processo para utilizar a Arquitetura OntoMap em diversos domínios de aplicação e com diferentes conjuntos de componentes. Esse processo foi instanciado considerando componentes desenvolvidos para o domínio de gerenciamento de cursos / Natural Language is the common way of communication between people. The desire of human beings to communicate with machines is evidenced by research, that has been conducted since the late 70?s, triyng to express requests in natural language that can be executed by machines. However, most of the works that have pursued this goal consider requests expressed only in English. A way to facilitate the use of several languages in natural language systems is by using an interlingua. An interlingua is an intermediary representation for natural language information that can be processed by machines. The work described in this thesis proposes to convert imperative natural language requests into the UNL (Universal Networking Language) interlingua and to execute those requests using the apropriate software components. In order to achieve this goal, this work proposes the OntoMap (Ontology-based Semantic Mapping) architecture. It uses ontologies to perform a semantic mapping between UNL and software componente and to search for software components to execute the requests. The OntoMap architecture is composed by (i) a service to convert natural language requests into UNL; (ii) an upper ontology, named InterComp (Interlingua-Components), that uses inference to provide semantic information about components that could be used to execute the requests; (iii) a Components Ontology that relates the component?s interfaces to semantic information about the application domain of the components; and (iv) a search module that uses the infered information and the Components Ontology to reach the components to execute the requests. This work also proposes a process to help the use of the OntoMap architecture in several application domains using different component sets. This process is intanciated considering compoments developed for the course management domain
120

Genômica translacional: integrando dados clínicos e biomoleculares / Translational genomics: integrating clinical and biomolecular data

Miyoshi, Newton Shydeo Brandão 06 February 2013 (has links)
A utilização do conhecimento científico para promoção da saúde humana é o principal objetivo da ciência translacional. Para que isto seja possível, faz-se necessário o desenvolvimento de métodos computacionais capazes de lidar com o grande volume e com a heterogeneidade da informação gerada no caminho entre a bancada e a prática clínica. Uma barreira computacional a ser vencida é o gerenciamento e a integração dos dados clínicos, sócio-demográficos e biológicos. Neste esforço, as ontologias desempenham um papel essencial, por serem um poderoso artefato para representação do conhecimento. Ferramentas para gerenciamento e armazenamento de dados clínicos na área da ciência translacional que têm sido desenvolvidas, via de regra falham por não permitir a representação de dados biológicos ou por não oferecer uma integração com as ferramentas de bioinformática. Na área da genômica existem diversos modelos de bancos de dados biológicos (tais como AceDB e Ensembl), os quais servem de base para a construção de ferramentas computacionais para análise genômica de uma forma independente do organismo de estudo. Chado é um modelo de banco de dados biológicos orientado a ontologias, que tem ganhado popularidade devido a sua robustez e flexibilidade, enquanto plataforma genérica para dados biomoleculares. Porém, tanto Chado quanto os outros modelos de banco de dados biológicos não estão preparados para representar a informação clínica de pacientes. Este projeto de mestrado propõe a implementação e validação prática de um framework para integração de dados, com o objetivo de auxiliar a pesquisa translacional integrando dados biomoleculares provenientes das diferentes tecnologias omics com dados clínicos e sócio-demográficos de pacientes. A instanciação deste framework resultou em uma ferramenta denominada IPTrans (Integrative Platform for Translational Research), que tem o Chado como modelo de dados genômicos e uma ontologia como referência. Chado foi estendido para permitir a representação da informação clínica por meio de um novo Módulo Clínico, que utiliza a estrutura de dados entidade-atributo-valor. Foi desenvolvido um pipeline para migração de dados de fontes heterogêneas de informação para o banco de dados integrado. O framework foi validado com dados clínicos provenientes de um Hospital Escola e de um banco de dados biomoleculares para pesquisa de pacientes com câncer de cabeça e pescoço, assim como informações de experimentos de microarray realizados para estes pacientes. Os principais requisitos almejados para o framework foram flexibilidade, robustez e generalidade. A validação realizada mostrou que o sistema proposto satisfaz as premissas, levando à integração necessária para a realização de análises e comparações dos dados. / The use of scientific knowledge to promote human health is the main goal of translational science. To make this possible, it is necessary to develop computational methods capable of dealing with the large volume and heterogeneity of information generated on the road between bench and clinical practice. A computational barrier to be overcome is the management and integration of clinical, biological and socio-demographics data. In this effort, ontologies play a crucial role, being a powerful artifact for knowledge representation. Tools for managing and storing clinical data in the area of translational science that have been developed, usually fail due to the lack on representing biological data or not offering integration with bioinformatics tools. In the field of genomics there are many different biological databases (such as AceDB and Ensembl), which are the basis for the construction of computational tools for genomic analysis in an organism independent way. Chado is a ontology-oriented biological database model which has gained popularity due to its robustness and flexibility, as a generic platform for biomolecular data. However, both Chado as other models of biological databases are not prepared to represent the clinical information of patients. This project consists in the proposal, implementation and validation of a practical framework for data integration, aiming to help translational research integrating data coming from different omics technologies with clinical and socio-demographic characteristics of patients. The instantiation of the designed framework resulted in a computational tool called IPTrans (Integrative Platform for Translational Research), which has Chado as template for genomic data and uses an ontology reference. Chado was extended to allow the representation of clinical information through a new Clinical Module, which uses the data structure entity-attribute-value. We developed a pipeline for migrating data from heterogeneous sources of information for the integrated database. The framework was validated with clinical data from a School Hospital and a database for biomolecular research of patients with head and neck cancer. The main requirements were targeted for the framework flexibility, robustness and generality. The validation showed that the proposed system satisfies the assumptions leading to integration required for the analysis and comparisons of data.

Page generated in 0.0742 seconds