• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 376
  • 36
  • 23
  • 22
  • 22
  • 22
  • 22
  • 5
  • 1
  • Tagged with
  • 427
  • 167
  • 148
  • 119
  • 102
  • 95
  • 93
  • 87
  • 83
  • 80
  • 73
  • 73
  • 69
  • 68
  • 64
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Integração de serviços em ambientes heterogêneos: uso de semântica para comunicação entre entidades em mudanças de contexto / Integrated services in heterogeneous environments: using semantic for communication between entities in context changes

Renata Maria Porto Vanni 01 October 2009 (has links)
Redes de Quarta Geração (4G) possibilitam acesso ubíquo a serviços em redes heterogêneas. Nesses ambientes, a distribuição do gerenciamento pode necessitar de semânticas para o vocabulário compartilhado, uma facilidade ainda não explorada. Por essa razão, provedores de acesso de diferentes domínios de gerenciamento possuem o desafio de compartilhar informações gerenciais nas trocas de pontos de acesso realizadas pelos usuários em redes 4G. Isso se deve principalmente à carência de um modelo de negócio com controle de acesso, com acordos mútuos, e com gerenciamento de tarifação, segurança e privacidade , o que limita a colaboração entre provedores no momento de aceitar um novo usuário. Este trabalho descreve um conjunto de ontologias para serem utilizadas por novos modelos de acesso com suporte de ontologias para redes 4G. As ontologias formalizam o vocabulário comum das entidades em redes 4G. Para avaliar as ontologias desenvolvidas, a abordagem escolhida foi desenvolver dois protótipos de serviços para redes 4G que especializaram partes das ontologias Haggle, Y-Comm, SOHand e DOHand. A principal contribuição deste trabalho é facilitar a troca de informações gerenciais entre moderadores, usuários e provedores de serviços. Outra contribuição é mostrar como o uso de ontologias em plataformas 4G facilita a inserção de novos serviços nos ambientes integrados / Fourth Generation Networks (4G) introduce the capability of ubiquitous access to services in heterogeneous networks. In these environments, the distribution of the management would require semantics for common sharing vocabulary, an ability which is not yet provided. For that reason, service providers from different management domains are facing the challenge of exchanging managerial information between them during handovers. This is mainly due to the lack of new business models with access control, peering agreements, billing, security and privacy management, QoS standardization which strongly limit the collaboration between providers in the moment of receiving a new user. This work describes a set of ontologies to be used by new access models supported by ontologies for 4G. The ontologies are mapping out the common vocabulary of entities. The approach used to validate the set of ontologies was the development of two service prototypes for 4G, the prototypes specialized a subset of Haggle, Y-Comm, SOHand and DOHand ontologies. The main contribution is to provide the information structuring necessary for easy exchanging of managerial information between service providers, users and brokers. Another contribution of this work is to demostrate how ontologies facilitate the creation of new services in integrated environments
92

Unificação semântica de esquemas conceituais de banco de dados geográficos

Hess, Guillermo Nudelman January 2004 (has links)
A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.
93

Integrating BDI model and Bayesian networks / Integrando modelo BDI e redes Bayesianas

Fagundes, Moser Silva January 2007 (has links)
Individualmente, as linhas de pesquisa da Inteligência Artificial têm proposto abordagens para a resolução de inúmeros problemas complexos do mundo real. O paradigma orientado a agentes provê os agentes autônomos, capazes de perceber os seus ambientes, reagir de acordo com diferentes circunstâncias e estabelecer interações sociais com outros agentes de software ou humanos. As redes Bayesianas fornecem uma maneira de representar graficamente as distribuições de probabilidades condicionais e permitem a realização de raciocínios probabilísticos baseados em evidências. As ontologias são especificações explícitas e formais de conceituações, que são usadas em uma variedade de áreas de pesquisa, incluindo os Sistemas Multiagentes. Contudo, existem aplicações cujos requisitos não podem ser atendidos por uma única tecnologia. Circunstâncias como estas exigem a integração de tecnologias desenvolvidas por distintas áreas da Ciência da Computação. Esta dissertação trata a integração do modelo de agentes BDI (Belief-Desire-Intention) e das redes Bayesianas. Além disso, é adotada uma abordagem baseada em ontologias para representar o conhecimento incerto dos agentes. O primeiro passo em direção a integração foi o desenvolvimento de uma ontologia para representar a estrutura das redes Bayesinas. Esta ontologia tem como principal objetivo permitir a interoperabilidade agentes compatíveis com a arquitetura proposta. No entanto, a ontologia também facilita o entendimento necessário para abstrair os estados mentais e processos cognitivos dos agentes através de elementos das redes Bayesianas. Uma vez construída a ontologia, a mesma foi integrada com a arquitetura BDI. Através da integração do modelo BDI com as redes Bayesianas foi obtida uma arquitetura cognitiva de agentes capaz de deliberar sob incerteza. O processo de integração foi composto de duas etapas: abstração dos estados mentais através de elementos das redes Bayesianas e especificação do processo deliberativo. Finalmente, foi desenvolvido um estudo de caso, que consistiu na aplicação da arquitetura proposta no Agente Social, um componente de um portal educacional multiagente (PortEdu). / Individually, Artificial Intelligence research areas have proposed approaches to solve several complex real-world problems. The agent-based paradigm provided autonomous agents, capable of perceiving their environment, reacting in accordance with different situations, and establishing social interactions with other software agents and humans. Bayesian networks provided a way to represent graphically the conditional probability distributions and an evidence-based probabilistic reasoning. Ontologies are an effort to develop formal and explicit specifications of concepts, which have been used by a wide range of research areas, including Multiagent Systems. However, there are applications whose requirements can not be addressed by a single technology. Circumstances like these demand the integration of technologies developed by distinct areas of Computer Science. This work is particularly concerned with the integration of Belief-Desire-Intention (BDI) agent architecture and Bayesian networks. Moreover, it is adopted an ontology-based approach to represent the agent’s uncertain knowledge. To bring together those technologies, it was developed an ontology to represent the structure of Bayesian networks knowledge representation. This ontology supports the interoperability among agents that comply with the proposed architecture, and it also facilitates the understanding necessary to abstract the agents’ mental states and cognitive processes through elements of Bayesian networks. Once specified the ontology, it was integrated with the BDI agent architecture. By integrating BDI architecture and Bayesian networks, it was obtained a cognitive agent architecture capable of reasoning under uncertainty. It was performed in two stages: abstraction of mental states through Bayesian networks and specification of the deliberative process. Finally, it was developed a case study, which consists in applying the probabilistic BDI architecture in the Social Agent, a component of a multiagent educational portal (PortEdu).
94

Sobre estatística de dados bibliométricos em grupos de pesquisadores : universalidade e avaliação / About statistics on bibliometric data of researchers’ groups: universality and evaluation

Kalil, Fahad January 2012 (has links)
Agências de fomento à pesquisa, centros de pesquisas, universidades e a comunidade científica de uma forma geral buscam incessantemente pelo aperfeiçoamento e aumento da qualidade da produção científica de seus pesquisadores. Logo, faz-se necessário que sejam providas ferramentas e métodos eficazes para obtenção de avaliações coerentes. Vários métodos têm sido propostos ao longo dos anos e diferentes formas de avaliação vêm sendo empregadas em órgãos reguladores, como a agência brasileira de pós-graduação CAPES (Coordenação de Aperfeiçoamento de Pessoal de Nível Superior), todavia algumas questões ainda foram pouco exploradas. Com o advento do índice h (hindex) de Hirsch, que une fundamentalmente quantidade com qualidade, pois avalia um conjunto de artigos de acordo com sua distribuição de citações, uma série de estudos com as mais variadas estatísticas têm sido propostos. Contudo, não há na literatura atual, por exemplo, uma expressão analítica para distribuição de índices h de um grupo de pesquisadores, nem a verificação da existência de universalidade desta distribuição para diferentes grupos e bases de dados. Este trabalho aborda, num primeiro momento, um estudo sobre a distribuição de índice h e de citações em três áreas científicas distintas: física, biologia e ciência da computação, que possuem diferentes práticas de publicações e métodos de pesquisa. O trabalho ainda propõe uma nova métrica para construção de rankings baseado no índice h sucessivo de segunda ordem, por nós denominada s-index, o qual torna possível a comparação entre grupos de pesquisadores de tamanhos diferentes, assim proporcionando, por exemplo, uma comparação em termos de produtividade de grupos com grande quantidade de pesquisadores e grupos menores, mas que ainda assim reflita seus potenciais de produção. Por fim, é realizado estudo da correlação entre o s-index desenvolvido no trabalho e a classificação de cursos de mestrado e doutorado recomendados e reconhecidos realizada pela CAPES, usando dados de pesquisadores de programas de pós-graduação em física e biologia. As abordagens apresentadas podem ser usadas na classificação de grupos de pesquisadores, a partir de uma visão quantitativa, tentando eliminar, assim, métodos qualitativos de avaliação de difícil generalização e replicação. / Research financing agencies, research centers, universities and the scientific community are frequently seeking for improvement and enhancement on the quality of researchers’ work. Therefore, it is necessary to provide optimized tools and methods to get consistent evaluations. Several methods have been proposed over the years and different forms of evaluation are used by agencies such as Coordination for the Improvement of Higher Level Personnel (Capes), although some issues have been overlooked. With the invention of the h-index (Hirsch), that binds quantity with quality by measuring a set of papers according to their citation distribution, many studies have been considered with several different statistical methods. In the current literature, it is not found an analytical expression for h-index distribution over a researchers’ group, nor the proof of universality in this kind of distribution for different groups and databases. This master thesis discusses primarily a study about h-index distribution and citations in three distinct scientific fields: physics, biology and computer science, which has different publication and research practices. Also, it is proposed a novel metric for ranking based on successive h-index, named as s-index, which makes possible to compare researchers’ groups with different sizes, providing for example, a comparison in terms of productivity on higher and smaller groups of researchers, reflecting their skills on scientific production. A correlation study is conducted in order to compare the s-index, developed in this thesis, with the classification of post-graduation courses performed by Capes, using data from postgraduation researchers in physics and biology. The approaches presented can be used to classify researchers’ groups through a quantitative view, by eliminating some qualitative evaluations that are hardly generalizable and replicable.
95

Construção colaborativa de ontologias para domínios visuais utilizando fundamentação ontológica

Torres, Gabriel Moser January 2012 (has links)
Ontologias são modelos conceituais explícitos do conhecimento compartilhado por um grupo de usuários focados em determinado domínio de interesse. Seu principal obje-tivo é facilitar a comunicação através da explicitação das relações semânticas entre con-ceitos da realidade. O problema conceitual de classificação dos entes do mundo é com-plexo, pois cada indivíduo possui a sua própria abstração da realidade. Quando o mode-lo é compartilhado, surgem mais divergências de idéias e conceitualizações. Os usuários podem dar diferentes nomes para o mesmo conceito (sinonímia) ou podem utilizar a mesma palavra para se referir a conceitos diferentes (falsa concordância). Dessa forma, a colaboração se tornou uma parte importante do processo de desenvolvimento de onto-logias, auxiliando na explicitação do conceito por trás do vocabulário e na evolução do vocabulário para seus novos significados. Uma ferramenta de software torna o processo de construção de ontologias mais efi-ciente e produtivo, facilitando a comunicação entre os usuários e o armazenamento do conhecimento envolvido no processo. O uso de uma ontologia de fundamentação tem papel importante na obtenção do consenso comum, pois reduz as possibilidades de in-terpretação sobre o domínio através da categorização semântica dos elementos da onto-logia. Ela tem o objetivo de estabelecer uma base para obter-se coerência nas negocia-ções de significado sobre um modelo conceitual, guiando a construção do modelo e aju-dando a estabelecer a classificação taxonômica e as relações entre os conceitos. Dessa forma, obtém-se uma redução de ambiguidade e um aumento da precisão e consistência do modelo. Além disso, existem domínios imagísticos onde a representação simbólica linguística nem sempre é suficiente para explicitar certos conhecimentos, ou seja, onde o conhecimento visual é crucial para capturar informação e dar suporte à resolução de problemas. Este trabalho apresenta um modelo baseado em metaontologias para permitir a espe-cificação e colaboração de ontologias. A proposta inclui um sistema Web para a cons-trução colaborativa de ontologias, baseado em metadados que fornecem construtos pre-cisos. Alguns construtos são utilizados para embasar as escolhas ontológicas através da expressividade semântica de uma ontologia de fundamentação, enquanto outros permi-tem a associação de imagens e ícones para permitir maior entendimento do domínio. A colaboração foca na importância da fundamentação ontológica e do suporte ao conhe-cimento visual. / Ontologies are explicit conceptual models of consensual knowledge of a community regarding some particular interest. The main goal of ontologies is improving the com-munication inside a group of people making use of the explicitation of semantic rela-tionships that express the meaning of concepts. The correct classification of the entities of the world is a complex conceptual problem, since each individual retain his/her own abstraction of reality. When people collaborate to build the same conceptual model, many different opinions and divergences arise. Even restricting the domain of problem, the vocabulary exchange and ontology construction can bring unexpected complexity. The users can give distinct names to the same concept (synonym) or use the same word referring distinct concepts (false agreement). Therefore, collaboration has become an important part of the process of ontology development, supporting the explicitation of the concepts behind the vocabulary and the vocabulary evolution to their new meanings. The support of a software tool improves the efficiency of the ontology building pro-cess, helping the communication and the structured knowledge capturing. By its side, the use of a foundational ontology has an important role in achieving the common sense by reducing the interpretation possibilities of the domain objects when restrics the se-mantic characterization of the ontology elements. It provides a framework to achieve coherence in the meaning negotiation during the collaboration process. In this way, the model to be built has reduced its ambiguity and increased the precision and consistence of the ontology representation. This is more important when we consider domains where the visual knowledge plays an important role in filling the semantic gaps of the concepts. In these imagistic domains, the symbolic representation through a language are not enough to express the knowledge content, so visual pattern recognition is crucial to capture information and support problem resolution. This work presents a metaontologias based model to allow ontology specification and collaboration. The approach includes a Web system for the collaborative ontology building based in a set of metadata that provides specialized constructs to create the domain ontology elements. Some constructs are applied to support the ontological choices supported by the semantic expressivity of the foundational ontology primitives. Other constructs allow the association of images and icons to allow higher domain un-derstanding. This work considers the collaboration as a supporting instrument for build-ing ontologies, taking in consideration the importance of the ontological foundation and visual knowledge support.
96

Um processo auto-documentável de geração de ontologias de domínio para dados semi-estruturados

Santi, Sergio Medeiros January 2002 (has links)
Dados são disponibilizados através dos mais distintos meios e com os mais variados níveis de estruturação. Em um nível baixo de estruturação tem-se arquivos binários e no outro extremo tem-se bancos de dados com uma estrutura extremamente rígida. Entre estes dois extremos estão os dados semi-estruturados que possuem variados graus de estruturação com os quais não estão rigidamente comprometidos. Na categoria dos dados semiestruturados tem-se exemplos como o HTML, o XML e o SGML. O uso de informações contidas nas mais diversas fontes de dados que por sua vez possuem os mais diversos níveis de estruturação só será efetivo se esta informação puder ser manejada de uma forma integrada e através de algum tipo de esquema. O objetivo desta dissertação é fornecer um processo para construção de uma ontologia de domínio que haja como esquema representativo de diferentes conjuntos de informação. Estes conjuntos de informações podem variar de dados semi-estruturados a dados estruturados e devem referir-se a um mesmo domínio do conhecimento. Esta proposta permite que qualquer modelo que possa ser transformado no modelo comum de integração possa ser utilizado com entrada para o processo de integração. A ontologia de domínio resultante do processo de integração é um modelo semântico que representa o consenso obtido através da integração de diversas fontes de forma ascendente (bottom-up), binária, incremental, semi-automática e auto-documentável. Diz-se que o processo é ascendente porque integra o modelo que representa a fonte de interesse sobre a ontologia, é binário porque trabalha com dois esquemas a cada integração o que facilita o processo de documentação das integrações realizadas, é incremental porque cada novo esquema de interesse é integrado sobre a ontologia vigente naquele momento, é semiautomático porque considera a intervenção do usuário durante o processo e finalmente é autodocumentável porque durante o processo, toda integração de pares de conceitos semanticamente equivalentes é registrada. O fato de auto-documentar-se é a principal característica do processo proposto e seu principal diferencial com relação a outras propostas de integração. O processo de mapeamento utiliza, dos esquemas de entrada, toda a informação presente ou que possa ser inferida. Informações como se o conceito é léxico ou não, se é raiz e os símbolos que permitem deduzir cardinalidades são consideradas. No processo de integração são consideradas práticas consagradas de integração de esquemas de BDs, na identificação de relacionamentos entre objetos dos esquemas, para geração do esquema integrado e para resolução de conflitos. As principais contribuições desta dissertação são (i) a proposta de um metamodelo capaz de manter o resultado dos mapeamentos e das integrações realizadas e (ii) a especificação de um processo auto-documentável que de sustentação a auditoria do processo de integração.
97

Extração de informação usando integração de componentes de PLN através do framework GATE

de Souza Cabral, Luciano 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T15:53:11Z (GMT). No. of bitstreams: 2 arquivo1907_1.pdf: 1663192 bytes, checksum: 21a772bd61ef448147054bfaa52598d1 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2009 / A Extração de Informação (EI) é o ramo da área de recuperação de informação que utiliza técnicas e algoritmos para identificar e coletar informações desejadas a partir de documentos, sejam estes estruturados ou não, armazenando-as em um formato apropriado para consultas futuras. Dentre estas tecnologias, o uso de Processamento de Linguagem Natural (PLN) revela-se benéfico ao processo de extração, principalmente quando se processam documentos sem nenhuma estrutura e/ou padrão definido. Existe uma suíte que reúne dezenas de plugins que podem ajudar na tarefa de EI baseada em PLN, conhecida como GATE (General Architecture for Text Engineering). Neste trabalho propõe-se o módulo RELPIE, contendo alguns destes plugins para a extração a partir de texto livre. O módulo RELPIE é original, e emprega plugins GATE baseados em padrões de expressões regulares (ER) e regras de produção. Estas regras ficam totalmente separadas do sistema, visando modularidade na extração de informação a partir de documentos estruturados ou não. Os resultados obtidos nos experimentos demonstram que o módulo RELPIE apresenta bons níveis de extração com corpus compreendido por documentos textuais sem qualquer estrutura, alcançando um reconhecimento acima de 80% em média. Efetuando uma comparação com o sistema ANNIE (A Nearly-New Information Extraction System), resultados mostram que esse sistema é mais preciso em relação ao nosso, entretanto o sistema RELPIE mostra-se melhor na cobertura e no fmeasure. Um dos experimentos revelou outra descoberta interessante: corpora já processados denotam melhores resultados nas execuções posteriores, em média 6% na precisão, o que sugere que corpora não anotados devem ser processados duas vezes em seqüência para a obtenção de melhor performance na tarefa de extração, especialmente quando envolve entidades nomeadas e quando se usam ontologias para extraí-las
98

Explorando o Conhecimento Disponível na Web Semântica e o Feedback do Usuário para Melhorar a Acurácia de Alinhamentos Gerados em Processos de Ontology Matching

PEREIRA, Thiago Pacheco Andrade 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T15:58:25Z (GMT). No. of bitstreams: 2 arquivo4116_1.pdf: 5355194 bytes, checksum: cd3d350f07432dff0cd73705338db037 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Ontologias são usadas em diversos tipos de aplicações, como integração de banco de dados, sistemas peer-to-peer, e-commerce, serviços na Web Semântica e redes sociais. Devido ao aumento na quantidade e diversidade de ontologias, surge o problema da heterogeneidade de termos e representações e um dos desafios do uso de ontologias é tratar de forma mais eficiente essa heterogeneidade para possibilitar um melhor entendimento entre sistemas e a integração de informações. Um processo de ontology matching tem como objetivo encontrar correspondências entre elementos de ontologias distintas. Isto faz com que ferramentas deste tipo sejam interessantes em aplicações que usam ontologias. O conjunto de correspondências gerado é chamado alinhamento e pode ser usado para criar um entendimento entre agentes que representam seu conhecimento por ontologias, como também para reformular consultas em bases de dados que possuam seus esquemas representados por ontologias, possibilitando a integração de dados, dentre outras aplicações. Muitas técnicas de ontology matching usam comparações sintáticas ou estruturais entre os elementos das próprias ontologias. Porém, usar apenas o conhecimento interno das ontologias não tem sido suficiente para inferir todas as correspondências possíveis entre as ontologias envolvidas. Este trabalho tem como objetivo o uso de novas fontes de conhecimento externo encontradas na Web Semântica. Ontologias são usadas para adicionar semântica à navegação na Web, sendo associadas a páginas e contendo informações semânticas sobre elas. O desenvolvimento da Web Semântica vem fazendo crescer o número de ontologias disponíveis na Internet. Usamos estas ontologias para extrair conhecimento adicional sobre um determinado domínio do qual faz parte as ontologias que são comparadas. Outro objetivo deste trabalho é fornecer ao usuário a possibilidade de remover correspondências para obter conhecimento sobre correspondências incorretas. Essas informações são guardadas e, em futuras operações de ontology matching que envolvam ontologias de domínio semelhante, podem ser levadas em consideração para incluir ou eliminar uma correspondência de um alinhamento futuro
99

Um sistema de recuperação e extração de informação utilizando conceitos da web semântica

CARDOSO, Rafael Cunha January 2004 (has links)
Made available in DSpace on 2014-06-12T15:59:13Z (GMT). No. of bitstreams: 2 arquivo4978_1.pdf: 1542925 bytes, checksum: e49f4b7f816d2f33dd3c206e9c8ecd8f (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2004 / A crescente quantidade de dados disposta diariamente na Web faz com que os sistemas de recuperação e extração de informações desempenhem um papel importante dentro dessa realidade. Entretanto, os resultados das buscas na Web freqüentemente frustram as expectativas dos usuários no tocante à qualidade das informações recuperadas. A Web Semântica, considerada a nova geração da Web, apresenta conceitos e ferramentas que visam inserir significado nos documentos existentes na WWW atual, permitindo com isso sanar algumas das limitações existentes. Um dos principais conceitos sobre os quais a Web Semântica se fundamenta, é a Ontologia. Estas podem ser vistas como especificações formais de um determinado domínio de conhecimento que possibilitam um entendimento comum sobre determinado tema de discussão. Este trabalho visa melhorar a qualidade das informações recuperadas de sites na Web através da utilização de conceitos e fundamentos da Web Semântica aliada às técnicas da Web já estabilizadas. Para tanto, foi definida uma arquitetura e desenvolvido um protótipo de um sistema que objetiva realizar recuperação e extração de dados sobre um domínio específico de conhecimento, utilizando uma ontologia (baseada nos fundamentos da Web Semântica) desenvolvida para auxiliar o processo de extração de informação relevante a partir de um conjunto específico de dados da Web.
100

A DEFINIÇÃO DE UMA ONTOLOGIA PARA INTEGRAR DADOS DE INTERATOMA E TRANSCRIPTOMA DE CÂNCER

Cabral, Heleno Carmo Borges 23 June 2010 (has links)
Made available in DSpace on 2018-06-27T18:56:06Z (GMT). No. of bitstreams: 3 Heleno Carmo Borges Cabral.pdf: 5857862 bytes, checksum: d2951b87950c843d49760204923bdc2a (MD5) Heleno Carmo Borges Cabral.pdf.txt: 118091 bytes, checksum: e4e222642f43d380a5e6bf3a2acd2aac (MD5) Heleno Carmo Borges Cabral.pdf.jpg: 3434 bytes, checksum: 3c397ca213b4291d6533cce010f30ed4 (MD5) Previous issue date: 2010-06-23 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Ontocancro is an ontology stored in a knowledge database designed to be a source of information to integrate transcriptomics and interatomics data involved in gene pathways of genome maintenance/stability mechanisms (GMM). Genome maintenance mechanisms are shown to be critical for cell homeostasis since their malfunctioning can predispose to cancer. Repair, apoptosis and chromosome stability pathways comprise the cornerstone of GMM. The information about these pathways are disseminated in various databases as NCI-Nature, BioCarta, KEGG, Reactome, Prosite, GO and others. Ontocancro was created with the intention of integratin the information of genes involved in GMM from several curated databases. This data integration is difficult for biological data lack a unified vocabulary and need constant update what is provided by Ontocancro. Additionally, it allows the integration of transcriptome data provided by some Affymetrix microarrays platforms with interactome data from the STRING database, which has information about protein interactions. So, this work shows the integration of data from biological information systems using the ontology paradigm, in order to integrate transcriptomics and interatomics data involved in gene pathways of genome stability. / A Ontocancro é uma ontologia armazenada em um banco de dados de conhecimento projetada para ser a fonte de informação referente a integração de dados de interatoma e transcriptoma envolvidos em vias metabólicas de mecanismo de manutenção do genoma humano (GMM). Esse mecanismo de manutenção são críticos para homeostase celular desde o seu mau funcionamento, o que pode causar câncer. O reparo, a apoptose e as vias de estabilidade cromossômicas compreendem o cerne do GMM. A informação sobre essas vias metabólicas são disseminadas em vários bancos de dados, como o NCI-Nature, o BioCarta, o KEGG, o Reactome, o Prosite e o GO, entre outros. A ontologia Ontocancro foi criada com a intenção de integrar a informação sobre os genes envolvidos em GMM a partir de diversos bancos de dados curados. Essa integração de dados é complexa pela falta de um vocabulário sobre os dados biológicos e a necessidade constante de atualização destes dados. Para sanar essas duas dificuldades, a Ontocancro foi criada. Adicionalmente, ela permite a integração de dados oriundos de transcriptoma obtidos a partir da plataforma Affymetrix com os dados de interatoma obtidos a partir do banco de dados chamado STRING, o qual possui informação sobre as interações entre as proteínas. Portanto, este trabalho apresenta a integração de dados obtidos de sistemas de informação biológicos usando o paradigma ontológico, de forma a integrar os dados envolvidos em interatoma e transcriptoma em vias metabólicas de estabilidade do genoma.

Page generated in 0.0711 seconds