• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1424
  • 147
  • 56
  • 50
  • 50
  • 50
  • 39
  • 38
  • 38
  • 38
  • 12
  • 11
  • 1
  • 1
  • 1
  • Tagged with
  • 1601
  • 1601
  • 523
  • 448
  • 401
  • 331
  • 296
  • 221
  • 219
  • 177
  • 165
  • 145
  • 141
  • 125
  • 124
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Uma hibridização do método de Monte Carlo com técnicas intervalares para o problema de localização global

Neuland, Renata das Chagas January 2014 (has links)
Abordagens probabilísticas são extensivamente utilizadas para resolver problemas de alta dimensionalidade em diferentes campos. O filtro de partículas é uma abordagem proeminente no campo da Robótica, devido a sua adaptabilidade a modelos não lineares com distribuições multimodais. Contudo, seus resultados são fortemente dependentes da qualidade e do número de amostras requeridas para cobrir o espaço de busca. Em contrapartida, análise de intervalos lida com problemas de alta dimensionalidade através da redução do espaço de busca. Essas reduções são feitas através de técnicas intervalares que garantem matematicamente que a solução procurada está contida no resultado do método, uma vez que a modelagem do problema tenha sido feita corretamente. Métodos intervalares não descartam quaisquer soluções factíveis, com isso o resultado pode ser pouco representativo. Não obstante, não é possível definir precisamente onde a solução está no intervalo definido como solução. A estratégia proposta combina o melhor das duas abordagens. A ideia principal do método proposto é usar técnicas intervalares para melhorar os resultados do filtro de partículas, limitando o espalhamento das partículas e acelerando a convergência do método. Nós esperamos que o método proposto consiga fazer a distribuição e controle de partículas de forma mais eficiente, resultando possivelmente em um método mais preciso. A abordagem proposta é ilustrada através do tratamento do problema de localização global de robôs subaquáticos.
192

Um protótipo de sistema especialista para identificação e classificação de turbiditos

Abel, Mara January 1988 (has links)
Este trabalho descreve o desenvolvimento de um protótipo de sistema especialista de consulta para identificação e classificação de ambiente sedimentares em Geologia, o Sistema GEOXPERT. E dada ênfase especial ao processo de aquisição de conhecimento. O sistema busca identificar depósitos turbiditos são um tipo de rocha reservatório de petróleo) utikizando, de forma aproximada, a forma de raciocício usual de um geólogo especialista em Geologia Sedimentar. O processo de aquisição de conhecimento é analisado desde as fases iniciais de observações de dados e construção do modelo geológico, até o processo final de codificação para uso pelo computador. O conhecimento geológico é representado através de um grafo de espaços que define os caminhos da interação e contém as evidências e seus valores em relação à comprovação da hipótese. A estrutura de controle usa uma estratégia dirigida por objetivos e inclui tratamento de ijncerteza e teste de consistência das informações do usuário. Um protótipo do Sistema GEOXPERT foi implementado e testado, demonstrando suas capacidades e comportamento. / This dissertation describes the design of GEOXPERT, a prototype expert system providing consultational advice on both identification and classification of geological environments. paper emphasis is on knowlegde acquisition, The problem in focus is the identification of turbidite deposits (a kind of petroleum rock reservoir) abd thei component parts, by using reasoning methods similar to the usual methods employed by experts in sedimentary. The knowledge acquisition process is analysed since the preliminary steps of data observation and geological model construction up to the final process of codification for computer processing. Geological knowledge is represented in a structure called space graph, which includes geological hypotheses. The control structure uses a goal-oriented strategy and includes uncertainty treatment and consistency test for input information. A prototype of the system has been implemented and limited testing has shown the capabilities and behavior of the system.
193

Modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicos

Côrtes, Deise da Silva January 2005 (has links)
Em ambientes dinâmicos e complexos, a política ótima de coordenação não pode ser derivada analiticamente, mas, deve ser aprendida através da interação direta com o ambiente. Geralmente, utiliza-se aprendizado por reforço para prover coordenação em tais ambientes. Atualmente, neuro-evolução é um dos métodos de aprendizado por reforço mais proeminentes. Em vista disto, neste trabalho, é proposto um modelo de coordenação baseado em neuro-evolução. Mais detalhadamente, desenvolveu-se uma extensão do método neuro-evolutivo conhecido como Enforced Subpopulations (ESP). Na extensão desenvolvida, a rede neural que define o comportamento de cada agente é totalmente conectada. Adicionalmente, é permitido que o algoritmo encontre, em tempo de treinamento, a quantidade de neurônios que deve estar presente na camada oculta da rede neural de cada agente. Esta alteração, além de oferecer flexibilidade na definição da topologia da rede de cada agente e diminuir o tempo necessário para treinamento, permite também a constituição de grupos de agentes heterogêneos. Um ambiente de simulação foi desenvolvido e uma série de experimentos realizados com o objetivo de avaliar o modelo proposto e identificar quais os melhores valores para os diversos parâmetros do modelo. O modelo proposto foi aplicado no domínio das tarefas de perseguição-evasão.
194

Agentes improvisacionais como agentes deliberativos

Moraes, Marcia Cristina January 2004 (has links)
Improvisação tem sido considerada uma característica importante para agentes que pretendem operar de maneira consistente com a situação do momento, exibindo um comportamento credível e interessante. A improvisação deve estar presente tanto nos agentes individuais quanto nas sociedades de agentes. Desta maneira, esta tese irá abordar estes dois aspectos da improvisação. Propomos a visão de que, agentes capazes de realizar improvisação, os agentes improvisacionais, são um tipo de agente deliberativo capaz de solucionar problemas por improvisação. Neste sentido, buscamos identificar dentro de uma arquitetura clássica de agentes deliberativos, a arquitetura BDI (belief-desire-intention), a existência e/ou a possibilidade da inclusão de componentes de improvisação nesta arquitetura. Para resolver problemas complexos, estes agentes precisam estar agrupados em sociedades e estas sociedades, por sua vez, precisam produzir comportamentos coerentes. A coordenação é a área da Inteligência Artificial responsável por este objetivo. Propomos que a coordenação de agentes que improvisam pode ser realizada por meio de um processo de direção improvisacional, no sentido usado no contexto do teatro improvisacional. Ao longo deste documento, iremos mostrar nosso entendimento sobre agentes improvisacionais como agentes deliberativos e coordenação como direção improvisacional. Com isto, defende-se nesta tese que o uso da improvisação em agentes improvisacionais possibilita que os agentes improvisem comportamentos interativos, de maneira coerente, melhorando seu desempenho como solucionadores de problemas, criando e mantendo uma ilusão de vida para os agentes interativos e contribuindo para o aperfeiçoamento dos sistemas multiagentes.
195

Proposta de uma metodologia para detecção de impressões digitais falsas usando combinação e seleção dinâmica de classificadores

NASCIMENTO, André Hermenegildo do 06 March 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2015-10-21T17:48:28Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) PROPOSTA DE UMA METODOLOGIA PARA DETECÇÃO DE IMPRESSÕES DIGITAIS FALSAS USANDO COMBINAÇÃO E SELEÇÃO DINÂMICA DE CLASSIFICADORES.pdf: 8256593 bytes, checksum: a6a2b322802d4ec68100c08531d486e4 (MD5) / Made available in DSpace on 2015-10-21T17:48:28Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) PROPOSTA DE UMA METODOLOGIA PARA DETECÇÃO DE IMPRESSÕES DIGITAIS FALSAS USANDO COMBINAÇÃO E SELEÇÃO DINÂMICA DE CLASSIFICADORES.pdf: 8256593 bytes, checksum: a6a2b322802d4ec68100c08531d486e4 (MD5) Previous issue date: 2015-03-06 / As impressões digitais têm sido amplamente utilizadas como forma de autenticação de um indivíduo. Os padrões gerados pelas saliências das pontas dos dedos são usados para diferenciar uma pessoa da outra. Esses padrões vêm ao longo de anos apresentando-se como meio confiável de identificação pessoal, mesmo no caso de gêmeos idênticos as impressões digitais apresentamse diferentes. Entretanto estudos comprovam que é possível construir impressões digitais sintéticas com cópia das saliências utilizadas para identificar um usuário, permitindo o uso de forma fraudulenta de sistemas e serviços. Diante do perigo de fraude, várias técnicas vêm sendo desenvolvidas visando identificar se uma impressão digital corresponde ou não a uma impressão verdadeira (“impressão digital viva”). As técnicas de detecção de impressões digitais são divididas nas baseadas em hardware e nas baseadas em software que apresentam maior flexibilidade e menor custo de atualização dos dispositivos comercializados. O presente trabalho tem por objetivo apresentar uma técnica, baseada em software, que garanta mais segurança aos sistemas que se utilizam desta biometria, conseguindo identificar se uma impressão digital é falsa ou não. Para isto, é proposta uma arquitetura de geração, combinação e seleção dinâmica de classificadores para detecção de impressão digital falsa. A metodologia proposta é composta de 4 (quatro) módulos: módulo de Agrupamentos de Dados, módulo de Geração de Classificadores, módulo de Seleção Dinâmica de Classificadores, e o módulo de Combinação de Classificadores. Esses módulos estão organizados em 2 (duas) fases: treinamento e teste. Na fase de treinamento, as imagens das digitais são divididas em grupos, cada grupo contém os elementos que apresentam similaridade entre si. Esses grupos são utilizados para a criação dos classificadores especialistas. Na fase de teste é realizada a seleção dinâmica e a combinação dos classificadores obtidos, de modo a classificar um determinado padrão de entrada. A arquitetura proposta foi validada em 11 (onze) bases de dados pertencentes à competição LivDet (Liveness Detection Competition). Cada base foi analisada em 1.452 cenários diferentes, de modo a avaliar os parâmetros da arquitetura, sendo realizados um total de 15.972 experimentos. Os experimentos mostraram que os resultados obtidos com o uso da arquitetura proposta são bastante promissores, conseguindo superar o desempenho dos classificadores bases para todas as 11 bases de dados analisadas. Para uma das bases foi possível alcançar uma detecção com performance 68,10% superior ao se utilizar o classificador sem a etapa de combinação. Em média, os resultados obtidos apresentaram uma performance superior de 39,98% em relação a abordagem tradicional (sem a etapa de combinação). / Fingerprints have been widely used as a way of identifying an individual. The patterns generated by protrusions in the fingertips are used to differentiate one person from another. Those patterns have been a trustable way of personal identification. Even in the case of identical twins, fingerprints are different. However studies prove that it is possible to build synthetic digital fingerprints copying the protrusions used to identify one individual, allowing the fraudulent use of systems and services. In face of the danger of fraud, several techniques are being developed aiming to identify if a fingerprint corresponds or not to a true fingerprint (“live fingerprint”). Techniques for fingerprint detection are split between those based on hardware and those based on software which have more flexibility and lower cost for upgrading the devices being used. This work aims to present a technique, based on software, which ensures more security for the systems using this biometry, allowing to identify if a fingerprint is false or not. In order to do, it is proposed an architecture of generation, combination and dynamic selection of classifiers for false fingerprint detection. The proposed methodology is composed by 4 (four) modules: Module of Data Grouping, Module of Classifiers Generation, Module of Dynamic Selection of Classifiers and the Module of Classifiers Combination. Those modules are organized in two stages: training and testing. During the training stage, images of the digitals are split into groups, each group contains the elements that have similarities among themselves. Those groups are used for the creation of specialist classifiers. During the testing phase the dynamic selection and combination of the classifiers obtained is performed, in order to classify a particular input standard. The proposed architecture was validated in 11 databases belonging to the LivDet competition (Liveness Detection Competition). Each database was analyzed in 1,452 different scenarios, in order to evaluate the architecture parameters, in a total on 15,972 experiments performed. Experiments showed that results obtained using the proposed architecture are very promising, managing to overcome the performance of the database classifiers for all of the 11 analyzed databases. For one of the sets it was possible to reach a performance of detection 68.10% over others without using the combination stage. In average, results have a performance that is 39.98% superior compared to the traditional approach (without the combination step).
196

Artificial neural network architecture selection in a quantum computer

SILVA, Adenilton José da 26 June 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-01-27T17:25:47Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) tese Adenilton José da Silva.pdf: 4885126 bytes, checksum: d2bade12d15d6626962f244aebd5678d (MD5) / Made available in DSpace on 2016-01-27T17:25:47Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) tese Adenilton José da Silva.pdf: 4885126 bytes, checksum: d2bade12d15d6626962f244aebd5678d (MD5) Previous issue date: 2015-06-26 / CNPq / Miniaturisation of computers components is taking us from classical to quantum physics domain. Further reduction in computer components size eventually will lead to the development of computer systems whose components will be on such a small scale that quantum physics intrinsic properties must be taken into account. The expression quantum computation and a first formal model of a quantum computer were first employed in the eighties. With the discovery of a quantum algorithm for factoring exponentially faster than any known classical algorithm in 1997, quantum computing began to attract industry investments for the development of a quantum computer and the design of novel quantum algorithms. For instance, the development of learning algorithms for neural networks. Some artificial neural networks models can simulate an universal Turing machine, and together with learning capabilities have numerous applications in real life problems. One limitation of artificial neural networks is the lack of an efficient algorithm to determine its optimal architecture. The main objective of this work is to verify whether we can obtain some advantage with the use of quantum computation techniques in a neural network learning and architecture selection procedure. We propose a quantum neural network, named quantum perceptron over a field (QPF). QPF is a direct generalisation of a classical perceptron which addresses some drawbacks found in previous models for quantum perceptrons. We also present a learning algorithm named Superposition based Architecture Learning algorithm (SAL) that optimises the neural network weights and architectures. SAL searches for the best architecture in a finite set of neural network architectures and neural networks parameters in linear time over the number of examples in the training set. SAL is the first quantum learning algorithm to determine neural network architectures in linear time. This speedup is obtained by the use of quantum parallelism and a non linear quantum operator. / A miniaturização dos componentes dos computadores está nos levando dos domínios da física clássica aos domínios da física quântica. Futuras reduções nos componentes dos computadores eventualmente levará ao desenvolvimento de computadores cujos componentes estarão em uma escala em que efeitos intrínsecos da física quântica deverão ser considerados. O termo computação quântica e um primeiro modelo formal de computação quântica foram definidos na década de 80. Com a descoberta no ano de 1997 de um algoritmo quântico para fatoração exponencialmente mais rápido do que qualquer algoritmo clássico conhecido a computação quântica passou a atrair investimentos de diversas empresas para a construção de um computador quântico e para o desenvolvimento de algoritmos quânticos. Por exemplo, o desenvolvimento de algoritmos de aprendizado para redes neurais. Alguns modelos de Redes Neurais Artificiais podem ser utilizados para simular uma máquina de Turing universal. Devido a sua capacidade de aprendizado, existem aplicações de redes neurais artificiais nas mais diversas áreas do conhecimento. Uma das limitações das redes neurais artificiais é a inexistência de um algoritmo com custo polinomial para determinar a melhor arquitetura de uma rede neural. Este trabalho tem como objetivo principal verificar se é possível obter alguma vantagem no uso da computação quântica no processo de seleção de arquiteturas de uma rede neural. Um modelo de rede neural quântica denominado perceptron quântico sobre um corpo foi proposto. O perceptron quântico sobre um corpo é uma generalização direta de um perceptron clássico que resolve algumas das limitações em modelos de redes neurais quânticas previamente propostos. Um algoritmo de aprendizado denominado algoritmo de aprendizado de arquitetura baseado no princípio da superposição que otimiza pesos e arquitetura de uma rede neural simultaneamente é apresentado. O algoritmo proposto possui custo linear e determina a melhor arquitetura em um conjunto finito de arquiteturas e os parâmetros da rede neural. O algoritmo de aprendizado proposto é o primeiro algoritmo quântico para determinar a arquitetura de uma rede neural com custo linear. O custo linear é obtido pelo uso do paralelismo quântico e de um operador quântico não linear.
197

Algoritmos particionais semissupervisionados com ponderação automática de variáveis

MACARIO FILHO, Valmir 10 January 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-02-19T18:48:11Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) TESE Valmir Macario Filho.pdf: 4240940 bytes, checksum: 4f9034afca3528b01bdc7b2ac14aff39 (MD5) / Made available in DSpace on 2016-02-19T18:48:11Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) TESE Valmir Macario Filho.pdf: 4240940 bytes, checksum: 4f9034afca3528b01bdc7b2ac14aff39 (MD5) Previous issue date: 2015-01-10 / FACEPE / Nas aplicações tradicionais de aprendizagem de máquina, os classificadores utilizam ape- nas dados rotulados em seu treinamento. Os dados rotulados, por sua vez, são difíceis, caros, consomem tempo e requerem especialistas humanos para serem obtidos em algu- mas aplicações reais. Entretanto, dados não rotulados são abundantes e fáceis de serem obtidos mas há poucas abordagens que os utilizam no treinamento. Para contornar esse problema existe a aprendizagem semissupervisionada. A aprendizagem semissupervisio- nada utiliza dados não rotulados, juntamente com dados rotulados, com a finalidade de melhorar o desempenho dos algoritmos. A abordagem semissupervisionada, geralmente, obtém resultados melhores do que se utilizassem apenas poucos padrões rotulados em uma abordagem supervisionada ou se utilizassem apenas padrões não rotulados numa abordagem não supervisionada. Um algoritmo semissupervisionado pode se basear em algoritmos de agrupamento não supervisionado, geralmente, adicionando-se um termo ou estratégia que faz uso de informações rotuladas para guiar o processo de aprendizagem deste algoritmo. Os algoritmos de agrupamento são bastante influenciados pelo cálculo da similaridade entre dois items, ou seja, a distância entre dois itens. Quando o algoritmo semissupervisionado é um extensão de um algoritmo de agrupamento, este também é bastante influenciado por esta distância. Desse modo, distâncias adaptativas são utiliza- das para que o algoritmo tenha capacidade de se adequar a diferentes distribuições dos dados, geralmente, melhorando o desempenho em relação aos algoritmos que não utili- zam uma distância adaptativa. Este trabalho apresenta novos algoritmos de agrupamento semissupervisionado baseados no algoritmo Fuzzy C-Means que utilizam distâncias adap- tativas com ponderação automática de variáveis. Estudos experimentais no contexto da aprendizagem a partir de dados parcialmente rotulados são apresentados. Além disso, o comportamento dos algoritmos é discutido e os resultados examinados através de testes estatísticos de Friedman. Desse modo, foi possível certificar que os novos algoritmos de agrupamento semissupervisionado com distâncias adaptativas apresentam desempenho melhor que algoritmos já consolidados na literatura. / In traditional machine learning applications, one uses only labeled data to train the al- gorithm. Labeled data are difficult, expensive, time consuming and require human ex- perts to be obtained in some real applications. However, unlabeled data are abundant and easy to be obtained but there has been few approaches to use them in training. Semi-supervised learning addresses this problem. The semi-supervised learning uses large amount of unlabeled data, together with the labeled data, to build better algorithms. The semi-supervised approach, usually, obtains better results than if using a few labeled patterns in a supervised approach or using only standard not supervised approach. The semi-supervised algorithm can be an extension of an unsupervised algorithm. Such algo- rithm can be based on unsupervised clustering algorithms, adding a term or strategy, that makes use of labeled information to guide the learning process of the algorithm. Unsuper- vised algorithms are greatly influenced by calculating the similarity between two items, ie, the distance between two items. When the semi-supervised algorithm is an extension of an unsupervised algorithm, it is also quite influenced by this distance. Thus, adaptive distances are utilized, so the algorithm is able to adapt to different data distributions, gen- erally improving performance compared to algorithms that use the standard Euclidean distance. This work presents new algorithms for semi-supervised clustering based on Fuzzy C-Means algorithm using adaptive distances with automatic variable weighting. Exper- imental studies in the context of learning from partially labeled data are presented. In addition, the behavior of the algorithm is discussed and the results are investigated using the Friedman Test. Thus, it was possible to certify that the performance of the new semi- supervised clustering algorithms are better than other consolidated algorithms.
198

Ensinus : um ambiente virtual de uso geral para verificação e suporte ao aprendizado

ZARGAR, Gilce Cleana Brandão January 2006 (has links)
Made available in DSpace on 2014-06-12T15:59:34Z (GMT). No. of bitstreams: 2 arquivo5184_1.pdf: 794263 bytes, checksum: 824a76a9f50ceeec0f5af3999c3d498b (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2006 / Esse trabalho visou o desenvolvimento de um ambiente virtual de aprendizagem que pudesse ser utilizado em quaisquer áreas de ensino. Para isso, foi concebido o ambiente Ensinus. Sabe-se que a usabilidade é um fator crítico para o sucesso de qualquer sistema interativo. No caso de um ambiente voltado para o ensino, a usabilidade é imprescindível, pois os alunos precisam ter facilidade no uso do mesmo para que o ambiente não se transforme em mais um obstáculo para o processo de ensino-aprendizagem. Por esse motivo, procurou-se projetar o sistema com o foco nos usuários (professores e alunos). Assim, desde as primeiras versões implementadas, utilizadas como protótipos funcionais, o sistema foi apresentado aos usuários para que fosse validada a sua usabilidade. Os testes foram executados em instituições de ensino superior, tendo sido aplicados em diferentes disciplinas. Os resultados dos experimentos realizados demonstraram que o Ensinus possui uma boa usabilidade, tendo sido utilizado sem dificuldades pelos alunos. Além disso, foi constatada a importância que ele tem como ferramenta de apoio ao professor no acompanhamento da evolução da aprendizagem dos alunos
199

Desenvolvimento de uma arquitetura paralela para redes neurais artificiais MLP baseada em FPGAS

Pyetro Amaral Ferreira, Antonyus 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T15:59:56Z (GMT). No. of bitstreams: 2 arquivo5807_1.pdf: 6535979 bytes, checksum: f0b7d3e91a58a935a96a4b9790f84fab (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Este trabalho apresenta a definição de uma arquitetura, baseada em FPGA, para implementação de Redes Neurais (RNAs) MLP. A arquitetura proposta foi projetada observando-se critérios limitantes como grande quantidade de entradas, redução do consumo de área, utilização de pinos, recursos de interconexão e compromisso entre área/desempenho. Um importante resultado é a utilização de log2m adicionadores para uma RNA com m entradas. Uma RNA cuja topologia é 256:10:10 atingiu um speed-up de 36x, comparado com uma implementação convencional em C rodado em um PC. Uma ferramenta de geração automática do código da RNA em linguagem HDL também foi desenvolvida
200

Aplicação de métodos de raciocínio baseado em casos de conhecimento intensivo para a web semântica: um estudo sobre o domínio biológico

SEGUNDO, Plácido das Chagas Soares 27 August 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-05-13T17:12:35Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO_UNIFICADO_DIGITAL_FINAL (1).pdf: 2573159 bytes, checksum: c26fd7c0936cb51a0aab37c9d1e1dd16 (MD5) / Made available in DSpace on 2016-05-13T17:12:35Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO_UNIFICADO_DIGITAL_FINAL (1).pdf: 2573159 bytes, checksum: c26fd7c0936cb51a0aab37c9d1e1dd16 (MD5) Previous issue date: 2015-08-27 / A literatura tem descrito soluções baseadas em web semântica e ontologias como uma estratégia para a implementação de consultas e integração entre fontes de dados, considerando que ontologias e fontes de dados podem apresentar conteúdo complementar em um mesmo domínio. A estratégia tradicional é baseada na execução de consultas em SPARQL (Query Language for RDF) para acesso aos dados de forma integrada a ontologias. Esta estratégia não apresenta expressividade suficiente para derivar novo conteúdo, pois não vai além da álgebra relacional. Uma alternativa à SPARQL é aplicar raciocínio por subsunção disponível para ontologias descritas com Description Logics (DL). No entanto DL por si só não é capaz de determinar o que significa uma instância (dado) sem a existência de uma descrição explícita (axioma). Nesse sentido, há limitações sobre os métodos disponíveis para a web semântica, pois não apresentam uma solução capaz de interpretar de forma automatizada o que significa uma instância (dado) sem a existência de axiomas os quais descrevam o comportamento do domínio. Neste trabalho, é levantada a hipótese de que é possível realizar o aperfeiçoamento nos mecanismos de raciocínio sobre os dados de forma que novos axiomas possam ser gerados segundo a demanda do usuário, e.g. a partir de consultas. Este processo é baseado na utilização da semântica inerente aos registros dos bancos de dados, e dos mapeamentos existentes entre as ontologias e os bancos. Para isso, além das técnicas de web semântica levantadas, são utilizados métodos de Knowledge-intensive Case Based Reasoning (KI-CBR) para a recuperação das informações que representem os melhores resultados. O presente trabalho tem como objetivo apresentar uma proposta de evolução aos métodos de KI-CBR existentes para permitir a recuperação e a geração de casos em ambientes heterogêneos, integrados por meio de várias ontologias e que incluam as restrições disponíveis nas ontologias no processo de definição de solução. O processo de definição de solução é relacionado à extração de novos axiomas a partir do arranjo dos dados e das consultas criadas pelo usuário. Como ponto de partida, será utilizada e modificada a metodologia de KI-CBR incluída na ferramenta jCOLIBRI2. Dados (UniProt/SwissProt, Ensembl e NCBI Taxonomy) e ontologias (Gene Ontology, Chemical Entities of Biological Interest, Protein Ontology e BioTopLite2) do domínio biológico serão utilizados para exemplificação devido a revisão manual, presença de anotações e nível de formalização do conhecimento. A nova ferramenta de CBR derivada do presente trabalho será chamada de IntegrativO CBR e será disponibilizada como um plugin para o editor de ontologias Protégé v.5. A contribuição desta pesquisa se reflete na implementação de uma ferramenta de auxílio para o desenvolvimento de soluções, baseadas em web semântica e ontologias, capaz de recuperar e gerar novos casos em ambientes heterogêneos mediados por ontologias. / The literature describes solutions based on semantic web and ontologies as a strategy integration of data sources. The traditional semantic integration strategy relies on running queries with SPARQL to access data, supported by an ontological representation. This strategy bears a limitation: it does not have enough expressiveness to derive new content due to limited expressiveness. An alternative to SPARQL is to apply reasoning subsumption available for ontologies described in Description Logics (DL). Even in this scenario, DL is not able to determine what an instance is (from data), without explicit statements (axioms). In this sense, there are limitations on the methods available for the semantic web, as it does not provide a solution to enable interpreting data from an ontological point of view. In this work, it is hypothesized that it is possible improve the reasoning mechanisms over the data so that new axioms can be generated according to user demand, e.g. from queries. This process is based on the inherent semantics of the databases, according to an ontological background. For this, along with the semantic web techniques, Knowledge-intensive Case Based Reasoning (CBR-KI) are used to support information retrieval based on similarity analysis to extract the most suitable results. In this sense, this study aims at presenting an evolution to existing KI-CBR methods in order to allow retrieval and generation of cases in heterogeneous environments, integrated through multiple ontologies. It also reuses axioms available in ontologies to define a suitable solution. The solution-making process is related to the extraction of new axioms from the data arrangement and user-created queries. The jCOLIBRI2 tool is used as a basis for the development, as it is delivered as a suite for developing new KI-CBR solutions. Data from biomedical databases (UniProt / SwissProt, Ensembl and NCBI Taxonomy) and biomedical ontologies (Gene Ontology, Chemical Entities of Biological Interest, Protein Ontology and BioTopLite2) are used for exemplification due to manual review of data, presence of data annotations, and level of ontological formalization. The new CBR tool derived from this work is called integrative CBR, and is available as a plugin for the ontology editor Protégé v.5. The contribution of this research is reflected in the implementation of a tool to support the development of solutions based on semantic web and ontologies, able to recover and generate new cases in heterogeneous environments mediated by ontologies.

Page generated in 0.1716 seconds