• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 36
  • 14
  • Tagged with
  • 50
  • 18
  • 18
  • 18
  • 18
  • 18
  • 15
  • 12
  • 12
  • 9
  • 6
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Unificação semântica de esquemas conceituais de banco de dados geográficos

Hess, Guillermo Nudelman January 2004 (has links)
A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.
22

Unificação semântica de esquemas conceituais de banco de dados geográficos

Hess, Guillermo Nudelman January 2004 (has links)
A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.
23

Extensão do framework geoframe para modelagem de processos de análise geográfica

Ruschel, Cláudio January 2003 (has links)
As particularidades encontradas na modelagem de bancos de dados geográficos tornam necessário o desenvolvimento de modelos específicos. A totalidade dos modelos desenvolvidos oferece recursos para a modelagem de aspectos estáticos. Alguns dos modelos apresentam soluções parciais para a modelagem de aspectos dinâmicos. A possibilidade de executar processos de análise geográfica, que alteram o estado dos componentes do banco de dados geográficos é, de forma geral, a maior motivação para justificar os investimentos necessários para a sua construção. A formalização desses processos em um modelo conceitual, na fase de projeto, torna desnecessário o uso da terminologia específica que cada software de SIG emprega. A solução desenvolvida estende um framework conceitual (GeoFrame) com uma semântica que suporta a expressão de processos de análise geográfica, mantendo compatibilidade com a linguagem UML. Para utilizar de forma adequada os recursos do framework, uma metodologia para a elaboração do modelo do usuário é indicada. Nessa metodologia, os processos são identificados a partir da elaboração de diagramas de casos de uso e atividades, incorporados no diagrama de classes e detalhados através de diagramas de atividades contendo ações. Um levantamento sobre operações utilizadas em processos de análise geográfica abrangendo a visão conceitual, lógica e de implementação de vários autores levou à construção de um catálogo de operações geográficas. Essas operações foram modeladas utilizando os elementos de modelagem de comportamento da especificação da UML, versão 2.0. O conjunto de recursos oferecidos nesse trabalho proporciona ao projetista de bancos de dados geográficos o desenvolvimento de uma especificação em alto nível e abrangente, utilizando a linguagem UML, reconhecida como padrão em modelagem de sistemas.
24

Incorporando suporte a restrições espaciais de caráter topológico ao modelo abstrato do consórcio Open GIS

Bogorny, Vania January 2001 (has links)
Os Sistemas de Informação Geográfica (SIG) são construídos, especificamente, para armazenar, analisar e manipular dados geográficos, ou seja, dados que representam objetos e fenômenos do mundo real, cuja localização em relação à superfície da Terra seja considerada. A interoperabilidade desses sistemas, que constitui-se na capacidade de compartilhar e trocar informações e processos entre ambientes computacionais heterogêneos, se faz necessária, pois, devido ao elevado custo de aquisição dos dados geográficos, as comunidades de informação precisam compartilhar dados de fontes existentes, sem a necessidade de fazer conversões. Porém, pela complexidade e incompatibilidades de representação, de estrutura e de semântica das informações geográficas, a maioria dos softwares de SIG, hoje, não são interoperáveis. Existe também, além do problema da não interoperabilidade, uma crescente preocupação com relação à qualidade e à integridade espacial dos dados geográficos. Contudo, alguns modelos conceituais de dados geográficos e os softwares de SIG não oferecem, ainda, os meios adequados para representar e garantir a integridade espacial das informações. As restrições de integridade definidas durante a fase de projeto conceitual, normalmente, são implementadas durante o projeto físico, seja de forma implícita ou explícita, podendo ser incorporadas diretamente no modelo de implementação do SIG, de forma que o usuário da aplicação apenas mencione a regra e o sistema a implemente e a garanta automaticamente.Este trabalho de pesquisa propõe uma extensão ao Modelo Abstrato OpenGIS, modelo este que deve ser um padrão de interoperabilidade de software para SIG. A extensão proposta incorpora ao mesmo um subconjunto de tipos de restrição espacial, buscando com isso oferecer melhor suporte às regras da realidade geográfica expressáveis na modelagem conceitual do sistema.
25

Performance optimization of geophysics stencils on HPC architectures / Optimização de desempenho de estênceis geofísicos sobre arquiteturas HPC

Abaunza, Víctor Eduardo Martínez January 2018 (has links)
A simulação de propagação de onda é uma ferramenta crucial na pesquisa de geofísica (para análise eficiente dos terremotos, mitigação de riscos e a exploração de petróleo e gáz). Devido à sua simplicidade e sua eficiência numérica, o método de diferenças finitas é uma das técnicas implementadas para resolver as equações da propagação das ondas. Estas aplicações são conhecidas como estênceis porque consistem num padrão que replica a mesma computação num domínio multidimensional de dados. A Computação de Alto Desempenho é requerida para solucionar este tipo de problemas, como consequência do grande número de pontos envolvidos nas simulações tridimensionais do subsolo. A optimização do desempenho dos estênceis é um desafio e depende do arquitetura usada. Neste contexto, focamos nosso trabalho em duas partes. Primeiro, desenvolvemos nossa pesquisa nas arquiteturas multicore; analisamos a implementação padrão em OpenMP dos modelos numéricos da transferência de calor (um estêncil Jacobi de 7 pontos), e o aplicativo Ondes3D (um simulador sísmico desenvolvido pela Bureau de Recherches Géologiques et Minières); usamos dois algoritmos conhecidos (nativo, e bloqueio espacial) para encontrar correlações entre os parâmetros da configuração de entrada, na execução, e o desempenho computacional; depois, propusemos um modelo baseado no Aprendizado de Máquina para avaliar, predizer e melhorar o desempenho dos modelos estênceis na arquitetura usada; também usamos um modelo de propagação da onda acústica fornecido pela empresa Petrobras; e predizemos o desempenho com uma alta precisão (até 99%) nas arquiteturas multicore. Segundo, orientamos nossa pesquisa nas arquiteturas heterogêneas, analisamos uma implementação padrão do modelo de propagação de ondas em CUDA, para encontrar os fatores que afetam o desempenho quando o número de aceleradores é aumentado; então, propusemos uma implementação baseada em tarefas para amelhorar o desempenho, de acordo com um conjunto de configuração no tempo de execução (algoritmo de escalonamento, tamanho e número de tarefas), e comparamos o desempenho obtido com as versões de só CPU ou só GPU e o impacto no desempenho das arquiteturas heterogêneas; nossos resultados demostram um speedup significativo (até 25) em comparação com a melhor implementação disponível para arquiteturas multicore. / Wave modeling is a crucial tool in geophysics, for efficient strong motion analysis, risk mitigation and oil & gas exploration. Due to its simplicity and numerical efficiency, the finite-difference method is one of the standard techniques implemented to solve the wave propagation equations. This kind of applications is known as stencils because they consist in a pattern that replicates the same computation on a multi-dimensional domain. High Performance Computing is required to solve this class of problems, as a consequence of a large number of grid points involved in three-dimensional simulations of the underground. The performance optimization of stencil computations is a challenge and strongly depends on the underlying architecture. In this context, this work was directed toward a twofold aim. Firstly, we have led our research on multicore architectures and we have analyzed the standard OpenMP implementation of numerical kernels from the 3D heat transfer model (a 7-point Jacobi stencil) and the Ondes3D code (a full-fledged application developed by the French Geological Survey). We have considered two well-known implementations (naïve, and space blocking) to find correlations between parameters from the input configuration at runtime and the computing performance; thus, we have proposed a Machine Learning-based approach to evaluate, to predict, and to improve the performance of these stencil models on the underlying architecture. We have also used an acoustic wave propagation model provided by the Petrobras company and we have predicted the performance with high accuracy on multicore architectures. Secondly, we have oriented our research on heterogeneous architectures, we have analyzed the standard implementation for seismic wave propagation model in CUDA, to find which factors affect the performance; then, we have proposed a task-based implementation to improve the performance, according to the runtime configuration set (scheduling algorithm, size, and number of tasks), and we have compared the performance obtained with the classical CPU or GPU only versions with the results obtained on heterogeneous architectures.
26

A branch-and-price algorith, for a compressor scheduling problem

Friske, Marcelo Wuttig January 2016 (has links)
O presente trabalho realiza o estudo e aplicação de um algoritmo de branch-and-price para a resolução de um problema de escalonamento de compressores. O problema é ligado à produção petrolífera, o qual consiste em definir um conjunto de compressores a serem ativados para fornecer gas de elevação a um conjunto de poços, atendendo toda demanda e minimizando os custos envolvidos. O problema é caracterizado por uma função objetivo não-convexa que é linearizada por partes de forma a ser formulada como um problema de programação inteira mista. A abordagem de geração de colunas é baseada na decomposição de Dantzig-Wolfe e apresenta melhores limitantes inferiores em relação à relaxação linear da formulação compacta. O branch-and-price é comparado ao solver CPLEX, sendo capaz de encontrar a solução ótima em menor tempo para um conjunto de instâncias, bem como melhores soluções factíveis para instâncias maiores em um período de tempo limitado. / This work presents the study and application of a branch-and-price algorithm for solving a compressor scheduling problem. The problem is related to oil production and consists of defining a set of compressors to be activated, supplying the gas-lift demand of a set of wells and minimizing the associated costs. The problem has a non-convex objective function, to which a piecewise-linear formulation has been proposed. This dissertation proposes a column generation approach based on the Dantzig-Wolfe decomposition, which achieves tighter lower bounds than the straightforward linear relaxation of the piecewise-linear formulation. The column generation was embedded in a branch-and-price algorithm and further compared with CPLEX, obtaining optimal solutions in lesser time for a set of instances. Further, the branch-and-price algorithm can find better feasible solutions for large instances under a limited processing time.
27

Um framework conceitual para inserção de dados de rochas em modelos de reservatório / A conceptual framework for rock data insertion in reservoir models

Garcia, Luan Fonseca January 2016 (has links)
A contribuição deste trabalho é um framework conceitual para a inserção de dados diretos de rocha em modelos de grid de reservatório, através da calibragem de logs de poço. Este tipo de dado é frequentemente ignorado ou processado manualmente nas modelagens atuais, seja por custos elevados para sua obtenção, seja pelo alto grau de complexidade para a modelagem, interpretação e extrapolação dos dados. O framework busca definir os requisitos para um projeto de software que inclua os componentes necessários para o processamento automático ou supervisionado dos dados de rocha desde sua geração até sua utilização final, em modelos de simulação de fluxo, suportando a interoperabilidade dos dados e o rastreamento da informação de rochas. A proposta é embasada na combinação de ontologias de domínio para a petrografia, o conceito geológico de petrofácies de reservatório, um algoritmo de reconhecimento de padrões em logs de poço que podem corresponder a camadas homogêneas na rocha e um algoritmo para extrapolação de padrões baseado em algoritmos de alinhamento de sequências de DNA. A combinação das abordagens utilizadas neste trabalho é inédita e fornece suporte para o uso de petrofácies de reservatório durante a modelagem de reservatório. O levantamento de informações foi realizado em forma de aquisição de conhecimento, através de entrevistas com cinco profissionais de Geologia, Geofísica e Geoquímica, com diferentes formações na indústria do petróleo, além de extensa revisão da literatura. Esta aquisição nos possibilitou mapear as grandes atividades durante o processo de exploração, bem como os dados resultantes de cada etapa. Um modelo conceitual ontologicamente bem fundamentado permite mapear e integrar os dados de rocha nas diferentes etapas de processamento desde sua aquisição, como descrições de amostras de poços, descrições microscópicas e logs geofísicos até a identificação e inserção das propriedades relevantes em grids 3D utilizando padrões de trocas de dados da indústria. / A Conceptual Framework to insert direct rock data into reservoir models trough well logs calibration is the contribution of this work. This kind of data is often ignored or manually processed in the current modeling process, due to its high costs or due to the complexity for the modeling, interpretation and extrapolation of the data. The framework aims to define a software project requirements that includes the necessary components for automated or supervised process of the rock data from its generation until its final use in the flow simulation models, supporting the interoperability of the data and the tracking of the rock information. The proposal is based in the combination of domain ontology for petrography, the geological concept of reservoir petrofacies, a pattern recognition algorithm on well logs that can correspond to homogeneous rock layers and an algorithm to extrapolate patterns based on algorithms for the alignment of DNA sequences. The combination of the approaches used in this work is novel and provides support for the use of reservoir petrofacies during reservoir modeling. Five different professionals from the Geology, Geophysics and Geochemistry fields, with different backgrounds in the oil industry, were interviewed in order to acquire the necessary knowledge, and an extensive review of the literature. This acquisition enabled us to map the major activities during the process of exploration, as well as the data resulting from each step. A ontological well-grounded conceptual model allows mapping and integrating rock data in the different processing steps from its acquisition, such as descriptions of sample wells, microscopic descriptions and geophysical logs, to the identification and insertion of the relevant properties on 3D grids using standards of industry data exchange.
28

A novel classification method applied to well log data calibrated by ontology based core descriptions

Graciolli, Vinicius Medeiros January 2018 (has links)
Um método para a detecção automática de tipos litológicos e contato entre camadas foi desenvolvido através de uma combinação de análise estatística de um conjunto de perfis geofísicos de poços convencionais, calibrado por descrições sistemáticas de testemunhos. O objetivo deste projeto é permitir a integração de dados de rocha em modelos de reservatório. Os testemunhos são descritos com o suporte de um sistema de nomenclatura baseado em ontologias que formaliza extensamente uma grande gama de atributos de rocha. As descrições são armazenadas em um banco de dados relacional junto com dados de perfis de poço convencionais de cada poço analisado. Esta estrutura permite definir protótipos de valores de perfil combinados para cada litologia reconhecida através do cálculo de média e dos valores de variância e covariância dos valores medidos por cada ferramenta de perfilagem para cada litologia descrita nos testemunhos. O algoritmo estatístico é capaz de aprender com cada novo testemunho e valor de log adicionado ao banco de dados, refinando progressivamente a identificação litológica. A detecção de contatos litológicos é realizada através da suavização de cada um dos perfis através da aplicação de duas médias móveis de diferentes tamanhos em cada um dos perfis. Os resultados de cada par de perfis suavizados são comparados, e as posições onde as linhas se cruzam definem profundidades onde ocorrem mudanças bruscas no valor do perfil, indicando uma potencial mudança de litologia. Os resultados da aplicação desse método em cada um dos perfis são então unificados em uma única avaliação de limites litológicos Os valores de média e variância-covariância derivados da correlação entre testemunhos e perfis são então utilizados na construção de uma distribuição gaussiana n-dimensional para cada uma das litologias reconhecidas. Neste ponto, probabilidades a priori também são calculadas para cada litologia. Estas distribuições são comparadas contra cada um dos intervalos litológicos previamente detectados por meio de uma função densidade de probabilidade, avaliando o quão perto o intervalo está de cada litologia e permitindo a atribuição de um tipo litológico para cada intervalo. O método desenvolvido foi testado em um grupo de poços da bacia de Sergipe- Alagoas, e a precisão da predição atingida durante os testes mostra-se superior a algoritmos clássicos de reconhecimento de padrões como redes neurais e classificadores KNN. O método desenvolvido foi então combinado com estes métodos clássicos em um sistema multi-agentes. Os resultados mostram um potencial significante para aplicação operacional efetiva na construção de modelos geológicos para a exploração e desenvolvimento de áreas com grande volume de dados de perfil e intervalos testemunhados. / A method for the automatic detection of lithological types and layer contacts was developed through the combined statistical analysis of a suite of conventional wireline logs, calibrated by the systematic description of cores. The intent of this project is to allow the integration of rock data into reservoir models. The cores are described with support of an ontology-based nomenclature system that extensively formalizes a large set of attributes of the rocks, including lithology, texture, primary and diagenetic composition and depositional, diagenetic and deformational structures. The descriptions are stored in a relational database along with the records of conventional wireline logs (gamma ray, resistivity, density, neutrons, sonic) of each analyzed well. This structure allows defining prototypes of combined log values for each lithology recognized, by calculating the mean and the variance-covariance values measured by each log tool for each of the lithologies described in the cores. The statistical algorithm is able to learn with each addition of described and logged core interval, in order to progressively refine the automatic lithological identification. The detection of lithological contacts is performed through the smoothing of each of the logs by the application of two moving means with different window sizes. The results of each pair of smoothed logs are compared, and the places where the lines cross define the locations where there are abrupt shifts in the values of each log, therefore potentially indicating a change of lithology. The results from applying this method to each log are then unified in a single assessment of lithological boundaries The mean and variance-covariance data derived from the core samples is then used to build an n-dimensional gaussian distribution for each of the lithologies recognized. At this point, Bayesian priors are also calculated for each lithology. These distributions are checked against each of the previously detected lithological intervals by means of a probability density function, evaluating how close the interval is to each lithology prototype and allowing the assignment of a lithological type to each interval. The developed method was tested in a set of wells in the Sergipe-Alagoas basin and the prediction accuracy achieved during testing is superior to classic pattern recognition methods such as neural networks and KNN classifiers. The method was then combined with neural networks and KNN classifiers into a multi-agent system. The results show significant potential for effective operational application to the construction of geological models for the exploration and development of areas with large volume of conventional wireline log data and representative cored intervals.
29

Um Modelo de conhecimento baseado em eventos para aquisição e representação de seqüências temporais / An event-based knowledge model to support acquisition and representation of temporal sequences

Mastella, Laura Silveira January 2005 (has links)
Ontologias de representação de conhecimento são modelos que agrupam e definem construtos de modelagem (tais como conceito, classe, frame). Uma ontologia temporal é uma especificação de uma conceitualização do domínio acrescida dos aspectos de tempo sobre os objetos do domínio. No caso de esta ontologia tratar somente de aspectos temporais ligados a eventos, ela é chamada ontologia de eventos. Este trabalho propõe uma extensão de uma ontologia de representação de conhecimento (RC) com construtos temporais, ou seja, estender um modelo de conceitualização de domínios com os construtos necessários para se representar eventos. A definição original de uma ontologia de RC foi estendida neste trabalho com os seguintes construtos: (i) o construto evento (que define um evento como um acontecimento que pode alterar objetos do domínio) e (ii) o construto relação-temporal (que define uma relação de tempo entre os eventos). O objetivo deste trabalho é, baseando-se nos novos construtos propostos na ontologia de RC, criar um modelo de conhecimento específico para um domínio, o qual suporta a representação das seguintes primitivas: características do domínio, eventos geradores das características do domínio, associações entre características do domínio, relações temporais entre eventos. Além disso, o modelo tem o objetivo de suportar métodos de raciocínio para inferir a seqüência em que as características do domínio foram geradas pelos eventos, ou seja, inferir a ordem dos eventos. O domínio de aplicação deste trabalho é a petrografia sedimentar. Esse domínio apresenta diversas tarefas de interpretação que exigem conhecimento especializado para sua solução. Dentre estas tarefas, o foco de estudo deste trabalho é a interpretação de seqüência diagenética, a qual procura identificar a ordem em que os processos diagenéticos atuaram sobre os constituintes das rochas sedimentares. Para compreender e coletar o conhecimento necessário para a modelagem dessa tarefa, as principais técnicas de aquisição de conhecimento para sistemas baseados em conhecimento foram aplicadas em sessões com um especialista em petrografia sedimentar, gerando os principais objetos do domínio que precisavam ser modelados para se atingir o objetivo da ordenação de eventos. Esses objetos foram representados como um modelo de conhecimento específico para o domínio da petrografia, aplicando os construtos de eventos e relação temporal. Esse modelo foi validado através da implementação de um módulo de inferência no sistema PetroGrapher. A validação foi efetuada comparando as respostas do algoritmo com as interpretações do especialista, e foi possível notar que apesar de a apresentação gráfica da seqüência de eventos ainda ser diferente da original do especialista, o algoritmo efetua a ordenação de eventos corretamente. / O domínio de aplicação deste trabalho é a petrografia sedimentar. Esse domínio apresenta diversas tarefas de interpretação que exigem conhecimento especializado para sua solução. Dentre estas tarefas, o foco de estudo deste trabalho é a interpretação de seqüência diagenética, a qual procura identificar a ordem em que os processos diagenéticos atuaram sobre os constituintes das rochas sedimentares. Para compreender e coletar o conhecimento necessário para a modelagem dessa tarefa, as principais técnicas de aquisição de conhecimento para sistemas baseados em conhecimento foram aplicadas em sessões com um especialista em petrografia sedimentar, gerando os principais objetos do domínio que precisavam ser modelados para se atingir o objetivo da ordenação de eventos. Esses objetos foram representados como um modelo de conhecimento específico para o domínio da petrografia, aplicando os construtos de eventos e relação temporal. Esse modelo foi validado através da implementação de um módulo de inferência no sistema PetroGrapher. A validação foi efetuada comparando as respostas do algoritmo com as interpretações do especialista, e foi possível notar que apesar de a apresentação gráfica da seqüência de eventos ainda ser diferente da original do especialista, o algoritmo efetua a ordenação de eventos corretamente. The application domain of this work is the sedimentary petrography. This domain presents several interpretation tasks that demand specialized knowledge for their solution. Among these tasks, the focus of this work is the diagenetic sequence interpretation, which aims to identify the order in that diagenetic processes occurred over the constituents of sedimentary rocks. In order to understand and collect the necessary knowledge for modeling this task, the main techniques of knowledge acquisition for knowledge-based systems were applied to an expert in sedimentary petrography. These sessions of knowledge acquisition revealed the domain objects that needed to be modeled to reach the objective of the ordering of events. Those objects were represented in a knowledge model for the petrography domain, which applied the proposed constructs (events and time relation). That model was validated by the implementation of an inference module in the PetroGrapher system. The validation proceeded by comparing the outputs of the algorithm with the expert's interpretations, and it was possible to notice that despite the graphic presentation of the sequence of events being different from what the expert produces as a sequence of events, the algorithm is able to order the events correctly.
30

Mapeamento e documentação de feições visuais diagnósticas para interpretação em sistema baseado em conhecimento no domínio da petrografia / The diagnostic visual feature mapping and documentation in a knowledge-base system for interpretation in the Petrographic domain

Victoreti, Felipe Ingletto January 2007 (has links)
Nos domínios visuais, interpretações são iniciadas pela identificação de feições em imagens que irão, posteriormente, dar suporte aos processos mais abstratos de inferência. Para desenvolver sistemas de conhecimento neste tipo de domínio é necessário buscar a melhor representação do conhecimento visual para ser utilizado pelos métodos de inferência. A representação em formato simbólico deste conhecimento auxilia na captura do conhecimento implícito presente em imagens, permitindo seu uso nos processos de raciocínio, mesmo aceitando que parte desse conhecimento não é externalizado e, em conseqüência, não poderá ser representado adequadamente. Estudos recentes têm utilizado anotação de imagens como uma maneira capaz de auxiliar na explicitação do conhecimento, ampliando a expressividade dos formalismos de representação e permitindo o registro das informações associadas às imagens. Embora anotações de imagens flexibilizem a captura do conhecimento, ontologias são associadas às anotações para garantir a formalização do conhecimento nas imagens, suprindo os termos de domínio que podem ser usados para anotar e auxiliar a uniformização da linguagem nas consultas. O objetivo desse trabalho é capturar e documentar o conhecimento visual que dá suporte à inferência nas tarefas de interpretações. Nesse trabalho é elaborada uma maneira de identificar objetos em imagens que contenham feições diagnósticas através da utilização de uma ontologia de domínio pré-existente. Essa identificação de objetos é explorada para permitir a localização física de uma determinada feição em um objeto real. O resultado disso é a identificação de feições em uma imagem tendo-se um referencial de posição segundo um sistema de coordenadas espacial, possibilitando o seu re-posicionamento. O trabalho ainda explora recursos para a melhor utilização de informações relacionadas a uma imagem. Dessa forma, serve de documentação auxiliar para prover diferencial em interpretações. O domínio de aplicação deste trabalho é a Petrografia Sedimentar que tem como uma das tarefas a descrição quantitativa e qualitativa dos minerais que compõem uma amostra de rocha, visando a análise do potencial de um reservatório de petróleo. As informações são visualizadas em uma amostra de rocha e, assim, um especialista toma decisões quanto à viabilidade de exploração do reservatório. Esse modelo foi validado através da implementação de um módulo de anotação de imagem e de referenciamento de objetos, juntamente com um hardware. O processo de descrição de amostra de rocha é detalhado para se explorar o conhecimento em imagens com a precisão da localização dos objetos nela identificados. Essa abordagem complementa os modelos de representação simbólica, que normalmente são insuficientes para capturar a semântica das feições que dão suporte a inferência em domínios visuais. / Problem solvers in visual domains apply image interpretation to extract evidences to support the reasoning process in the search of solution. In order to develop knowledge systems in this kind of domain, it is necessary to represent the knowledge that is extracted from the scenes in the domain in such way that can be used by the inference methods. The symbolic representation formalisms help in shading light on the implicit knowledge embodied in images, allowing its use in reasoning processes, even accepting that part of this knowledge can not be properly expressed by the experts and, in consequence, it is never going to be adequately represented in knowledge models. Some studies use image annotation to extend the semantic capture of the visual knowledge beyond the expressiveness of representation formalisms, allowing that additional content could be described and stored with the images. Although the annotation is a more flexible way of capturing knowledge, ontologies are used along with it to guarantee the formalization of the knowledge annotated in the images, supplying the domain terms that can be used in the annotation process and helping the uniformization of the language and further consultation. The goal of this work is capturing and documenting the visual knowledge that supports inference on interpretation tasks. The work offer a way of identifying objects in images that correspond to diagnostic features and describing them with the support of a pre-existent domain ontology. The object identification is associated to the physical location of the feature in the real object, with the help of a hardware appliance. The result is the feature identification in the image with the reference of its position in a system of spatial coordinates. The work also explores multimedia resources for the best use of information associated to the image, providing an extra-support for knowledge documentation for interpretation tasks. The application domain of this work is the sedimentary petrography, the formal description of rocks in the scope of Petrological studies. The task in focus is the compositional description of minerals in a rock sample, both in qualitative and quantitative way, in order to evaluate the potential of a petroleum reservoir. Several aspects of the rock are studied by the geologist to suggest better techniques for exploration and production of oil fields. The approach defined in this project was validated through the implementation of an image annotation and referencing modules associated to microscope stage appliance that allows the computer to control the movement of the stage during the description process. The whole process of rock sample analysis using the software and the hardware is detailed in order to expose the visual knowledge and its physical position in the rock sample. This approach complements the symbolic representation models that are usually insufficient to capture the semantic of diagnostic features that support reasoning in visual domains.

Page generated in 0.0534 seconds