• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • 5
  • 1
  • Tagged with
  • 26
  • 26
  • 17
  • 7
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

AcCORD: um modelo colaborativo assíncrono para a reconciliação de dados / AcCORD: asynchronous collaborative data reconciliation model

Dayse Silveira de Almeida 28 April 2016 (has links)
Reconciliação é o processo de prover uma visão consistente de dados provenientes de várias fontes de dados. Embora existam na literatura trabalhos voltados à proposta de soluções de reconciliação baseadas em colaboração assíncrona, o desafio de reconciliar dados quando vários usuários colaborativos trabalham de forma assíncrona sobre as mesmas cópias locais de dados, compartilhando somente eventualmente as suas decisões de integração particulares, tem recebido menos atenção. Nesta tese de doutorado investiga-se esse desafio, por meio da proposta do modelo AcCORD (Asynchronous COllaborative data ReconcIliation moDel). AcCORD é um modelo colaborativo assíncrono para reconciliação de dados no qual as atualizações dos usuários são mantidas em um repositório de operações na forma de dados de procedência. Cada usuário tem o seu próprio repositório para armazenar a procedência e a sua própria cópia das fontes. Ou seja, quando inconsistências entre fontes importadas são detectadas, o usuário pode tomar decisões de integração para resolvê-las de maneira autônoma, e as atualizações que são executadas localmente são registradas em seu próprio repositório. As atualizações são compartilhadas entre colaboradores quando um usuário importa as operações dos repositórios dos demais usuários. Desde que diferentes usuários podem ter diferentes pontos de vista para resolver o mesmo conflito, seus repositórios podem estar inconsistentes. Assim, o modelo AcCORD também inclui a proposta de diferentes políticas de reconciliação multiusuário para resolver conflitos entre repositórios. Políticas distintas podem ser aplicadas por diferentes usuários para reconciliar as suas atualizações. Dependendo da política aplicada, a visão final das fontes importadas pode ser a mesma para todos os usuários, ou seja, um única visão global integrada, ou resultar em distintas visões locais para cada um deles. Adicionalmente, o modelo AcCORD também incorpora um método de propagação de decisões de integração, o qual tem como objetivo evitar que um usuário tome decisões inconsistentes a respeito de um mesmo conflito de dado presente em diferentes fontes, garantindo um processo de reconciliação multiusuário mais efetivo. O modelo AcCORD foi validado por meio de testes de desempenho que avaliaram as políticas propostas, e por entrevistas a usuários que avaliaram não somente as políticas propostas mas também a qualidade da reconciliação multiusuário. Os resultados obtidos demonstraram a eficiência e a eficácia do modelo proposto, além de sua flexibilidade para gerar uma visão integrada ou distintas visões locais. As entrevistas realizadas demonstraram diferentes percepções dos usuários quanto à qualidade do resultado provido pelo modelo AcCORD, incluindo aspectos relacionados à consistência, aceitabilidade, corretude, economia de tempo e satisfação. / Reconciliation is the process of providing a consistent view of the data imported from different sources. Despite some efforts reported in the literature for providing data reconciliation solutions with asynchronous collaboration, the challenge of reconciling data when multiple users work asynchronously over local copies of the same imported data has received less attention. In this thesis we investigate this challenge. We propose AcCORD, an asynchronous collaborative data reconciliation model. It stores users integration decision in logs, called repositories. Repositories keep data provenance, that is, the operations applied to the data sources that led to the current state of the data. Each user has her own repository for storing the provenance. That is, whenever inconsistencies among imported sources are detected, the user may autonomously take decisions to solve them, and integration decisions that are locally executed are registered in her repository. Integration decisions are shared among collaborators by importing each others repositories. Since users may have different points of view, repositories may also be inconsistent. Therefore, AcCORD also introduces several policies that can be applied by different users in order to solve conflicts among repositories and reconcile their integration decisions. Depending on the applied policy, the final view of the imported sources may either be the same for all users, that is, a single integrated view, or result in distinct local views for each of them. Furthermore, AcCORD encompasses a decision integration propagation method, which is aimed to avoid that a user take inconsistent decisions over the same data conflict present in different sources, thus guaranteeing a more effective reconciliation process. AcCORD was validated through performance tests that investigated the proposed policies and through users interviews that investigated not only the proposed policies but also the quality of the multiuser reconciliation. The results demonstrated the efficiency and efficacy of AcCORD, and highlighted its flexibility to generate a single integrated view or different local views. The interviews demonstrated different perceptions of the users with regard to the quality of the result provided by AcCORD, including aspects related to consistency, acceptability, correctness, time-saving and satisfaction.
22

SciProv: uma arquitetura para a busca semântica em metadados de proveniência no contexto de e-Science

Valente, Wander Antunes Gaspar 18 January 2011 (has links)
Submitted by isabela.moljf@hotmail.com (isabela.moljf@hotmail.com) on 2017-05-05T13:06:54Z No. of bitstreams: 1 wanderantunesgasparvalente.pdf: 18725317 bytes, checksum: 3ee881993096b45e72f9522887e7e2e0 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-05-17T13:37:14Z (GMT) No. of bitstreams: 1 wanderantunesgasparvalente.pdf: 18725317 bytes, checksum: 3ee881993096b45e72f9522887e7e2e0 (MD5) / Made available in DSpace on 2017-05-17T13:37:14Z (GMT). No. of bitstreams: 1 wanderantunesgasparvalente.pdf: 18725317 bytes, checksum: 3ee881993096b45e72f9522887e7e2e0 (MD5) Previous issue date: 2011-01-18 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A e-Science se caracteriza pela manipulação de um vasto volume de dados e utilização de recursos computacionais em larga escala, muitas vezes localizados em ambientes distribuídos. Nesse cenário, representado por alta complexidade e heterogeneidade, torna-se relevante o tratamento da proveniência de dados, que tem por objetivo descrever os dados que foram gerados ao longo da execução de um experimento científico e apresentar os processos de transformação pelos quais foram submetidos. Assim, a proveniência auxilia a formar uma visão da qualidade, da validade e da atualidade dos dados produzidos em um ambiente de pesquisa científica. O SciProv consiste em uma arquitetura cujo objetivo é interagir com sistemas de gerenciamento de Workflows científicos para promover a captura e a gerência dos metadados de proveniência gerados. Para esse propósito, o SciProv adota uma abordagem baseada em um modelo abstrato para a representação da proveniência. Esse modelo, denominado Open Provenance Model, confere ao SciProv a capacidade de prover uma infraestrutura homogênea e interoperável para a manipulação dos metadados de proveniência. Como resultado, o SciProv permite disponibilizar um arcabouço para consulta às informações de proveniência geradas em um cenário complexo e diversificado de e-Science. Mais importante, a arquitetura faz uso de tecnologia web semântica para processar as consultas aos metadados de proveniência. Nesse contexto, a partir do emprego de ontologias e máquinas de inferências, o SciProv provê recursos para efetuar deduções sobre os metadados de proveniência e obter resultados importantes ao extrair informações adicionais além daquelas que encontram-se registradas de forma explícita nas informações gerenciadas. / E-Science is characterized by manipulation of huge data set and large scale computing resources usage, often located in distributed environments. In this scenario, represented by high complexity and heterogeneity, it becomes important to treat data provenance, which aims to describe data that were generated during a scientific experiment execution and presents processes of transformation by which underwent. Thus, lineage helps to form a quality, validity and topicality vision of data produced in a scientific research environment. SciProv consists of an architecture that aims to interact with scientific workflows management systems for capture and manipulation of generated provenance metadata. For this purpose, SciProv adopts an approach based on an abstract model for representing the lineage. This model, called Open Provenance Model, provides to SciProv the ability to set up a homogeneous and interoperable infrastructure for handling provenance metadata. As a result, SciProv is able to provide a framework for query data provenance generated in a complex and diverse e-Science scenario. More important, the architecture makes use of semantic web technology to process metadata provenance queries. In this context, using ontologies and inference engines, SciProv provides resources to make inferences about lineage and to obtain important results in allowing the extraction of information beyond those that are registered explicitly from managed data.
23

Uma infraestrutura para apoiar o processo de teste de software através de proveniência e previsão dos resultados de testes de unidade

Paiva, Camila Acácio de 27 June 2018 (has links)
Submitted by Geandra Rodrigues (geandrar@gmail.com) on 2018-07-20T12:18:30Z No. of bitstreams: 1 camilaacaciodepaiva.pdf: 9167548 bytes, checksum: 23bc00520b1453f40c0c4c739227c90b (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2018-07-23T15:21:00Z (GMT) No. of bitstreams: 1 camilaacaciodepaiva.pdf: 9167548 bytes, checksum: 23bc00520b1453f40c0c4c739227c90b (MD5) / Made available in DSpace on 2018-07-23T15:21:00Z (GMT). No. of bitstreams: 1 camilaacaciodepaiva.pdf: 9167548 bytes, checksum: 23bc00520b1453f40c0c4c739227c90b (MD5) Previous issue date: 2018-06-27 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O software está cada vez mais presente no cotidiano das pessoas. Vários setores ou aspectos do ambiente são influenciados por ele. Desta forma, o desenvolvimento de software torna-se uma atividade crítica. Assim, o processo de teste se torna crucialmente importante, pois qualquer negligência pode refletir na qualidade do produto. Contudo, o cenário de desenvolvimento de software vem sofrendo mudanças a partir da necessidade de suprir demandas com maior agilidade e as exigências do mercado. É fundamental haver uma visão holística dos processos de desenvolvimento do software com o objetivo de gerar um ciclo de melhoria contínua. Tal visão é denominada como Engenharia de Software Contínua. A Engenharia de Software Contínua é caracterizada pelo uso do feedback de execuções para alcançar uma melhoria contínua e pela realização das atividades de maneira contínua. Feedback esse que pode ser fornecido através da proveniência de dados: descrição das origens de um dado e os processos pelos quais passou. Diante disso, este trabalho apresenta uma infraestrutura que tem como foco a captura e o armazenamento do histórico dos dados de execução do projeto, a previsão dos resultados dos testes de unidade através de algoritmos de previsão Logistic Regression, Naive Bayes e C4.5 Algorithm, e a disponibilização dos dados para aplicações externas. Além disso, oferece elementos de visualização que auxiliam na compreensão dos dados. Um experimento com dados de um projeto real foi realizado com o intuito de identificar a acurácia das previsões. / Software is increasingly present in people's daily lives. Various sectors and the environment are influenced by them. In this way, the development of software becomes a critical activity. Thus, the testing process becomes crucially important because any negligence can affect the quality of the product and the insecurity related to the use of the software. However, the software development scenario has undergone changes from the need to meet demands with greater agility and the demands of the market. It is fundamental to have a holistic view of the software development processes in order to generate a cycle of continuous improvement. Such a view is referred to as Continuous Software Engineering. Continuous Software Engineering is characterized by the use of feedback from executions to achieve continuous improvement and by performing activities on an ongoing basis. Feedback this can be provided through the provenance of data: description of the origins of a given and the processes by which it passed. This work presents an infrastructure that focuses on the capture and storage of the project execution data history, the prediction of the results of the unit tests through prediction algorithms: Logistic Regression, Naive Bayes and C4.5 Algorithm, and the provision of data for external applications. It also provides preview elements which help in understanding the data. An experiment with data from a real project was carried out in order to identify the accuracy of the prediction.
24

Melhoria de processos de software através da combinação de proveniência de dados, ontologias, redes complexas e visualizações

Falci, Maria Luiza Furtuozo 20 September 2018 (has links)
Submitted by Geandra Rodrigues (geandrar@gmail.com) on 2018-10-30T13:13:53Z No. of bitstreams: 1 marialuizafurtuozofalci.pdf: 3709688 bytes, checksum: dfce5ab7a51878d5d6b47d99d30e5d36 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2018-11-23T12:23:48Z (GMT) No. of bitstreams: 1 marialuizafurtuozofalci.pdf: 3709688 bytes, checksum: dfce5ab7a51878d5d6b47d99d30e5d36 (MD5) / Made available in DSpace on 2018-11-23T12:23:48Z (GMT). No. of bitstreams: 1 marialuizafurtuozofalci.pdf: 3709688 bytes, checksum: dfce5ab7a51878d5d6b47d99d30e5d36 (MD5) Previous issue date: 2018-09-20 / O processo de desenvolvimento de software é uma atividade complexa, que é influenciada por diferentes fatores, e pode ser surpreendida por um comportamento inesperado do software. Devido a sua importância cada vez maior nos dias de hoje, a necessidade de melhoria na qualidade do software e seus processos é de extrema importância. Uma forma de melhorar processos de software é através da análise de dados de execuções anteriores, dados estes que para serem coletados necessitam do controle e monitoramento dos processos. O presente trabalho propõe uma arquitetura que engloba modelos de proveniência de dados, ontologia e rede complexa, para modelar a proveniência na área de processos de desenvolvimento software, além de permitir a extração de conhecimento implícito nos dados. A arquitetura conta também com uma camada de visualização para dar suporte à compreensão do comportamento dos dados a gerentes de projetos, e dessa forma os mesmos possam tomar decisões orientadas a dados e melhorar futuras execuções. A arquitetura proposta foi avaliada através da utilização de dados reais e estudo com participação de um gerente de projetos. / Software development process is a complex activity, which is influenced by many factors and can be surprised by an unexpected software behavior. Software‟s importance has grown exponentially in the past few years, which makes software improvement extremely necessary, as it is present in many different aspects of daily life. Analyze data from previous executions may be a good tactic to deal with software unpredictability, and to record processes‟ data is necessary to implement software monitoring and control. The present work proposes an architecture that encompasses provenance data, ontology and complex network models to structure data provenance in software process‟ domain and allow implicit knowledge extraction. The architecture proposed has a visualization layer to support project managers‟ data comprehension, allowing them to have data-oriented decision making and improve future process executions. The proposed architecture was evaluated with real companies‟ data and through a study with a specialist participation.
25

Apoiando o reúso em uma plataforma de ecossistema de software científico através do gerenciamento de contexto e de proveniência

Ambrósio, Lenita Martins 14 September 2018 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2018-11-19T12:32:38Z No. of bitstreams: 1 lenitamartinsambrosio.pdf: 4678886 bytes, checksum: a6f09cd96620242b7eeda9443a48e1a5 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2018-11-23T13:09:03Z (GMT) No. of bitstreams: 1 lenitamartinsambrosio.pdf: 4678886 bytes, checksum: a6f09cd96620242b7eeda9443a48e1a5 (MD5) / Made available in DSpace on 2018-11-23T13:09:03Z (GMT). No. of bitstreams: 1 lenitamartinsambrosio.pdf: 4678886 bytes, checksum: a6f09cd96620242b7eeda9443a48e1a5 (MD5) Previous issue date: 2018-09-14 / Considerando o cenário de experimentação científica atual e o crescente uso de aplicações em larga escala, o gerenciamento de dados de experimentação está se tornando cada vez mais complexo. O processo de experimentação científica requer suporte para atividades colaborativas e distribuídas. O gerenciamento de informações contextuais e de proveniência desempenha um papel fundamental no domínio neste domínio. O registro detalhado das etapas para produzir resultados, bem como as informações contextuais do ambiente de experimentação, pode permitir que os cientistas reutilizem esses resultados em experimentos futuros e reutilizem o experimento ou partes dele em outro contexto. O objetivo deste trabalho é apresentar uma abordagem de gerenciamento de informações de proveniência e contexto que apoie pesquisadores no reúso de conhecimento sobre experimentos científicos conduzidos em uma plataforma colaborativa e distribuída. Primeiramente, as fases do ciclo de vida do gerenciamento de contexto e proveniência foram analisadas, considerando os modelos existentes. Em seguida, foi proposto um framework conceitual para apoiar a análise de elementos contextuais e dados de proveniência de experimentos científicos. Uma ontologia capaz de extrair conhecimento implícito neste domínio foi especificada. Essa abordagem foi implementada em uma plataforma de ecossistema científico. Uma avaliação realizada por meio de estudos de caso evidenciou que essa arquitetura é capaz de auxiliar os pesquisadores durante a reutilização e reprodução de experimentos científicos. Elementos de contexto e proveniência de dados, associados a mecanismos de inferência, podem ser utilizados para apoiar a reutilização no processo de experimentação científica. / Considering the current experimentation scenario and the increasing use of large-scale applications, the experiment data management is growing complex. The scientific experimentation process requires support for collaborative and distributed activities. Managing contextual and provenance information plays a key role in the scientific domain. Detailed logging of the steps to produce results, as well as the environment context information could allow scientists to reuse these results in future experiments and reuse the experiment or parts of it in another context. The goal of this work is to present a provenance and context metadata management approach that support researchers in the reuse of knowledge about scientific experiments conducted in a collaborative and distributed platform. First, the context and provenance management life cycle phases were analyzed, considering existing models. Then it was proposed a conceptual framework to support the analysis of contextual elements and provenance data of scientific experiments. An ontology capable of extracting implicit knowledge in this domain was specified. This approach was implemented in a scientific ecosystem platform. An evaluation conducted through case studies shown evidences that this architecture is able to help researchers during the reuse and reproduction of scientific experiments. Context elements and data provenance, associated with inference mechanisms, can be used to support the reuse in scientific experimentation process.
26

[en] AUTONOMOUS SYSTEMS EXPLAINABLE THROUGH DATA PROVENANCE / [pt] SISTEMAS AUTÔNOMOS EXPLICÁVEIS POR MEIO DE PROVENIÊNCIA DE DADOS

TASSIO FERENZINI MARTINS SIRQUEIRA 25 June 2020 (has links)
[pt] Determinar a proveniência dos dados, isto é, o processo que levou a esses dados, é vital em muitas áreas, especialmente quando é essencial que os resultados ou ações sejam confiáveis. Com o crescente número de aplicações baseadas em inteligência artificial, criou-se a necessidade de torná-las capazes de explicar seu comportamento e responder às suas decisões. Isso é um desafio, especialmente se as aplicações forem distribuídas e compostas de vários agentes autônomos, formando um Sistema Multiagente (SMA). Uma maneira fundamental de tornar tais sistemas explicáveis é rastrear o comportamento do agente, isto é, registrar a origem de suas ações e raciocínios, como em uma depuração onisciente. Embora a ideia de proveniência já tenha sido explorada em alguns contextos, ela não foi extensivamente explorada no contexto de SMA, deixando muitas questões para serem compreendidas e abordadas. Nosso objetivo neste trabalho é justificar a importância da proveniência dos dados para SMA, discutindo quais perguntas podem ser respondidas em relação ao comportamento do SMA, utilizando a proveniência e ilustrando, através de cenários de aplicação, os benefícios que a proveniência proporciona para responder a essas questões. Este estudo envolve a criação de um framework de software, chamado FProvW3C, que suporta a coleta e armazenamento da proveniência dos dados produzidos pelo SMA, que foi integrado a plataforma BDI4JADE (41), formando o que denominamos de Prov-BDI4JADE. Por meio desta plataforma, utilizando exemplos de sistemas autônomos, demostramos com rigor que, o uso da proveniência de dados em SMA é uma solução sólida, para tornar transparente o processo de raciocínio e ação do agente. / [en] Determining the data provenance, that is, the process that led to those data, is vital in many areas, especially when it is essential that the results or actions be reliable. With the increasing number of applications based on artificial intelligence, the need has been created to make them capable of explaining their behavior and be responsive to their decisions. This is a challenge especially if the applications are distributed, and composed of multiple autonomous agents, forming a Multiagent System (MAS). A key way of making such systems explicable is to track the agent s behavior, that is, to record the source of their actions and reasoning, as in an omniscient debugging. Although the idea of provenance has already been explored in some contexts, it has not been extensively explored in the context of MAS, leaving many questions to be understood and addressed. Our objective in this work is to justify the importance of the data provenance to MAS, discussing which questions can be answered regarding the behavior of MAS using the provenance and illustrating, through application scenarios, to demonstrate the benefits that provenance provides to reply to these questions. This study involves the creation of a software framework, called FProvW3C, which supports the collects and stores the provenance of the data produced by the MAS, which was integrated with the platform BDI4JADE (41), forming what we call Prov-BDI4JADE. Through this platform, using examples of autonomous systems, we have rigorously demonstrated that the use of data provenance in MAS is a solid solution to make the agent’s reasoning and action process transparent.

Page generated in 0.0571 seconds