• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 415
  • 41
  • Tagged with
  • 456
  • 456
  • 426
  • 372
  • 371
  • 371
  • 369
  • 368
  • 278
  • 116
  • 104
  • 82
  • 71
  • 68
  • 67
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Random forests estoc?stico

G?mez, Silvio Normey 31 August 2012 (has links)
Made available in DSpace on 2015-04-14T14:50:03Z (GMT). No. of bitstreams: 1 449231.pdf: 1860025 bytes, checksum: 1ace09799e27fa64938e802d2d91d1af (MD5) Previous issue date: 2012-08-31 / In the Data Mining area experiments have been carried out using Ensemble Classifiers. We experimented Random Forests to evaluate the performance when randomness is applied. The results of this experiment showed us that the impact of randomness is much more relevant in Random Forests when compared with other algorithms, e.g., Bagging and Boosting. The main purpose of this work is to decrease the effect of randomness in Random Forests. To achieve the main purpose we implemented an extension of this method named Stochastic Random Forests and specified the strategy to increase the performance and stability combining the results. At the end of this work the improvements achieved are presented / Na ?rea de Minera??o de Dados, experimentos vem sendo realizados utilizando Conjuntos de Classificadores. Estes experimentos s?o baseados em compara??es emp?ricas que sofrem com a falta de cuidados no que diz respeito ? quest?es de aleatoriedade destes m?todos. Experimentamos o Random Forests para avaliar a efici?ncia do algoritmo quando submetido a estas quest?es. Estudos sobre os resultados mostram que a sensibilidade do Random Forests ? significativamente maior quando comparado com a de outros m?todos encontrados na literatura, como Bagging e Boosting. O proposito desta disserta??o ? diminuir a sensibilidade do Random Forests quando submetido a aleatoriedade. Para alcan?ar este objetivo, implementamos uma extens?o do m?todo, que chamamos de Random Forests Estoc?stico. Logo especificamos como podem ser alcan?adas melhorias no problema encontrado no algoritmo combinando seus resultados. Por ?ltimo, um estudo ? apresentado mostrando as melhorias atingidas no problema de sensibilidade
22

RSAPP, um algoritmo baseado em rough sets para aux?lio ao processo de descoberta de conhecimento em banco de dados

Silveira, Juliano Gomes da 14 March 2013 (has links)
Made available in DSpace on 2015-04-14T14:50:07Z (GMT). No. of bitstreams: 1 451416.pdf: 14714043 bytes, checksum: 81e6c7473cbbdc708a5b414e1b3ffc85 (MD5) Previous issue date: 2013-03-14 / Techniques of Business Intelligence (BI) became one of the main allies of organizations in tasks of transforming data into knowledge, supporting the middle and upper management levels in decision making. BI tools in their composition are based on techniques of knowledge management, such as Data Warehouse (DW), OLAP (Online Analytical Processing), Data Mining (DM), among others. In this context, it is observed that in many case, DM projects become unfeasible by some factors, such as project costs, duration and specially the uncertainty in obtaining results that return the investment spent on the project. This work seeks to minimize these factors through a diagnosis on data, by an algorithm based on Rough Sets Theory. The algorithm, named Rough Set App (RSAPP) aims to create a diagnosis on data persisted in DW, in order to map which attributes have the greatest potential for generating more accurate mining models and more interesting results. Thus, it is expected that the diagnosis generated by RSAPP can complement the KDD (Knowledge Discovery in Database) process, reducing the time spent on activities of understanding and reducing data dimensionality. This work presents a detailed description about the implemented algorithm, as well as the report of the executed tests. At the end there is an empirical analysis of the results, in order to estimate the effectiveness of the proposed algorithm. / As t?cnicas, business intelligence (BI) firmaram-se como grandes aliadas das organiza??es nas tarefas de transformar dados em conhecimento, apoiando a m?dia e alta gest?o na tomada de decis?es. As ferramentas de BI em sua, composi??o s?o fundadas em t?cnicas de gest?o do conhecimento, tais como Data Warehouse (DW), OLAP (Online Analytical Processing), minara??o de dados (MD), entre outras. Neste contexto, observa-se que em muitos casos, projatos de MD acabam sendo inviabilizados por alguns fatores, tais como, custo do projeto, dura??o e principalmente, a incerteza na obten??o de resultados que retornem o investimento despedindo no projeto. O presente trabalho busca minimizar os fatores acima por meio um diagn?stico sobre dados, atrav?s de um algoritmo baseado em Rough Sets Theory (Teoria dos Conjuntos Aproximados (TCA)). O algoritmo desenvolvido, nomeado Rough Set App (RSAPP) objetiva criar um diagn?stico sobre os dados persistidos no DW, a fim de mapear quais atributos possuem maior potencial de gerar modelos de minera??o mais preciosos e resultados mais interessantes. Desta forma, entende-se que o diagn?stico gerado por RSAPP pode complementar o processo de KDD (Knowledge Discovery in database), reduzindo o tempo gasto nas atividades de entendimento e redu??o da dimensionalidade dos dados. No trabalho se faz uma descri??o detalhada acerca do algoritmo implementado, bem como o relato dos, testes que foram executados. Ao final faz-se uma an?lise emp?rica sobre os resultados a fim de estimar a efic?cia do algoritmo quanto a sua proposta.
23

M?todo para apoio ? constru??o de strings de busca em revis?es sistem?ticas por meio de minera??o visual de texto

Mergel, Germano Duarte 31 July 2014 (has links)
Made available in DSpace on 2015-04-14T14:50:20Z (GMT). No. of bitstreams: 1 467244.pdf: 1839473 bytes, checksum: addcf180682b243c0834e784f67d8774 (MD5) Previous issue date: 2014-07-31 / Despite the increased popularity of the adoption of Systematic Literature Reviews in Software Engineering, many researchers still indicate it as a costly and challenging process. Studies report problems in different activities throughout the review process, as in the construction of the Systematic Review search string and selection of primary studies. Aiming to promote aid to its realization, tools based on methods and techniques from the Visual Text Mining area are presented in published studies, proposing assistance in various tasks of a Systematic Literature Review. However, it s perceived a lack of methods proposing to aid a researcher with the construction of the Systematic Review search string, on its planning phase. In this context, this paper proposes an iterative method to assist the process of building the search string for a Systematic Review. Using Visual Text Mining techniques, it supports the researcher by suggesting terms for the search string. Relevant terms are extracted from studies selected by the researcher and shown in a visualization that facilitates the decision of the researcher to update the search string and include them, building and refining the search string that will be used in the Systematic Review. A tool that implements the proposed method has been developed, allowing the execution of tests with researchers and an analysis of the feasibility of this proposal. Interviews with researchers identified the difficulties in performing Systematic Reviews and captured their opinions regarding the use of the proposed method, discussing its adoption / Apesar do aumento na popularidade da aplica??o de Revis?es Sistem?ticas da Literatura na Engenharia de Software, muitos pesquisadores ainda a apontam como um processo custoso e desafiador. Estudos levantados reportam problemas em diferentes atividades ao longo de seu processo, como na constru??o da string de busca da Revis?o Sistem?tica e na sele??o dos estudos prim?rios. Visando promover um aux?lio ? sua realiza??o, m?todos e ferramentas baseados em t?cnicas da ?rea de Minera??o Visual de Texto s?o propostas em estudos publicados da ?rea, atuando em diversas etapas de uma Revis?o Sistem?tica da Literatura. ? percebida, por?m, a aus?ncia de m?todos que auxiliem um pesquisador na constru??o da string de busca de sua Revis?o Sistem?tica, na fase de planejamento da mesma. Neste contexto, o presente trabalho visa qualificar o processo de constru??o da string de busca de uma Revis?o Sistem?tica, propondo um m?todo iterativo que, aplicando t?cnicas da Minera??o Visual de Texto, apoia o pesquisador atrav?s da sugest?o de termos relevantes de estudos selecionados. Os termos mais relevantes s?o extra?dos de estudos selecionados e visualizados de forma a facilitar a decis?o do pesquisador em inclu?-los na string de busca utilizada, construindo e refinando a string de busca que ser? usada na Revis?o Sistem?tica. Uma ferramenta que implementa o m?todo proposto foi desenvolvida, permitindo que testes com estes mesmos pesquisadores fossem realizados, e que uma an?lise sobre a viabilidade desta proposta fosse feita. Entrevistas realizadas com pesquisadores identificaram as dificuldades enfrentadas na realiza??o de Revis?es Sistem?ticas e captaram suas opini?es a respeito da utiliza??o do m?todo proposto como solu??o.
24

Um estudo sobre migra??o de p?ginas no Linux

Tesser, Guilherme Ant?nio Anzilago 30 August 2006 (has links)
Made available in DSpace on 2015-04-14T14:50:23Z (GMT). No. of bitstreams: 1 392134.pdf: 2697824 bytes, checksum: b47a0044cf99f8b121575ecdcc645a3a (MD5) Previous issue date: 2006-08-30 / Este trabalho discute o desempenho de algoritmos de migra??o de mem?ria em computadores do tipo NUMA. ? apresentada uma breve descri??o do algoritmo de gerenciamento de mem?ria do Linux e, tamb?m, dos algoritmos de migra??o de mem?ria propostos (migra??o total e migra??o sob demanda). Em seguida, ? descrito o modelo de avalia??o de desempenho. Neste trabalho, foi usado modelo de simula??o com o desenvolvimento de um simulador que modela os algoritmos de ger?ncia de mem?ria do Linux e os algoritmos de migra??o de mem?ria propostos. No final, s?o apresentados os resultados obtidos com o uso de migra??o de mem?ria, que mostraram que h? melhor desempenho quando comparado com o atual algoritmo de gerenciamento de mem?ria do Linux.
25

JFAULT : toler?ncia a falhas transparente utilizando reflex?o e compila??o din?mica no modelo de meta-n?veis

Scherer, Marcio Gustavo Gusm?o 27 March 2015 (has links)
Submitted by Setor de Tratamento da Informa??o - BC/PUCRS (tede2@pucrs.br) on 2015-05-04T12:25:44Z No. of bitstreams: 1 467903 - Texto Completo.pdf: 2071415 bytes, checksum: 7b9c07b7d2604d46d4b4ea8d6c7bbfac (MD5) / Made available in DSpace on 2015-05-04T12:25:44Z (GMT). No. of bitstreams: 1 467903 - Texto Completo.pdf: 2071415 bytes, checksum: 7b9c07b7d2604d46d4b4ea8d6c7bbfac (MD5) Previous issue date: 2015-03-27 / Fault tolerance has become an important mean to achieve high availability in computational systems. However, building fault tolerant architectures is not a trivial task. Reflection in Meta-level architectures has been used for years as a mean for implementation of nonfunctional requirements. In this way it is possible to have a clear separation of its implementation from the implementation of the business logic itself (functional requirements) in layers or levels. These levels have become known, respectively, as base-level and metalevel and are regularly used in nowadays systems? architecture since they bring several benefits such as increased reuse and reduced complexity, furthermore, they provide better responsibilities separation among systems? components. On the other hand, if the meta-level is a useful architecture artifice there is still the need to build the meta-level components that intend to handle fault tolerance in application?s services, the components need to be implemented and integrated to the system?s architecture, which involves some development effort and complexity. This work presents a proposal to build, automatically and in runtime, the meta-level components for fault tolerance handling in application?s services. More precisely, it intends to propose a framework ? named JFault ? which using reflection and dynamic compilation will leverage those requirements transparently and with minor changes in the system. The framework is implemented in Java, language that supports both reflection and dynamic compilation, but could be built in any programming language that supports such APIs. / Toler?ncia a falhas tornou-se um importante meio para se garantir alta disponibilidade de sistemas computacionais. No entanto, a constru??o de arquiteturas tolerantes a falhas n?o ? uma tarefa trivial. Reflex?o em arquiteturas de meta-n?vel tem sido usada h? anos como um meio para implementa??o de requisitos n?o-funcionais. Dessa forma ? poss?vel ter uma separa??o clara e em n?veis entre a implementa??o da l?gica de neg?cios do sistema (requisitos funcionais) e as relacionadas ao uso da aplica??o em termos de desempenho, usabilidade, seguran?a, disponibilidade, etc (n?o funcionais). Estes n?veis se tornaram conhecidos na literatura, respectivamente, como n?vel-base e meta-n?vel e s?o frequentemente utilizados em sistemas hoje em dia visto que trazem v?rios benef?cios como aumento de reuso de c?digo e redu??o de acoplamento entre os elementos da arquitetura, al?m de trazer uma melhor divis?o de responsabilidades entre os componentes do sistema. Por outro lado, se as arquiteturas de meta-n?vel se tornaram um artif?cio ?til, existe a necessidade de se implementar os componentes de meta-n?vel respons?veis pela cria??o de servi?os tolerantes a falhas, o que envolve esfor?o de desenvolvimento, adapta??es no sistema e geralmente adiciona certa complexidade ? arquitetura. Este trabalho apresenta uma proposta de construir, de forma autom?tica e em tempo de execu??o, os componentes de meta-n?vel para toler?ncia a falhas em servi?os de aplica??es. Mais precisamente, pretende propor um framework ? chamado JFault - que usando reflex?o e compila??o din?mica se prop?e a preencher esse requisito de forma transparente e com pequenas altera??es no sistema. O framework ? implementado em Java, linguagem que suporta tanto reflex?o como compila??o din?mica, mas poderia ser constru?do em qualquer linguagem de programa??o que suporta tais APIs.
26

T?cnicas de toler?ncia a falhas aplicadas a redes intra-chip

Fochi, Vinicius Morais 13 March 2015 (has links)
Submitted by Setor de Tratamento da Informa??o - BC/PUCRS (tede2@pucrs.br) on 2015-06-16T17:21:57Z No. of bitstreams: 1 470587 - Texto Completo.pdf: 6163395 bytes, checksum: b88f0389d39c7cc7f197b32966e6fe29 (MD5) / Made available in DSpace on 2015-06-16T17:21:57Z (GMT). No. of bitstreams: 1 470587 - Texto Completo.pdf: 6163395 bytes, checksum: b88f0389d39c7cc7f197b32966e6fe29 (MD5) Previous issue date: 2015-03-13 / The continuous development of the transistor technology has enabled hundreds of processors to work interconnected by a NoC (network-on-chip). Nanotechnology has enabled the development of complex systems, however, fault vulnerability also increased. The literature presents partial solutions for fault tolerance issues, targeting parts of the system. An important gap in the literature is an integrated method from the router-level fault detection to the correct execution of applications in the MPSoC. The main goal of this dissertation is to present a fault-tolerant method from the physical layer to the transport layer. The MPSoC is modeled at the RTL level using VHDL.This work proposes fault tolerance techniques applied to intra-chip networks. Related work on fault tolerance at a systemic level, router level, link level and routing algorithms are studied. This work presents the research and development of two techniques: (i) protocols to enable the correct communication between task with partial degradation of the link enabling the router to operate even with faulted physical channels; (ii) test recovery method and of the router. This Dissertation considers permanent and transient faults.The HeMPS platform is the reference platform to evaluate the proposed techniques, together with a fault injection campaign where up to five random failures were injected simultaneously at each simulated scenario. Two applications were used to evaluate the proposed techniques, MPEG encoder and a synthetic application, resulting in 2,000 simulated scenarios. The results demonstrated the effectiveness of the proposal, with most scenarios running correctly with routers operating in degraded mode, with an impact on the execution time below 1%, with a router area overhead around 30%. / O cont?nuo desenvolvimento na tecnologia de transistores possibilitou que centenas de processadores trabalhassem interconectados por NoCs (network-on-chip). A nanotecnologia permitiu o desenvolvimento de complexos sistemas, por?m a vulnerabilidade a falhas tamb?m aumentou. A literatura apresenta solu??es parciais para o tema de toler?ncia a falhas, tendo como alvo partes do sistema. Uma importante lacuna na literatura ? um m?todo integrado para detec??o de falhas do n?vel do roteador at? a correta execu??o das aplica??es em MPSoC reais. O objetivo principal desta disserta??o ? apresentar um m?todo com toler?ncia a falhas da camada f?sica at? a camada de transporte. O MPSoC ? modelado em n?vel de RTL, usando VHDL.O presente trabalho prop?e t?cnicas de toler?ncia a falhas aplicadas a redes intrachip. S?o estudadas t?cnicas de toler?ncia a falhas em n?vel sist?mico, n?vel do roteador, n?vel de enlace e algoritmos de roteamento tolerante a falhas. Este trabalho apresenta a pesquisa e o desenvolvimento de duas t?cnicas: (i) protocolos para permitir a correta transmiss?o dos dados com degrada??o parcial do enlace, de forma a permitir que o roteador opere mesmo com canais f?sicos falhos; (ii) m?todo de teste e recupera??o do roteador. O modelo de falhas utilizado nesta Disserta??o ? de falhas permanentes e transientes.Para avaliar as t?cnicas propostas, foi utilizada a plataforma HeMPS, juntamente com uma campanha de inje??o de falhas onde at? cinco falhas aleat?rias foram injetadas nos canais de comunica??o entre os roteadores simultaneamente em cada cen?rio. Foram utilizadas duas aplica??es para avaliar as t?cnicas: codificador MPEG e uma aplica??o sint?tica, com um total de 2,000 cen?rios simulados. Os resultados demonstram a efetividade da proposta, com a maioria dos cen?rios executando corretamente com roteadores operando em modo degradado, com um impacto no tempo de execu??o abaixo de 1% e um aumente do ?rea de 30% no roteador.
27

Descoberta de conjuntos de itens frequentes com o modelo de programa??o MapReduce sobre contextos de incerteza

Carvalho, Juliano Varella de 20 March 2015 (has links)
Submitted by Setor de Tratamento da Informa??o - BC/PUCRS (tede2@pucrs.br) on 2015-08-17T19:06:03Z No. of bitstreams: 1 473651 - Texto Completo.pdf: 15125610 bytes, checksum: 0ae5116bc2669408e12c87781990c0a8 (MD5) / Made available in DSpace on 2015-08-17T19:06:03Z (GMT). No. of bitstreams: 1 473651 - Texto Completo.pdf: 15125610 bytes, checksum: 0ae5116bc2669408e12c87781990c0a8 (MD5) Previous issue date: 2015-03-20 / Frequent Itemsets Mining (FIM) is a data mining task used to find relations between dataset items. Apriori is the traditional algorithm of the Generate-and-Test class to discover these relations. Recent studies show that this algorithm and others of this task are not adapted to execute in contexts with uncertainty because these algorithms are not prepared to handle with the probabilities associated to items of the dataset. Nowadays, data with uncertainty occur in many applications, for example, data collected from sensors, information about the presence of objects in satellite images and data from application of statistical methods. Due to big datasets with associated uncertainty, new algorithms have been developed to work in this context: UApriori, UF-Growth and UH-Mine. UApriori, specially, is an algorithm based in expected support, often addressed by scientific community. On the one hand, when this algorithm is applied to big datasets, in a context with associated probabilities to dataset items, it does not present good scalability. On the other hand, some works have evolved the Apriori algorithm joining with the model of programming MapReduce, in order to get a better scalability. With this model, it is possible to discover frequent itemsets using parallel and distributed computation. However, these works focus their efforts on discovering frequent itemsets on deterministic datasets. This thesis present the development, implementation and experiments applied to three algorithms: UAprioriMR, UAprioriMRByT and UAprioriMRJoin. The three cited algorithms evolve the traditional algorithm Apriori, integrating the model of programming MapReduce, on contexts with uncertainty. The algorithm UAprioriMRJoin is a hybrid algorithm based on the UAprioriMR and UAprioriMRByT algorithms. The experiments expose the good performance of the UAprioriMRJoin algorithm, when applied on big datasets, with many distinct items and a small average number of items per transaction in a cluster of nodes. / Frequent Itemsets Mining (FIM) ? uma tarefa de minera??o de dados utilizada para encontrar rela??es entre os itens de um dataset. O Apriori ? um tradicional algoritmo da classe Generateand- Test para descobrir tais rela??es. Estudos recentes mostram que este e outros algoritmos desta tarefa n?o est?o aptos para executar em contextos onde haja incerteza associada, pois eles n?o est?o preparados para lidar com as probabilidades existentes nos itens do dataset. A incerteza nos dados ocorre em diversas aplica??es como, por exemplo, dados coletados de sensores, informa??es sobre a presen?a de objetos em imagens de sat?lite e dados provenientes da aplica??o de m?todos estat?sticos. Dada a grande quantidade de dados com incertezas associadas, novos algoritmos t?m sido desenvolvidos para trabalharem neste contexto: UApriori, UF-Growth e UH-Mine. O UApriori, em especial, ? um algoritmo baseado em suporte esperado, abordado frequentemente pela comunidade acad?mica. Quando este algoritmo ? aplicado sobre grandes datasets, em um contexto com probabilidades associadas aos itens do dataset, ele n?o apresenta boa escalabilidade. Por outro lado, alguns trabalhos t?m adaptado o algoritmo Apriori para trabalhar com o modelo de programa??o MapReduce, a fim de prover uma melhor escalabilidade. Utilizando este modelo, ? poss?vel descobrir itens frequentes de modo paralelo e distribu?do. No entanto, tais trabalhos focam seus esfor?os na descoberta de itens frequentes sobre datasets determin?sticos. Esta tese apresenta o desenvolvimento, implementa??o e os experimentos realizados, a partir da aplica??o e discuss?o de tr?s algoritmos: UAprioriMR, UAprioriMRByT e UAprioriMRJoin. Os tr?s algoritmos citados evoluem o algoritmo tradicional Apriori para que possam executar com o modelo de programa??o MapReduce sobre contextos com incerteza associada. O algoritmo UAprioriMRJoin ? um algoritmo h?brido com base nos algoritmos UAprioriMR e UAprioriMRByT. Os experimentos revelam o bom desempenho do algoritmo UAprioriMRJoin quando aplicado sobre grandes datasets, com muitos atributos e um n?mero m?dio pequeno de itens por transa??o, em um cluster de nodos.
28

Integration of a multi-agent system into a robotic framework : a case study of a cooperative fault diagnosis application

Morais, M?rcio Godoy 11 March 2015 (has links)
Submitted by Setor de Tratamento da Informa??o - BC/PUCRS (tede2@pucrs.br) on 2015-11-19T16:26:49Z No. of bitstreams: 1 476244 - Texto Completo.pdf: 2378601 bytes, checksum: 4c28a7ac36972e53ed94255e9583c2b2 (MD5) / Made available in DSpace on 2015-11-19T16:26:50Z (GMT). No. of bitstreams: 1 476244 - Texto Completo.pdf: 2378601 bytes, checksum: 4c28a7ac36972e53ed94255e9583c2b2 (MD5) Previous issue date: 2015-03-11 / Programming multi-robot autonomous systems can be extremely complex without appropriate software development techniques to abstract hardware faults, as well as can be hard to deal with the complexity of software required the coordinated autonomous behavior. Real environments are dynamic and unexpected events may occur, leading a robot to unforeseen situations or even fault situations. This work presents a method of integration of Jason multi-agent system into ROS robotic framework. Through this integration, can be easier to describe complex missions by using Jason agent language and its resources, as well as abstracting hardware details from the decision-taken process. Moreover, software modules related to the hardware control and modules which have a high CPU cost are separated from the planning and decision-taken process in software layers, allowing plan and software modules reuse in different missions and robots. Through this integration, Jason resources such as plans reconsideration and contingency plans can be used in a way where they can enable the robot to reconsider its actions and strategies in order to reach its goals or to take actions to deal with unforeseen situations due the environment unpredictability or even some robot hardware fault. The presented integration method also allows the cooperation between multiple robots through a standardized language of communication between agents. The proposed method is validated by a case study applied in real robots where a robot can detect a fault in its hardware and diagnose it through the help of another robot, in a highly abstract method of cooperative diagnosis. / A programa??o de sistemas aut?nomos multi-rob? pode ser extremamente complexa sem o uso de t?cnicas de desenvolvimento de software apropriadas ? abstra??o de caracter?sticas de hardware, assim como pode ser dif?cil lidar com a complexidade de software necess?ria ao comportamento aut?nomo coordenado. Ambientes reais s?o din?micos e eventos inesperados podem ocorrer, levando um rob? a situa??es n?o previstas ou at? mesmo situa??es de falha. Este trabalho apresenta um m?todo de integra??o do sistema multi-agente Jason com o framework rob?tico ROS. Atrav?s desta integra??o, miss?es complexas podem ser mais facilmete descritas tendo em vista o uso da linguagem de agentes e seus recursos, bem como a abstra??o de detalhes de hardware do processo de tomada de decis?o. Al?m disso, m?dulos de software vinculados ao controle do hardware e m?dulos com alto consumo de recurso de CPU s?o separados das rotinas de planejamento e tomada de decis?o atrav?s de camadas de software, possibilitando o reuso de planos e m?dulos de software em diferentes miss?es e rob?s. Atrav?s desta integra??o, recursos do sistema multi-agente, tais como a reconsidera??o de planos e planos de conting?ncia, podem ser utilizados de forma a permitir que o rob? reavalie suas a??es e estrat?gias a fim de atingir seus objetivos ou tome a??es de forma a lidar com situa??es imprevistas diante da dinamicidade do ambiente ou quando falhas s?o detectadas no hardware do rob?. A integra??o permite ainda a coopera??o entre m?ltiplos rob?s atrav?s de uma linguagem de comunica??o padronizada entre agentes. O m?todo proposto ? validado atrav?s de um estudo de caso aplicado a rob?s reais onde um rob? pode detectar falhas em seu hardware e diagnostic?-las atrav?s da ajuda de outro rob?, em um m?todo cooperativo de diagn?stico altamente abstrato.
29

Fault supervision for multi robotics systems

Roman, Felipe de Fraga 25 March 2015 (has links)
Submitted by Setor de Tratamento da Informa??o - BC/PUCRS (tede2@pucrs.br) on 2015-12-08T16:42:31Z No. of bitstreams: 1 476572 - Texto Completo.pdf: 1895232 bytes, checksum: d360d64653c8369496f6a15db1b7c15f (MD5) / Made available in DSpace on 2015-12-08T16:42:31Z (GMT). No. of bitstreams: 1 476572 - Texto Completo.pdf: 1895232 bytes, checksum: d360d64653c8369496f6a15db1b7c15f (MD5) Previous issue date: 2015-03-25 / As robotics becomes more common and people start to use it in routine tasks, dependability becomes more and more relevant to create trustworthy solutions. A commonly used approach to provide reliability and availability is the use of multi robots instead of a single robot. However, in case of a large teams of robots (tens or more), determining the system status can be a challenge. This work presents a runtime monitoring solution for Multi Robotic Systems. It integrates Nagios IT Monitoring tool and ROS robotic middleware. One of the potential advantages of this approach is that the use of a consolidated IT infrastructure tool enables the reuse of several relevant features developed to monitor large datacenters. Another important advantage of that this solution does not require additional software at the robot side. The experimental results demonstrate that the proposed monitoring system has a small performance impact on the robot and the monitoring server can easily support hundreds or even thousands of monitored robots. / ? medida que a rob?tica se torna mais comum e as pessoas come?am a utiliz?-la em suas tarefas de rotina, dependabilidade torna-se cada vez mais importante para a constru??o de uma solu??o digna de confian?a. Uma abordagem comum de prover confiabilidade e disponibilidade ? o uso de multi rob?s ao inv?s de um ?nico rob? devido a sua redund?ncia intr?sica. Entretanto, no caso de um grande time de rob?s (dezenas ou mais), uma tarefa aparentemente simples como a determina??o do status do sistema pode se tornar um desafio. Este trabalho apresenta uma ferramenta de monitoramento de sistemas multi rob?s em tempo de execu??o. Esta solu??o integra a ferramenta de monitoramento de TI Nagios com o middleware rob?tico ROS sem a necessidade de instala??o de software adicional no rob?. O uso de uma ferramenta de TI consolidada permite o reuso de diversas funcionalidades relevantes j? empregadas amplamente no monitoramento de datacenters. Os resultados experimentais demonstram que a solu??o proposta tem um baixo impacto no desempenho do rob? e o servidor de monitoramento pode facilmente monitorar centenas ou at? milhares de rob?s ao mesmo tempo.
30

Toler?ncia a falhas em elementos de processamento de MPSoCs

Barreto, Francisco Favorino da Silva 13 March 2015 (has links)
Submitted by Setor de Tratamento da Informa??o - BC/PUCRS (tede2@pucrs.br) on 2015-12-14T20:02:04Z No. of bitstreams: 1 476711 - Texto Completo.pdf: 1459361 bytes, checksum: 48f64a1e41d4416a6b1e434eaf5ed4d3 (MD5) / Made available in DSpace on 2015-12-14T20:02:04Z (GMT). No. of bitstreams: 1 476711 - Texto Completo.pdf: 1459361 bytes, checksum: 48f64a1e41d4416a6b1e434eaf5ed4d3 (MD5) Previous issue date: 2015-03-13 / The need of more processing capacity for embedded systems nowadays is pushing the research of MPSoCs with tens or hundreds of processors. These characteristics bring design challenges such as scalability and dependability. Such complex systems must have fault tolerant methods to ensure acceptable reliability and availability. This way, the user is not exposed to significant data losses, malfunctioning and even the total system failure. Considering this technology trend, the present work proposes a fault tolerance method with focus in fault recovery. The method uses concepts largely explored in distributed systems to solve the problem of permanent failures in the processing elements of MPSoCs. The implementation is exclusively in software, and recovers the system exposed to a permanent failure on processing elements, reallocating all tasks that were executing in the faulty element to a healthy processing element. The failed application tasks restart their executions since there is no context saving, enabling a lightweight method. The experiments are performed in the HeMPS platform, evaluating the most relevant parameters as recovery time, communication bandwidth impact, scalability and others. In the absence of faults, the proposed protocol has 21 Kbytes of memory area (20% more compared to the original kernel) and no overhead in terms of execution time. In the presence of faults, the results demonstrate total recovery times from 0.2ms to 1ms, depending on the number of reallocated tasks (1 to 7). The biggest impact in the protocol time is related with the reallocation task phase. / A pesquisa em MPSoCs (do ingl?s, Multiprocessor System on Chip) tem sido motivada pela necessidade crescente de maior capacidade de processamento das aplica??es de sistemas embarcados. Devido ? esta tend?ncia, os MPSoCs tornam-se cada vez mais complexos e miniaturizados. Estas caracter?sticas trazem associados desafios como escalabilidade e dependabilidade. O sistema que tem a necessidade de ser confi?vel e estar dispon?vel em todo o seu tempo opera??o precisa ser tolerante a falhas a ponto de recuperar-se automaticamente. Dessa forma o usu?rio n?o ser? exposto a perdas de informa??o, execu??o malsucedida ou at? mesmo a falha total do sistema. Este trabalho prop?e um m?todo de toler?ncia a falhas com foco na recupera??o de falhas. O m?todo utiliza conceitos utilizados em computa??o distribu?da para solucionar o problema de falhas permanentes em elementos de processamento de um MPSoCs. O m?todo proposto, implementado exclusivamente em software, recupera um sistema exposto a uma falha permanente de um elemento de processamento, realizando uma realoca??o das tarefas que estavam sendo executadas pelo elemento que falhou para um elemento de processamento saud?vel do sistema. As tarefas da aplica??o que falharam devem reiniciar suas execu??es do ponto de partida dado que o contexto da execu??o n?o ? salvo, mantendo assim um baixo overhead no sistema, como demonstrado nos resultados obtidos. Os experimentos foram realizados na plataforma HeMPS com uma avalia??o dos par?metros mais relevantes como tempo de recupera??o, impacto em banda de comunica??o, escala e outros, que justificam a viabilidade e as vantagens do m?todo proposto. Na aus?ncia de falhas, o protocolo proposto n?o altera o tempo de execu??o, por?m aumenta o tamanho de mem?ria do kernel para 21 Kbytes, 20% de acr?scimo comparado com o kernel original. Os resultados obtidos na presen?a de falhas mostram que o tempo total de recupera??o de falhas do m?todo ? de 0,2ms a 1ms, dependendo do n?mero de tarefas realocadas devido ao PE defeituoso. O maior impacto de tempo no protocolo se d? com a etapa de realoca??o de tarefas.

Page generated in 0.0303 seconds