• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 312
  • 9
  • 9
  • 9
  • 9
  • 6
  • 5
  • 3
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 326
  • 102
  • 96
  • 90
  • 84
  • 59
  • 59
  • 56
  • 34
  • 34
  • 31
  • 29
  • 29
  • 27
  • 25
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Análise proteômica em rim de ratos submetidos à exposição aguda de flúor

Aline de Lima Leite 01 July 2010 (has links)
O flúor é comprovadamente um agente terapêutico contra a cárie dentária, porém, quando consumido de maneira inadequada pode causar reações indesejáveis, tanto crônicas como agudas. A proteômica é uma ferramenta que permite analisar o perfil proteico completo dos sistemas biológicos, permitindo um melhor entendimento da fisiologia normal do organismo, bem como dos mecanismos de doenças, descoberta de biomarcadores para detecção precoce de doenças, identificação de novas terapias e descobertas de fármacos. Assim, o presente estudo teve como trabalho realizar um estudo proteômico diferencial em amostras de tecido renal de ratos submetidos à intoxicação aguda por fluoreto. Para isso, 27 animais, receberam desde o desmame água deionizada e ração AIN-93 por 50 dias. Ao completarem 75 dias de vida, e, após jejum por 12 horas, os animais receberam via gástrica as seguintes doses agudas de F: 0 (controle), 50 e 100 mgF/Kg peso corporal. Após 2 horas foram, os animais foram anestesiados e tiveram o sangue e os rins coletados. Inicialmente foi realizada a dosagem de flúor no plasma e tecidos renais, após difusão facilitada por hexamethyldisiloxano. Em um segundo momento, as proteínas do tecido renal foram extraídas e submetidas à eletroforese bidimensional. Os géis obtidos foram analisados através do software ImageMaster 2D-platinum v. 7.0. Os spots que se apresentaram diferencialmente expressos foram submetidos à identificação por espectrometria de massas. As proteínas identificadas foram classificadas em 5 categorias funcionais. A categoria metabolismo e energia reuniu a maior parte das proteínas (40%), seguida pelas categorias de transporte e processos celulares com 20% e 13% respectivamente. Na categoria estrutura e organização estrutural, que reúne proteínas com funções relacionadas ao citoesqueleto e membrana celular, foram identificadas 17% das proteínas. Por fim, os 10% restantes das proteínas pertenciam à categoria vias de informação, que abriga proteínas envolvidas nos processos de síntese/degradação de DNA e RNA. Com base nos resultados obtidos pode se concluir que doses agudas de fluoreto alteram a expressão a nível renal de diversas proteínas relacionadas a distintos processos celulares. / Fluoride has been widely used in dentistry as a caries prophylactic agent. However, if consumed in high concentrations, it can cause side effects as dental fluorosis, skeletal fluorosis and, in extreme situations, death. The recent development of proteomic techniques has allowed the analysis of the entire protein profile of biological systems, contributing to the understanding of the normal physiology of the organism, as well as the mechanisms of diseases and the investigation of biomarkers for their early detection, identification of new therapies and drugs. This study used proteomic techniques to analyze the differential protein expression in kidney of rats submitted to acute fluoride treatments. Three groups of five 75-day-old Wistar rats received, by gastric gavage, the following single doses of fluoride: 0 (control), 50 and 100 mgF/Kg body weight. After the treatments, the animals were killed and the left kidney and plasma were collected for fluoride analysis. For proteomic analysis, the right kidney was collected. Fluoride in plasma and renal tissues was analyzed with the electrode, after hexamethyldisiloxanefacilitated diffusion. Proteins from kidney were profiled by two-dimensional gel electrophoresis. Gels from control and treated groups were digitalized using the ImageScanner III and analyzed with ImageMaster 2D Platinum version 7.0 for statistical differences (ANOVA, p <0.05). The proteins identified were classified into five functional categories. The category of metabolism and energy had the majority of the proteins (40%), followed by the categories of \"transport\" and cell processes, with 20% and 13% of the proteins, respectively. In the category \"structure and cell organization, which brings together proteins with functions related to the cytoskeleton and plasma membrane were identified 17% of the protein. Finally, 10% of the proteins belonged to the category \"information pathways\", which comprises the proteins involved in the processes of synthesis and degradation of DNA and RNA. Based on the results obtained, it can be concluded that acute doses of fluoride alters the expression of several proteins related to different cellular processes in the kidneys.
152

Tratamento de exceções no desenvolvimento de sistemas tolerantes a falhas baseadas em componentes / Exception handling in the development of fault-tolerant component-based systems

Lima Filho, Fernando Jose Castor de 30 November 2006 (has links)
Orientador: Cecilia Mary Fischer Rubira / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-10T07:04:57Z (GMT). No. of bitstreams: 1 LimaFilho_FernandoJoseCastorde_D.pdf: 5063998 bytes, checksum: 8bfec9185fab14cb08c2a8b2ce7391a9 (MD5) Previous issue date: 2006 / Resumo: Mecanismos de tratamento de exceções foram concebidos com o intuito de facilitar o gerenciamento da complexidade de sistemas de software tolerantes a falhas. Eles promovem uma separação textual explícita entre o código normal e o código que lida com situações anormais, afim de dar suporte a construção de programas que são mais concisos fáceis de evoluir e confáveis. Diversas linguagens de programação modernas e a maioria dos modelos de componentes implementam mecanismos de tratamento de exceções. Apesar de seus muitos benefícios, tratamento de exceções pode ser a fonte de diversas falhas de projeto se usado de maneira indisciplinada. Estudos recentes mostram que desenvolvedores de sistemas de grande escala baseados em infra-estruturas de componentes têm hábitos, no tocante ao uso de tratamento de exceções, que tornam suas aplicações vulneráveis a falhas e difíceis de se manter. Componentes de software criam novos desafios com os quais mecanismos de tratamento de exceções tradicionais não lidam, o que aumenta a probabilidade de que problemas ocorram. Alguns exemplos são indisponibilidade de código fonte e incompatibilidades arquiteturais. Neste trabalho propomos duas técnicas complementares centradas em tratamento de exceções para a construção de sistemas tolerantes a falhas baseados em componentes. Ambas têm ênfase na estrutura do sistema como um meio para se reduzir o impacto de mecanismos de tolerância a falhas em sua complexidade total e o número de falhas de projeto decorrentes dessa complexidade. A primeira é uma abordagem para o projeto arquitetural dos mecanismos de recuperação de erros de um sistema. Ela trata do problema de verificar se uma arquitetura de software satisfaz certas propriedades relativas ao fluxo de exceções entre componentes arquiteturais, por exemplo, se todas as exceções lançadas no nível arquitetural são tratadas. A abordagem proposta lança de diversas ferramentas existentes para automatizar ao máximo esse processo. A segunda consiste em aplicar programação orientada a aspectos (AOP) afim de melhorar a modularização de código de tratamento de exceções. Conduzimos um estudo aprofundado com o objetivo de melhorar o entendimento geral sobre o efeitos de AOP no código de tratamento de exceções e identificar as situações onde seu uso é vantajoso e onde não é / Abstract: Exception handling mechanisms were conceived as a means to help managing the complexity of fault-tolerant software. They promote an explicit textual separation between normal code and the code that deals with abnormal situations, in order to support the construction of programs that are more concise, evolvable, and reliable. Several mainstream programming languages and most of the existing component models implement exception handling mechanisms. In spite of its many bene?ts, exception handling can be a source of many design faults if used in an ad hoc fashion. Recent studies show that developers of large-scale software systems based on component infrastructures have habits concerning the use of exception handling that make applications vulnerable to faults and hard to maintain. Software components introduce new challenges which are not addressed by traditional exception handling mechanisms and increase the chances of problems occurring. Examples include unavailability of source code and architectural mismatches. In this work, we propose two complementary techniques centered on exception handling for the construction of fault-tolerant component-based systems. Both of them emphasize system structure as a means to reduce the impactof fault tolerance mechanisms on the overall complexity of a software system and the number of design faults that stem from complexity. The ?rst one is an approach for the architectural design of a system?s error handling capabilities. It addresses the problem of verifying whether a software architecture satis?es certain properties of interest pertaining the ?ow of exceptions between architectural components, e.g., if all the exceptions signaled at the architectural level are eventually handled. The proposed approach is based on a set of existing tools that automate this process as much as possible. The second one consists in applying aspect-oriented programming (AOP) to better modularize exception handling code. We have conducted a through study aimed at improving our understanding of the efects of AOP on exception handling code and identifying the situations where its use is advantageous and the ones where it is not / Doutorado / Doutor em Ciência da Computação
153

Uso da tomografia por coerência óptica para detecção de falhas após ensaio de extrusão de pinos estéticos

COSTA, Daene Patrícia Tenório Salvador da 31 January 2013 (has links)
Submitted by Leonardo Freitas (leonardo.hfreitas@ufpe.br) on 2015-04-14T13:19:10Z No. of bitstreams: 2 Tese Daene da Costa.pdf: 1667535 bytes, checksum: fcc8264eb5582ea03bc9f87be2ed64a2 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-04-14T13:19:10Z (GMT). No. of bitstreams: 2 Tese Daene da Costa.pdf: 1667535 bytes, checksum: fcc8264eb5582ea03bc9f87be2ed64a2 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013 / CAPES / Objetivo: Validar a Tomografia por Coerência Óptica (OCT) como método de obtenção de imagens capaz de detectar e diferenciar falhas após ensaio de extrusão de pinos estéticos cimentados com sistemas resinosos. Métodos: Foram obtidas imagens de 50 secções radiculares de pré-molares, que foram submetidos ao teste push-out após cimentação de pinos, em Microscópio Óptico (MO) com aumento de 50x e em OCT 2D e 3D para obtenção de cortes axiais e imagens en-face (SR-OCT:OCP930SR e Callisto SD-OCT/Thorlabs). Cada grupo de imagens foi analisado por 3 examinadores calibrados, para detectar a presença das seguintes falhas: Adesivas dentina/cimento (ADC) ou pino/cimento (ACP); Coesivas dentária (CD), de cimento (CC) ou de pino (CP); e Presença de bolhas (PB). Resultados: O escore de Kappa interexaminadores obtido pelo MO variou de 0,156 a 0,588 para as falhas adesivas, enquanto que pelo OCT variou de 0,733 a 1,000. As falhas coesivas apresentaram concordâncias similares nos dois métodos, que variaram de moderadas a excelentes. O OCT demonstrou ser mais sensível e específico na detecção das falhas ADC e CD, apresentando, ainda, mais especificidade nas falhas ACP, CC e PB. Significância: A origem das falhas na cimentação de pinos intrarradiculares pode influenciar na decisão terapêutica, mas é de difícil detecção pela subjetividade presente nos métodos avaliativos usuais. O OCT demonstrou ser um método eficaz e de baixo custo na detecção dessas falhas.
154

Avaliação e modelagem de desempenho para planejamento de capacidade de sistema de transferência eletrônica de fundos utilizando tráfego em rajada

Julian Menezes Araujo, Carlos 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T15:52:35Z (GMT). No. of bitstreams: 1 license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2009 / Ao longo dos últimos anos, a confiabilidade e a disponibilidade tornaram-se fatores cru- ciais para projetar sistemas computacionais, especialmente aqueles tolerantes a falhas. Em tais sistemas, componentes redundantes s~ao adicionados para que um sistema con- tinue a funcionar ininterruptamente, apesar da ocorrência de falhas. Algumas técnicas conhecidas operam com módulos reservas, são eles: hot standby, cold standby e TMR (Triple Modular Redundancy). A tolerância a falhas é alcançada a partir da junção des- sas técnicas por meio de um mecanismo de detecção de falha. Geralmente, falhas podem reduzir o desempenho dos sistemas, prolongar o tempo de parada ou levar o sistema a executar uma medida defensiva. Um importante exemplo de sistemas que necessitam de alta con¯abilidade, e que ainda n~ao t^em atra¶³do muita atenção na literatura, são os sistemas de transcorrência eletrônica de fundos (TEF). Os sistemas TEF, permitem aos clientes efetuar transações eletrônicas através de cartões de crédito, de débito ou ordem de pagamento. Organizações que provém TEF são pressionadas pelos clientes a oferecer serviços confiáveis, com alta disponibilidade e segurança a pre»cos acessíveis, isso porque, a indisponibilidade de um serviço contratado pode levar a sérios prejuízos econômicos. O crescimento dos pagamentos eletrônicos aumentou a importância para alcan»car bons níveis de desempenho nos servidores TEF. Com o aumento dos servi»cos de pagamento, cresce também o mercado TEF, exigindo cada vez mais que empresas, por exemplo, lojas, bancos ou restaurantes, ofere»cam serviços confiáveis, de altas disponibilidade e segurança a custos acessíveis. Dessa forma, este trabalho prop~oe um modelo em redes de Petri estocástica para avaliar o impacto da disponibilidade e da con¯abilidade dos recursos computacionais. Além disso, uma metodologia de avalia»c~ao de desempenho é proposta, com o intuito de auxiliar os processos de modelagem e de avaliação. Por fim, estudos de caso serão apresentados mostrando a aplicabilidade do trabalho em comento
155

Redes complexas em presença de falhas induzidas / Complex networks in presence of induced failures

Pereira, Vanessa Helena, 1986- 17 August 2018 (has links)
Orientador: Varese Salvador Timóteo / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Tecnologia / Made available in DSpace on 2018-08-17T09:47:55Z (GMT). No. of bitstreams: 1 Pereira_VanessaHelena_M.pdf: 2435236 bytes, checksum: c61f3c9e770fd549a5b0fac102f12ffc (MD5) Previous issue date: 2010 / Resumo: A necessidade da operação intermitente de redes complexas leva ao estudo das falhas nas redes de topologia livre de escala (Scale-Free) de Barabási-Albert. Neste trabalho introduzem-se as teorias fundamentais ao estudo das redes complexas, além da revisão de vários trabalhos científicos relacionados às falhas e aos mecanismos de contenção destas. Utilizando o software Attacker-Defender, são construídas várias redes complexas Scale-Free de diferentes tamanhos, representadas por grafos. Estas redes são utilizadas para simular dois tipos de falhas mais frequentes: falhas aleatórias e falhas direcionadas aos hubs (nós com maior número de arestas incidentes) em duas etapas. Na primeira etapa, em dez tamanhos de redes são testadas quatro situações distintas. Na segunda etapa, em sete tamanhos de redes, são testadas dez diferentes vulnerabilidades. A partir da análise dos resultados da primeira etapa, observa-se qual dos quatro cenários analisados é o mais vantajoso para contenção de falhas nas redes. A análise da segunda etapa permite definir a descrição matemática do comportamento dos nós sobreviventes e atingidos no pós-falha, em cada uma das redes, para cada tipo de falha, através de métodos e funções específicas encontradas. / Abstract: The need for the intermittent operation of complex networks leads to the study of failures in these networks topology called Scale-Free, Barabási-Albert. In this work we introduce the fundamental theories to the study of complex networks, in addition to reviewing various scientific studies related to the failures and the mechanisms against cascade failures. Using the Attacker-Defender software, Scale-Free complex networks of different sizes are built, represented as graphs. These networks are used to simulate the two most common types of failures: random failures and attacks to hubs (nodes with the largest number of incident edges) in two steps. In the first step in ten sizes of networks are tested in distinct four cases. In the second step, in seven sizes of networks are tested ten different vulnerabilities. From the analysis of the results of the first step, it is observed which cases are best for the networks. The analysis of the second step provides the mathematical description of the behavior of the survivors and the affected nodes, after the failure in each network for each type of failure, through methods and specific functions was found. / Mestrado / Tecnologia e Inovação / Mestre em Tecnologia
156

Um ambiente para ensino de algoritmos de consenso

Seabra, Isana Luzia 24 October 2004 (has links)
Orientador: Luiz Eduardo Buzato / Dissertação (mestrado profissional) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-06T02:03:04Z (GMT). No. of bitstreams: 1 Seabra_IsanaLuzia_M.pdf: 1123422 bytes, checksum: 35a2333550e0c4f62cff398bdfa965f2 (MD5) Previous issue date: 2004 / Resumo: Sistemas distribuídos são aqueles em que vários processos autônomos são executados em máquinas distintas de uma rede de computadores para a realização de uma tarefa conjunta, sendo que a comunicação entre eles é através de troca de mensagens. Uma das principais características, cada vez mais presente nesses sistemas, é o compartilhamento de informação. Isso implica que eles devem garantir que o valor dessa informação é consistente para todos os processos - podemos citar, por exemplo, a manutenção de réplicas de base de dados. Para garantir uma informação consistente, todos os processos devem convergir para um mesmo valor, obtendo um valor de consenso para a informação. Na presença de falhas, sejam elas provenientes de processo ou de comunicação, a literatura nos mostra que obter consenso torna-se um problema de solução não trivial. Dada a importância desse assunto nas aplicações atuais e a vasta literatura que dificulta o início de seu estudo, este trabalho tem como objetivo oferecer um material sucinto e didático que venha facilitar o estudo inicial sobre algoritmos distribuídos para o problema de consenso, tendo como foco principal os alunos de graduação. Para tanto, contextualizamos o problema de consenso em sistemas distribuídos; descrevemos alguns algoritmos com características semelhantes; propomos um estudo detalhado do algoritmo definido por Pease, Shostak e Lamport [1], que chamamos de Algoritmo Fundamental; e apresentamos uma arquitetura em Java como subsídio para a implementação desses algoritmos, juntamente com uma implementação exemplo do Algoritmo Fundamental / Abstract: Distributed systems are those systems in which many autonomous processes are executed in different machines that belong to a computer network for the accomplishment of a cooperative task; the communication among them is carried out strictly through the exchange of messages. One of the main characteristics of these systems is replicated information sharing which means that they should guarantee that the value of this information is consistent for all the processes that have access to it. To guarantee consistency of information, all the processes should agree on the use of a same value for it. In the presence of partial failures, either caused by process or communication problems, the literature shows that reaching consensus becomes a problem of non-trivial solution. Due to its difficulty and practical importance consensus has gained momentus within the community of researchers and spawn a vast literature that makes it difficult for an undergraduate student to start its study. This research has the objective of offering some concise and didactic material to ease the initial studies of distributed consensus. In order to do that, we have contextualized the consensus problem in distributed systems; described some algorithms with similar characteristics; proposed a detailed study of the algorithm defined by Pease, Shostak e Lamport [1], which we call Fundamental Algorithm; and presented a Java based architecture as a subsidy for the implementation of these algorithms where the Fundamental Algorithm has been implemented. / Mestrado / Engenharia de Computação / Mestre Profissional em Computação
157

Arquitetura de software para recuperaçao de falhas utilizando checkpointing quase-sincrono / Software architecture for fault-recovery using quasi-synchronous checkpointing

Silva, Ulisses Furquim Freire da 05 May 2005 (has links)
Orientadores: Islene Calciolari Garcia / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-06T15:21:09Z (GMT). No. of bitstreams: 1 Silva_UlissesFurquimFreireda_M.pdf: 705102 bytes, checksum: 5b4ebc6853f67fd40696b21c87297f43 (MD5) Previous issue date: 2005 / Resumo: Um sistema distribuído tolerante a falhas que utilize recuperação por retrocesso de estado deve selecionar os checkpoints dos seus processos que serão gravados. Além dessa seleção, definida por um protocolo de checkpointing, o sistema precisa realizar uma coleta de lixo, para eliminar os checkpoints que se tornam obsoletos à medida que a aplicação executa. Assim, na ocorrência de uma falha, a computação pode ser retrocedida para um estado consistente salvo anteriormente. Esta dissertação discute os aspectos teóricos e práticos de um sistema distribuído tolerante a falhas que utiliza protocolos de checkpointing quase-síncronos e algoritmos para a coleta de lixo e recuperação por retrocesso. Existem vários protocolos de checkpointing na literatura, e nesta dissertação foram estudados os protocolos de checkpointing quase-síncronos. Esses protocols enviam informações de controle juntamente com as mensagens da aplicação, e podem exigir a gravação de checkpoints forçados, mas não necessitam de sincronização ou troca de mensagens de controle entre os processos. Com base nesse estudo, um framework para protocolos de checkpointing quase-sincronos foi implementado numa biblioteca de troca de mensagens chamada LAM/MPI. Além disso, uma arquitetura de software para recuperação de falhas por retrocesso de estado chamada Curupira também foi estudada e implementada naquela biblioteca. O Curupira_e a primeira arquitetura de software que n~ao precisa de troca de mensagens de controle ou qualquer sincronização entre os processos na execução dos protocolos de checkpointing e de coleta de lixo / Abstract: A fault-tolerant distributed system based on rollback-recovery has to checkpoints of its processes are stored. Besides this selection, that is controlled checkpointing protocol, the system has to do garbage collection, in order to eliminate that become obsolete while the application executes. The garbage collection because checkpoints require the use of storage resources and the storage has limited capacity. So, when some fault occurs, the whole distributed be restored to a consistent global state previously stored. This dissertation practical and theoretical aspects of a fault-tolerant distributed system quasisynchronous checkpointing protocols and also garbage collection and algorithms. There are several checkpointing protocols proposed in the literature, quasisynchronous ones were studied in this dissertation. These protocols information in the application's messages and can induce forced checkpoints, need any synchronization or exchanging of control messages among on that study, a framework for quasi-synchronous checkpointing implemented in a message passing library called LAM/MPI. Moreover, a based on rollback-recovery from faults named Curupira was also implemented in that library. Curupira is the _rst software architecture exchanging of control messages or any synchronization among the execution of the checkpointing and garbage collection protocols / Mestrado / Sistemas Distribuidos / Mestre em Ciência da Computação
158

Desenvolvimento de um sistema para detecção de falhas de alta impedancia em redes de distribuição

Jota, Patricia Romeiro da Silva 31 May 1996 (has links)
Orientador: Anesio dos Santos Jr / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-21T11:41:43Z (GMT). No. of bitstreams: 1 Jota_PatriciaRomeirodaSilva_D.pdf: 9312605 bytes, checksum: d193b1ca7fd04de6a0be95f4bf346b52 (MD5) Previous issue date: 1996 / Resumo: Nesta tese, apresenta-se desenvolvimento de uma metodologia para detecção de falhas de alta impedância em Redes de Distribuição Radial. As técnicas empregadas se baseiam na resposta do alimentador a um impulso de tensão injetado periodicamente na saída da subestação. Esta resposta é armazenada e comparada com um banco de dados previamente construído. Este banco contém as respostas do alimentador para configurações normais de operação. Considera-se que o alimentador está operando em condição faltosa toda vez que a sua resposta não coincidir com as respostas armazenadas no banco de dados. Três técnicas distintas foram implementadas e testadas utilizando dados medidos em um alimentador real da concessionária CEMIG, na cidade de Caratinga, MG... Observação: O resumo, na íntegra, poderá ser visualizado no texto completo da tese digital / Abstract: In this thesis, the development of a methodology for detection of High Impedance Faults in primary distribution feeders is presented. The technique used is based on the feeder response to a short pulse signal periodicaly injected at the substation outlet. The response to each pulse is compared to the ones previously stored in a database. The database contains the feeder response to the known normal operating configurations. It is assumed that if the response does not coincide with any of the stored responses, then the feeder is operating in a faulty condition. Three different techniques have been implemented and tested using data collected from a real feeder of Campanhia Energetica de Minas Gerais (CEMIG), at Caratinga city, State of Minas Gerais (MG), Brazil... Note: The complete abstract is available with the full electronic digital thesis or dissertations / Doutorado / Doutor em Engenharia Elétrica
159

Adaptação de componentes de software para o desenvolvimento de sistemas confiaveis

Weiss, Gerson Mizuta 13 June 2001 (has links)
Orientador: Cecilia Mary Fischer Rubira / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-07-29T00:28:53Z (GMT). No. of bitstreams: 1 Weiss_GersonMizuta_M.pdf: 3249749 bytes, checksum: 3ff530151ac4b2a4a10dcdc424738e42 (MD5) Previous issue date: 2001 / Resumo: O desenvolvimento de software baseado em componentes tem como objetivo a diminuição dos custos de desenvolvimento através da composição de componentes de software reutilizáveis. Normalmente, um componente de software deve ser adaptado a fim de adequá-Io às características impostas pelo projeto do sistema em desenvolvimento. A adaptação de componentes busca aumentar o grau de reutilização dos componentes de software e ajudar os desenvolvedores de sistemas na composição dos componentes adquiridos de terceiros. Este trabalho propõe uma técnica de adaptação de componentes de software que utiliza conceitos de reflexão computacional para realizar adaptações de maneira transparente, onde o cliente do componente adaptado não tem conhecimento acerca das adaptações realizadas. Além disso, não é necessário o acesso ao código fonte do componente e nem a presença de um sistema executivo que controle a execução da aplicação. A técnica de adaptação proposta foi implementada para atuar sobre componentes desenvolvidos em J ava. São apresentados alguns exemplos nos quais a técnica de adaptação proposta é utilizada para adicionar propriedades não-funcionais, como tolerância a falhas e segurança, aos componentes de software / Abstract: The component-based software development aims at the reduction of the development costs through the composition of reusable software components. Usually a software component must be adapted in order to agree with the design of the system. The adaptation of software components is a manner to increase the reuse of components and help developers in the composition of third-party software components. This work presents a software component adaptation technique based on computational reflection that makes transparent adaptations, where the client of the adapted component does not have knowledge about the adaptations made. Besides that, the technique does not need to acess the component's source code and it is not necessary the presence of an executive system that controls the system's execution. The technique proposed is implemented to adapt software components developed in Java. The technique was used to add non-functional properties, such as fault tolerance, security and exception handling, to software components / Mestrado / Mestre em Ciência da Computação
160

Protocolos multicoordenados de acordo e o serviço de log / Multicoordinated agreement problems and the log service

Camargos, Lásaro Jonas 12 December 2008 (has links)
Orientador: Edmundo R. M. Madeira, Fernando Pedone / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-13T10:28:10Z (GMT). No. of bitstreams: 1 Camargos_LasaroJonas_D.pdf: 1941705 bytes, checksum: 23f0f1380c7d6262497ec13b43519301 (MD5) Previous issue date: 2008 / Resumo: Problemas de acordo, como Consenso, Terminação Atômica e Difusão Atômica, são abstrações comuns em sistemas distribuídos. Eles ocorrem quando os componentes do sistema precisam concordar em reconfigurações, mudanças de estado ou em linhas de ação em geral. Nesta tese, investigamos estes problemas no contexto do ambiente e aplicações em que serão utilizados. O modelo geral é o assíncrono sujeito a quebras com possível posterior recuperação. Nossa meta é desenvolver protocolos que explorem esta informação contextual para prover maior disponibilidade, e que se mantenham corretos mesmo que algumas das prerrogativas do contexto tornem-se inválidas. Na primeira parte da tese, exploramos a seguinte propriedade: mensagens difundidas em pequenas redes tendem a ser entregues ordenada e confiavelmente. Nós fazemos três contribuições nesta parte da tese. A primeira é a transformação de algoritmos conhecidos para o modelo quebra-e-pára, que utilizam a propriedade de ordenação mencionada, em protocolos práticos. Isto é, protocolos que toleram perda de mensagens e recuperação após a quebra. Nossos protocolos garantem progresso na presença de falhas, contanto que mensagens sejam espontaneamente ordenadas freqüentemente. Na ausência de ordenação expontânea, outras prerrogativas são necessárias para contornar falhas. A segunda contribuição é a generalização de um dos algoritmos citados acima em um modo de execução "multi-coordenado" em um protocolo híbrido de consenso, que usa ou ordenação expontânea ou detecção de falhas para progredir. Em comparação a outros protocolos, o nosso provê maior disponibilidade sem comprometer resiliência. A terceira contribuição é a utilização do modo multi-coordenado para resolver Consenso Generalizado, um problema que generaliza uma série de outros e que, portanto, é de grande interesse prático. Além disso, fizemos diversas considerações sobre aspectos práticos da utilização deste protocolo. Como resultado, nosso protocolo perde desempenho gradualmente no caso de condições desfavoráveis, permite o balanceamento de carga sobre os coordenadores, e acessa a memória estável parcimoniosamente. Na segunda parte da tese, consideramos problemas de acordo no contexto de redes organizadas hierarquicamente. Em específico, nós consideramos uma topologia usada nos data centers de grandes cooporações: grupos de máquinas conectadas internamente por links de baixa latência, mas por links mais lentos entre grupos. Em tais cenários, latência é claramente um fator importante e reconfigurações, onerosas aos protocolos, devem ser evitadas tanto quanto possível. Nossa contribuição neste tópico está em evitar reconfigurações e melhorar a disponibilidade de um protocolo de acordo que é rápido a despeito de colisões. Isto é, um protocolo que consegue chegar a uma decisão em dois passos inter-grupos mesmo quando várias propostas são feitas concorrentementes. Além do uso da técnica de multicoordenação, nós usamos primitivas de multicast e consenso para conter algumas reconfigurações dentro dos grupos, onde seus custos são menores. Na última parte da tese nós estudamos o problema de terminação de transações distribuídas. O problema consiste em garantir que os vários participantes da transação concordem em aplicar ou cancelar de forma consistente as suas operações no contexto da transação. Além disso, é necessário garantir a durabilidade das alterações feitas por transações terminadas com sucesso. Nossa contribuição neste tópico é um serviço de log que abstrai e desassocia a terminação de transações dos processos que executam tais transações. O serviço funciona como uma caixa preta e permite que resource managers lentos ou falhos sejam reiniciados em servidores diferentes, sem dependências na memória estável do servidor em que executava anteriormente. Nós apresentamos e avaliamos experimentalmente duas implementações do serviço. / Abstract: Agreement problems are a common abstraction in distributed systems. They appear when the components of the system must concur on reconfigurations, changes of state, or in lines of action in general. Examples of agreement problems are Consensus, Atomic Commitment, and Atomic Broadcast. In this thesis we investigate these abstractions in the context of the environment in which they will run and the applications that they will serve; in general, we consider the asynchronous crash-recovery model. The goal is to devise protocols that explore the contextual information to deliver improved availability. The correctness of our protocols holds even when the extra assumptions do not. In the first part of this thesis we explore the following property: messages broadcast in small networks tend to be delivered in order and reliably. We make three contributions in this part. The first contribution is to turn known Consensus algorithms that harness this ordering property to reach agreement in the crash-stop model into practical protocols. That is, protocols that tolerate message losses and recovery after crashes, efficiently. Our protocols ensure progress even in the presence of failures, if spontaneous ordering holds frequently. In the absence of spontaneous ordering, some other assumption is required to cope with failures. The second contribution of this thesis is to generalize one of our crash-recovery consensus protocols as a "multicoordinated" mode of a hybrid Consensus protocol, that may use spontaneous ordering or failure detection to progress. Compared to other protocols, ours provide improved availability with no price in resilience. The third contribution is to employ this new mode to solve Generalized Consensus, a problem that generalizes a series of other agreement problems and, hence, is of much practical interest. Moreover, we considered several aspects of solving this problem in practice, which had not been considered before. As a result, our Generalized Consensus protocol features graceful degradation, load balancing, and is parsimonious in accessing stable storage. In the second part of this thesis we have considered agreement problems in wide area networks organized hierarchically. More specifically, we considered a topology that is commonplace in the data centers of large corporations: groups of nodes, with large-bandwidth low-latency links connecting the nodes in the same group, and slow and limited links connecting nodes in different groups. In such environments, latency is clearly a major concern and reconfiguration procedures that render the agreement protocol momentarily unavailable must be avoided as much as possible. Our contribution here is in avoiding reconfigurations and improving the availability of a collision fast agreement protocol. That is, a protocol that can reach agreement in two intergroup communication steps, irrespectively to concurrent proposals. Besides the use of a multicoordinated approach, we employed multicast primitives and consensus to restrict some reconfigurations to within groups, where they are less expensive. In the last part of this thesis we study the problem of terminating distributed transactions. The problem consists of enforcing agreement among the parties on whether to commit or rollback the transaction and ensuring the durability of committed transactions. Our contribution in this topic is an abstract log service that detaches the termination problem from the processes actually performing the transactions. The service works as a black box and abstracts its implementation details from the application utilizing it. Moreover, it allows slow and failed resource managers be re-started on different hosts without relying on the stable storage of the previous host. We provide two implementations of the service, which we evaluated experimentally. / Doutorado / Doutor em Ciência da Computação

Page generated in 0.0438 seconds