• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 243
  • 87
  • 65
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 397
  • 243
  • 147
  • 143
  • 98
  • 84
  • 64
  • 62
  • 45
  • 41
  • 37
  • 31
  • 27
  • 27
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Resistência de genótipos de palma de óleo (Elaeis guineensis Jacq.) ao ataque de Opsiphanes invirae Hübner, 1808 (lepidoptera : nymphalidae) no Estado do Pará /

Maia, Patricia Surama Parise. January 2016 (has links)
Orientador: Arlindo Leal Boiça Junior / Coorientador: Ivan Carlos Fernandes Martins / Banca: Antonio Carlos Busoli / Banca: José Carlos Barbosa / Banca: Valter Arthur / Banca: José Roberto Scarpellini / Resumo: A presente pesquisa teve por objetivos estabelecer uma metodologia para criação de O. invirae e identificar genótipos de palma de óleo que apresentem fontes de resistência a esse inseto, nas categorias por não preferência para alimentação, antibiose e tolerância, sendo esta última baseada na produtividade após simulação de desfolha nas plantas. Os experimentos foram conduzidos em laboratório, exceto o teste de tolerância, o qual foi em condições de campo. Para a metodologia de criação, as lagartas foram criadas individualmente em placas de Petri até o quarto ínstar e posteriormente transferidas para recipientes maiores onde permaneceram até a emergência dos adultos. Foram utilizados 5 genótipos de palma de óleo para os testes de não preferência para alimentação, antibiose e tolerância, quais sejam: Deli x LaMe tratamento testemunha, Compacta x Ekona; Deli x Ekona; Compacta x Nigéria e Compacta x Ghana. Os testes com e sem chance de escolha, foram realizados com lagartas de O. invirae recém-eclodidas e com 12 dias de idade. Foram avaliados o consumo e a atratividade a 1, 3, 5, 10, 15 e 30 minutos e 1, 2, 6, 12, 24, 48 e 72 horas, após a liberação dos insetos. No teste de antibiose, as lagartas de O. invirae foram alimentadas com folíolos dos cinco genótipos até o final da fase larval. No teste de tolerância, os genótipos foram submetidos a desfolha simulada, ou seja, 0%, 25%, 50%, 75% e 100%. Avaliando a produção por 14 meses após a desfolha. O ciclo de vida desde o ovo até a ... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: This research aimed to establish a methodology for creating O. invirae and identify genotypes palm oil presenting this insect resistance sources in the categories by not feeding preference, antibiosis and tolerance, the latter being based on productivity simulation after defoliation in plants. The experiments were conducted in the laboratory, but the tolerance test, which was under field conditions. For the creation of methodology, the caterpillars were reared individually in Petri dishes until the fourth instar and then transferred to larger containers where they remained until the emergence of adults. 5 oil palm genotypes were used for the test no preference for food, antibiosis and tolerance, which are: Deli x Lame control treatment, Compact x Ekona; Deli x Ekona; Compact x Nigeria and Compact x Ghana. The tests with and without choice, were carried out with crawler O. invirae newly hatched and 12 days old. They were evaluated consumption and attractiveness to 1, 3, 5, 10, 15 and 30 minutes and 1, 2, 6, 12, 24, 48 and 72 hours after the release of the insects. In antibiosis test, Crawler O. invirae were fed leaflets of the five genotypes by the end of the larval stage. In the tolerance test, the genotypes were simulated peeling, is, 0%, 25%, 50%, 75% and 100%. Evaluating production for 14 months after defoliation. The life cycle from egg to the emergence of O. invirae adult was completed in 64.59 days. In the test free choice, the most attractive genotypes were Compacta x ... (Complete abstract click electronic access below) / Doutor
232

Divergência genética entre clones de eucalipto por caracteres biométricos e fisiológicos sob deficiência hídrica /

Revolti, Paola Mazza. January 2010 (has links)
Orientador: Rinaldo César de Paula / Banca: Pedro Luis da Costa Aguiar Alves / Banca: Susi Meire Maximino Leite / Resumo: O presente trabalho objetivou avaliar o desempenho de 40 clones de eucalipto submetidos a dois regimes de irrigação em casa de vegetação: RI1 - plantas sem restrição hídrica e RI2 - plantas cuja irrigação foi suspensa até o aparecimento de sintomas iniciais de deficiência hídrica (murcha). As plantas do regime RI2, ao final do ciclo de suspensão da irrigação, foram irrigadas de forma que o solo atingisse 21% de água (v/v), o que correspondeu a aproximadamente a 60% da capacidade máxima de retenção de água pelo solo; após isto, a irrigação foi novamente suspensa, repetindo-se o ciclo. No decorrer do experimento, foram conduzidos seis ciclos de estresse hídrico. No início e ao final do experimento, foram avaliados o diâmetro do coleto, a altura, o número de folhas, a área foliar e a massa de matéria seca de folhas, caule e raízes e da parte aérea, bem como a relação raiz-parte aérea e a massa por área de folhas. Nos momentos de máximo estresse hídrico, foram avaliadas as seguintes características: teor relativo de clorofila total (UR), medida da eficiência quântica do fotossistema II (Fv/Fm), taxa de assimilação líquida (A), condutância estomática (gs), taxa de transpiração (E), eficiência intrínseca do uso da água (EUAintr=A/E) e eficiência instantânea do uso da água (EUAinst=A/gs). Ao final do experimento foi determinado o potencial hídrico foliar (Ψf) e o conteúdo relativo de água (CRA). O experimento foi estabelecido no delineamento de blocos casualizados, no esquema fatorial 40 x 2 (40 clones e 2 regimes de irrigação), com quatro repetições. Os dados foram submetidos à análise de variância (teste F) e as médias comparadas pelo teste de Scott-Knott a 5%. Procedeu-se ainda ao estudo da divergência genética entre os clones, a partir da distância Euclidiana média, aplicando-se o algoritmo de otimização de Tocher. Observou-se... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: This work aiming to evaluate the performance of 40 clones of eucalyptus submitted to two irrigation regimes in a greenhouse: RI1 - plants without water restriction and RI2 - plants whose irrigation was suspended until the appearance of symptoms of water deficit. Plants of the RI2 regime at the end the cycle of irrigation suspension were irrigated until 60% of capacity retention water, after which irrigation was suspended again repeating the cycle. During the experiment were conducted six cycles of drought stress. At the beginning and end of the experiment, were analyzed the collar diameter, height, leaf number, leaf area and dry weight of leaves, stems, roots and shoots and ratio root-shoot and mass by leaf area. In the moment of maximum water stress were evaluated the following traits: the total chlorophyll content (UR), the quantum efficiency of photosystem II (Fv/Fm), rate of liquid assimilation (A), stomatal conductance (gs), transpiration (E), intrinsic water use efficiency (WUEintr = A/E) and instantaneous water use efficiency (WUEinst = A/gs). At the end of the experiment was determined the leaf water potential (Ψf) and relative water content (RWC). The experiment was established in randomized blocks desigin in factorial scheme 40 x 2 (40 clones and two irrigation regimes), with four replications. The data were submitted to analysis of variance (F test) and the means compared by Scott-Knott test at 5%. The genetic divergence was obtained by Euclidean distance, applying the techniques of clustering by the Tocher optimization algorithm. All clones showed reductions in the values of traits under water limitation (RI2). Some clones showed better adjustment to the physiological and biometric traits under RI2. The clones 11, 16, 24 and 31 are more tolerant and the clones 1, 4, 5, 17 and 19 are the most sensitive to water deficiency, and are recommended for news studies of tolerance... (Complete abstract click electronic access below) / Mestre
233

Características fisiológicas e moleculares de uma cultivar de cana-de-açúcar tolerante à seca e submetida ao déficit hídrico prolongado /

Telles, Bruna Robiati. January 2016 (has links)
Orientador: Maria Inês Tiraboschi Ferro / Coorientador: Flávia Maria de Souza Carvalho / Coorientador: Poliana Fernanda Giachetto / Banca: Priscila Lupino Gratão / Banca: Paula Macedo Nobile / Resumo: A cana-de-açúcar é uma cultura fortemente influenciada pela seca, o que é um fator limitante para a produção sucroenergética. No Brasil, esta cultura está se expandindo para regiões com deficiência hídrica bastante acentuada, e uma das formas de contornar este problema é utilizar cultivares que sejam mais adaptadas a este tipo de estresse. Por isso, o objetivo deste trabalho foi analisar o comportamento fisiológico e molecular de plantas de cana-de-açúcar submetidas a distintos períodos de deficiência hídrica, a fim de contribuir com novos conhecimentos na área e auxiliar no desenvolvimento e cultivo de plantas mais bem adaptadas a essa condição. Neste trabalho, foram utilizadas duas cultivares de cana-de-açúcar contrastantes à seca (SP81-3250 e RB855453), tolerante e sensível, respectivamente. As plantas foram cultivadas em casa de vegetação e submetidas a três controlados potenciais hídricos do solo (controle, déficit hídrico moderado e déficit hídrico severo) a partir de 60 dias após o plantio. Essas plantas foram avaliadas molecular e fisiologicamente em três épocas distintas: 30, 60 e 90 dias após a aplicação dos tratamentos, sendo este um dos poucos trabalhos disponíveis até o momento sobre a resposta de plantas de cana-de-açúcar sob déficit hídrico prolongado. A tecnologia de RNA-Seq foi utilizada para obtenção dos transcriptomas de folhas dos dois genótipos de cana. A montagem de novo desses transcriptomas foi realizada, o que permitiu identificar os genes exclusivos ... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The sugarcane culture is strongly influenced by drought, which is a limiting factor for sugar and energy production. In Brazil, this culture is expanding to regions with very severe water stress and one way to workaround this issue is to use cultivars that are more adapted to this form of stress. Therefore, the objective of this study has been to analyze the physiological and molecular behavior of sugarcane plants submitted to different periods of water stress in order to contribute to new knowledge in the area and assist in the development and cultivation of better-adapted plants to this condition. In this study, we have employed two cultivars of sugarcane that are contrasting to drought (SP81-3250 and RB855453), tolerant and sensitive, respectively. Plants have been cultivated in a greenhouse and submitted to three controlled potential soil hydric (control, moderate drought and severe water deficit) from 60 days after planting.These plants have been evaluated molecular and physiologically in three different periods: 30, 60 and 90 days after treatment application, which is one of the few studies available to date on the response of sugarcane plants under prolonged drought. RNA-Seq technology has been used to obtain the transcriptomes leaves of the two genotypes of sugarcane.The de novo assembly has been performed which has allowed identifying exclusive genes of both cultivars and analyzing the exclusive tolerant cultivar involved in defense response to prolonged drought. The physiological parameters evaluated have shown significant changes in response to water stress.The de novo assembly resulted in 161,295 isoforms, with 86,087 different genes. To record, the transcripts have been were aligned against sequences of Sorghum bicolor, Arabidopsis thaliana, and sugarcane sequences available in public databases. Through the analysis of differentially ... (Complete abstract click electronic access below) / Mestre
234

Modulação contexto-específica dos efeitos comportamentais e neuroquímicos decorrentes da cafeína /

Zancheta, Roberta. January 2010 (has links)
Orientador: Cleopatra da Silva Planeta / Banca: Roberto DeLucia / Banca: Marcia Gallacci / Resumo: A cafeína é a substância psicoativa mais consumida no mundo. A administração repetida de psicostimulantes pode aumentar ou diminuir o efeito da substância, induzindo sensibilização ou tolerância, respectivamente, dependendo do procedimento de administração. Além da dose e do regime de administração, o ambiente onde a substância é administrada parece modular as mudanças comportamentais que ocorrem após administração repetida. O objetivo do presente estudo foi analisar a influência do contexto ambiental nas respostas comportamentais induzidas pela cafeína após administração repetida dessa substância. Também foi investigado se as alterações comportamentais estavam relacionadas a mudanças nas concentrações teciduais de dopamina e seus metabólitos no córtex pré-frontal medial, núcleo accumbens e caudado putamen. Para tanto, administramos cafeína (15mg/kg) ou salina (1mL/kg) a ratos adultos em dias alternados durante 13 dias (uma injeção a cada 48 horas; 7 administrações no total), o tratamento repetido com cafeína foi realizado de duas formas: 1) pareado ao ambiente onde foi realizado o teste locomotor; 2) não pareado ao ambiente onde foi realizado o teste locomotor. Três dias após a última injeção de cafeína ou salina foi realizado o teste comportamental dos animais. Imediatamente após o registro do comportamento os animais foram decapitados e seus encéfalos foram removidos para determinação das concentrações de dopamina e seus metabólitos por cromatografia líquida de alta resolução. Nossos resultados mostraram que a administração repetida de cafeína induziu sensibilização psicomotora quando as injeções foram pareadas ao ambiente onde foi realizado o teste locomotor dos animais, enquanto tolerância foi observada quando os animais receberam cafeína repetidamente em um ambiente distinto daquele onde o teste locomotor dos animais... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Caffeine is the psychostimulant drug most consumed in the world. Repeated administration of psychostimulants can either decrease or increase the drug effect, inducing tolerance or sensitization, respectively; depending on the administration procedure. Besides dose and regime of drug administrations, the environment where drug is administered seems to modulate the changes in locomotor activity following repeated psychostimulant administration. The purpose of the present study was to examine the influence of the environmental context on caffeine-induced psychomotor stimulation following repeated administration of this drug. We also investigated whether the behavioral alterations were related to changes on dopamine or its metabolites tissue levels in the medial prefrontal cortex, nucleus accumbens and caudate putamen. For this purpose adult rats received caffeine (15mg/kg) or saline (1ml/kg) on alternate days for 13 days (one injection every 48 hours, seven administrations in total), the repeated treatment with caffeine was performed in two ways: 1) paired with the environment where the behavioral test was performed, 2) non-paired with the environment where the the behavioral test was performed. Three days after the last injection of caffeine or saline the behavioral test was performed. Immediately after the behavioral test the animals were killed by decapitation and their brains were removed for determination of dopamine and its metabolites by HPLC. Our results showed that repeated caffeine induces psychomotor sensitization when injections were paired with the environment where the animals were subsequently tested; while tolerance was observed when the animals received caffeine in an environment different from that where tests were performed. Dopaminergic alterations were detected in the medial prefrontal cortex, caudate putamen and nucleus accumbens in response to repeated treatment with... (Complete abstract click electronic access below) / Mestre
235

Swarm debugging : the collective debugging intelligence of the crowd / Depuração em enxame : a inteligência coletiva na depuração pela multidão

Petrillo, Fábio dos Santos January 2016 (has links)
As formigas são criaturas fascinantes que, além dos avanços na biologia também inspiraram pesquisas sobre teoria da informação. Em particular, o estudo resultou na criação da Teoria da Forragem de Informação, que descreve como os agentes de buscam informações em seu ambiente. Esta teoria também explica fenômenos recentes e bem-sucedidos, como crowd sourcing. Crowdsourcing tem sido aplicado a muitas atividades em engenharia de software, incluindo desenvolvimento, tradução e testes, mas uma atividade parece resistir: depuração. No entanto, os desenvolvedores sabem que a depuração pode exigir dedicação, esforço, longas horas de trabalho, por vezes, para mudar uma linha de código único. Nós introduzimos o conceito de Depuração em Enxame, para trazer crowd sourcing para a atividade de depuração. Através de crowd sourcing, pretendemos ajudar os desenvolvedores, capitalizando a sua dedicação, esforço e longas horas de trabalho para facilitar atividades de depuração. Mostramos que a depuração enxame requer uma abordagem específica para recolher informações relevantes, e descrevemos sua infra-estrutura. Mostramos também que a depuração em enxame pode reduzir o esforço desenvolvedores. Concluímos com as vantagens e limitações atuais de depuração enxame, e sugerir caminhos para superar estas limitações e ainda mais a adoção de crowd sourcing para atividades de depuração. / Ants are fascinating creatures that beyond the advances in biology have also inspired research on information theory. In particular, their study resulted in the creation of the Information Foraging Theory, which describes how agents forages for information in their environment. This theory also explains recent and fruitful phenomena, such as crowdsourcing. Many activities in software engineering have applied crowdsourcing, including development, translation, and testing, but one action seems to resist: debugging. Developers know that debugging can require dedication, effort, long hours of work, sometimes for changing one line of code only. We introduce the concept of Swarm Debugging, to bring crowdsourcing to the activity of debugging. Through crowdsourcing, we aim at helping developers by capitalizing on their dedication, effort, and long hours of work to ease debugging activities of their peers or theirs, on other bugs. We show that swarm debugging requires a particular approach to collect relevant information, and we describe the Swarm Debugging Infrastructure. We also show that swarm debugging minimizes developers effort. We conclude with the advantages and current limitations of swarm debugging and suggest directions to overcome these limitations and further the adoption of crowdsourcing for debugging activities.
236

Uma ferramenta multiplataforma para prevenção de buffer overflow / A Multiplatform tool to prevent buffer overflows

Mello, Paulo Estima January 2009 (has links)
Este trabalho apresenta um método para prevenir as vulnerabilidades causadas por erros de programação insegura que, normalmente, é resultado da solução de um problema proposto ou do desenvolvimento de funcionalidade sem levar em consideração a segurança do sistema como um todo. Os erros de programação (no contexto da segurança de um sistema e não apenas da sua funcionalidade) são normalmente frutos da ignorância do programador sobre as vulnerabilidades apresentadas pelas suas ferramentas para construção de programas. O estado da arte é brevemente apresentado demonstrando as soluções atuais em termos de proteção contra ataques de buffer overflow baseado em pilha. Soluções em tempo de compilação e pós-compilação por parte do sistema operacional são as mais comuns. Neste escopo é demonstrada a solução proposta por um protótipo funcional que valida o modelo para uma série de aplicações em duas plataformas diferentes (Windows e Linux). A solução converge a instrumentação de aplicações com o uso de um repositório de endereços de retorno para prevenir o retorno de funções a endereços não legalmente especificados. Testes do protótipo foram realizados em ambas as plataformas e mostraram a eficácia do protótipo prevenindo falhas em casos reais de buffer overflow baseado em pilha. / This paper presents a method to prevent the vulnerabilities caused by insecure programming which, usually, is an outcome of taking into account only the solution of a proposed problem or the development of new functionalities disregarding security on development of the system as a whole. The programming mistakes (in the context of the system security despite the system's functionality) are usually a result of the unawareness of the programmed about the vulnerabilities contained on the tools they use to develop software. The state of the art is briefly presented showing the current solutions related to preventing buffer overflows based on stack. Both compile time and post-compilation solutions (usually as part of the operating system) are the most widely used. In this work the proposed solution is demonstrated by a functional prototype which validates the model for a set of applications in two different platforms (Windows and Linux). The solution converges process instrumentation with a return address repository to prevent a function from returning to an address not legally specified. Testes of the prototype were performed in both platforms previously mentioned and have proved the correctness of the prototype by actually preventing exploitation on real case scenarios of real world applications.
237

Reliability evaluation and error mitigation in pedestrian detection algorithms for embedded GPUs / Validação da confiabilidade e tolerância a falhas em algoritmos de detecção de pedestres para GPUs embarcadas

Santos, Fernando Fernandes dos January 2017 (has links)
A confiabilidade de algoritmos para detecção de pedestres é um problema fundamental para carros auto dirigíveis ou com auxílio de direção. Métodos que utilizam algoritmos de detecção de objetos como Histograma de Gradientes Orientados (HOG - Histogram of Oriented Gradients) ou Redes Neurais de Convolução (CNN – Convolutional Neural Network) são muito populares em aplicações automotivas. Unidades de Processamento Gráfico (GPU – Graphics Processing Unit) são exploradas para executar detecção de objetos de uma maneira eficiente. Infelizmente, as arquiteturas das atuais GPUs tem se mostrado particularmente vulneráveis a erros induzidos por radiação. Este trabalho apresenta uma validação e um estudo analítico sobre a confiabilidade de duas classes de algoritmos de detecção de objetos, HOG e CNN. Esta pesquisa almeja não somente quantificar, mas também qualificar os erros produzidos por radiação em aplicações de detecção de objetos em GPUs embarcadas. Os resultados experimentais com HOG foram obtidos usando duas arquiteturas de GPU embarcadas diferentes (Tegra e AMD APU), cada uma foi exposta por aproximadamente 100 horas em um feixe de nêutrons em Los Alamos National Lab (LANL). As métricas Precision e Recall foram usadas para validar a criticalidade do erro. Uma análise final mostrou que por um lado HOG é intrinsecamente resiliente a falhas (65% a 85% dos erros na saída tiveram um pequeno impacto na detecção), do outro lado alguns erros críticos aconteceram, tais que poderiam resultar em pedestres não detectados ou paradas desnecessárias do veículo. Este trabalho também avaliou a confiabilidade de duas Redes Neurais de Convolução para detecção de Objetos:Darknet e Faster RCNN. Três arquiteturas diferentes de GPUs foram expostas em um feixe de nêutrons controlado (Kepler, Maxwell, e Pascal), com as redes detectando objetos em dois data sets, Caltech e Visual Object Classes. Através da análise das saídas corrompidas das redes neurais, foi possível distinguir entre erros toleráveis e erros críticos, ou seja, erros que poderiam impactar na detecção de objetos. Adicionalmente, extensivas injeções de falhas no nível da aplicação (GDB) e em nível arquitetural (SASSIFI) foram feitas, para identificar partes críticas do código para o HOG e as CNNs. Os resultados mostraram que não são todos os estágios da detecção de objetos que são críticos para a confiabilidade da detecção final. Graças a injeção de falhas foi possível identificar partes do HOG e da Darknet, que se protegidas, irão com uma maior probabilidade aumentar a sua confiabilidade, sem adicionar um overhead desnecessário. A estratégia de tolerância a falhas proposta para o HOG foi capaz de detectar até 70% dos erros com 12% de overhead de tempo. / Pedestrian detection reliability is a fundamental problem for autonomous or aided driving. Methods that use object detection algorithms such as Histogram of Oriented Gradients (HOG) or Convolutional Neural Networks (CNN) are today very popular in automotive applications. Embedded Graphics Processing Units (GPUs) are exploited to make object detection in a very efficient manner. Unfortunately, GPUs architecture has been shown to be particularly vulnerable to radiation-induced failures. This work presents an experimental evaluation and analytical study of the reliability of two types of object detection algorithms: HOG and CNNs. This research aim is not just to quantify but also to qualify the radiation-induced errors on object detection applications executed in embedded GPUs. HOG experimental results were obtained using two different architectures of embedded GPUs (Tegra and AMD APU), each exposed for about 100 hours to a controlled neutron beam at Los Alamos National Lab (LANL). Precision and Recall metrics are considered to evaluate the error criticality. The reported analysis shows that, while being intrinsically resilient (65% to 85% of output errors only slightly impact detection), HOG experienced some particularly critical errors that could result in undetected pedestrians or unnecessary vehicle stops. This works also evaluates the reliability of two Convolutional Neural Networks for object detection: You Only Look Once (YOLO) and Faster RCNN. Three different GPU architectures were exposed to controlled neutron beams (Kepler, Maxwell, and Pascal) detecting objects in both Caltech and Visual Object Classes data sets. By analyzing the neural network corrupted output, it is possible to distinguish between tolerable errors and critical errors, i.e., errors that could impact detection. Additionally, extensive GDB-level and architectural-level fault-injection campaigns were performed to identify HOG and YOLO critical procedures. Results show that not all stages of object detection algorithms are critical to the final classification reliability. Thanks to the fault injection analysis it is possible to identify HOG and Darknet portions that, if hardened, are more likely to increase reliability without introducing unnecessary overhead. The proposed HOG hardening strategy is able to detect up to 70% of errors with a 12% execution time overhead.
238

Ferramentas para simulação de falhas transientes / Transient fault simulation toolkit

Bartra, Walter Enrique Calienes January 2011 (has links)
Atualmente, a simulação de falhas é um estágio importante em qualquer desenvolvimento de Circuitos Integrados. A predição de falhas comportamentais em qualquer estagio do processo é essencial para garantir que o chip desenvolvido seja bem implementado. Vários problemas podem ser conferidos e solucionados enquanto se executa a simulação. As falhas transientes mais conhecidas são os Single-Event-Upset (SEU), as quais acontecem nos circuitos de memória, e as Single-Event Transient (SET), que acontecem em circuitos de lógica combinacional. A análise do comportamento do circuito sob falhas é fundamental para a escolha de técnicas de proteção e medição da susceptibilidade aos diferentes tipos de falhas. Neste trabalho, apresenta-se uma ferramenta para simular os efeitos que acontecem quando uma fonte de falha é inserida num circuito digital, especialmente falhas SEU. Além disso, é desenvolvido o método TMR que pode verificar a existência de uma falha e inibir que esta se propague pelo circuito todo. Foram desenvolvidos módulos para simulação de circuitos analógicos como o Oscilador Controlado por Voltagem (VCO) permitindo a visualização dos efeitos de falhas nestes circuitos. A ferramenta LabVIEWr da National Instruments é usada para criar o conjunto de Instrumentos Virtuais (VIs) para simular os SEUs. Esta é também usada pela simulação de SETs. Foram feitos várias simulações com as ferramentas desenvolvidas para validar sua funcionalidade os quais mostram resultados semelhantes aos descritos na literatura. As ferramentas desenvolvidas para simulação de falhas transientes em portas lógicas inserem falhas SET de forma automática sem análise prévia do sinal de saída. Usando as ferramentas de Lógica Booleana é possível obter resultados para fazer estudos estatísticos dos erros acontecidos e determinar tendências no comportamento das técnicas de Redundância Modular Triplo (TMR) e TMR com redundância no tempo. O modelo desenvolvido para a análise de falhas do VCO apresenta uma melhor semelhança com o resultado real que com o simulado com ferramentas comerciais. / Nowadays, the fault simulation is an important step in any IC design. Predicting the behavioral faults of any process step is essential to ensure that the design is well implemented. During the simulation various problems can be detected and corrected. The transient faults are the most well known Single-Event-Upset (SEU), which affect memory circuits, and Single-Event Transient (SET), which affect combinational logic circuits. The analyses of the circuit under faults is crucial to the choice of protection techniques and measurement of susceptibility to different types of failures. In this work a tool to simulate the effects that occur when a source of fault is inserted in a digital circuit, especially SEU faults is presented. In addition to modeling a fault, it is developed a Triple Modular Redundancy (TMR) method capable of verifying the existence of a fault preventing it from spreading through the whole circuit. It is also developed a Voltage Controled Oscillator (VCO) to view fault effects in analog circuit. LabVIEWr is used to create a set of virtual instruments to simulate SEUs. It is efficient in modeling the characteristics of SETs. It is possible with this toolkit to replicate the effects of SEUs and SETs described in the literature. The tools developed for simulation of transient faults in logic gates insert SET failures automatically without output signal prior analysis. Using the tools of Boolean Logic is possible to obtain results to make statistical studies of the errors that occurred and determine trends in the behavior of TMR with and without redundancy in time. The model developed for failature analysis of the VCO is similar to the real result with that simulated with commercial tools.
239

Implementação e avaliação da técnica ACCE para detecção e correção de erros de fluxo de controle no LLVM / Implementation and evaluation of the ACCE technique to detection and correction of control flow errors in the LLVM

Parizi, Rafael Baldiati January 2013 (has links)
Técnicas de prevenção de falhas como testes e verificação de software não são suficientes para prover dependabilidade a sistemas, visto que não são capazes de tratar falhas ocasionadas por eventos externos tais como falhas transientes. Nessas situações faz-se necessária a aplicação de técnicas capazes de tratar e tolerar falhas que ocorram durante a execução do software. Grande parte das técnicas de tolerância a falhas transientes está focada na detecção e correção de erros de fluxo de controle, que podem corresponder a até 70% de erros causados por esse tipo de falha. Essas técnicas tratam as falhas em nível de software, alterando o programa com a inserção de novas instruções que devem capturar e corrigir desvios inesperados ocorridos durante a execução do software, sendo ACCE uma das técnicas mais conhecidas. Neste trabalho foi feita uma implementação da técnica ACCE através da criação de um passo de transformação de programas para a infraestrutura de compilação LLVM. ACCE atua sobre a linguagem intermediária dos programas compilados com o LLVM, resultando em portabilidade de linguagem de programação e de arquitetura de máquina. Além da implementação da técnica como um passo de transformação, o LLVM foi utilizado para a realização dos experimentos para avaliar o impacto na eficácia de ACCE quando aplicada em programas previamente otimizados por outras transformações. Esse tipo de avaliação é fundamental uma vez que dificilmente a compilação de programas é feita sem a ativação de otimizações, e, até onde sabemos, nunca havia sido feito anteriormente. Os experimentos deste trabalho foram realizados através de baterias de injeção de falhas em programas da suíte de benchmarks Mibench, divididas em diferentes cenários, que avaliaram ACCE em termos de correção de falhas, quando aplicada em programas otimizados por transformações individuais e também por combinações de transformações. Os resultados dos experimentos realizados mostram que a técnica ACCE é eficaz na correção de falhas, porém, para alguns programas otimizados por determinadas transformações, houve redução na correção de falhas. Esse trabalho analisa os experimentos nos quais houve redução da eficácia de ACCE e aponta possíveis causas. / Computer-based systems are used in several eletronic devices that are, in many cases, responsable by the execution of critical tasks. There are situations where techniques of prevention against faults such as software validation and verification, can not be sufficient for ensuring acceptable rates of confiability, because they are not capable of treating faults that occur in execution time, such as transient faults. Most of the fault tolerance techniques for transient faults are focused in detection and correction of control flow errors, that can correspond to 70% errors caused by this kind of faults. These techniques treat the faults at software level, changing the program with the insertion of new instructions that must to capture and to correct illegal jumps occurred during the software execution, being ACCE the most known technique today. In this work an implementation of the ACCE technique was developed as a program transformation pass in the LLVM compiler infraestructurre. ACCE acts over the intermediate language of LLVM, which results in both programming language and machine architecture language portabilities. Besides the implemetation of the technique like a transformation pass, the LLVM was also used in the experiments for the avaliation of impact in the ACCE eficacy when it is applied into programs previously optimized by others compiler transformations. This evaluation is essential since hardly the compilation of programs is made without the activation of other optimizations. As far as we know this kind of evaluation has never beem made before. The experimental results show that the ACCE techinque is effective in the fault correction, but for some programs optimized by specific transformations, there was a reduction in the correction rate. This work analyses these experiments and gives an explanation for what causes a reduction in the effectiveness of ACCE.
240

Investigating techniques to reduce soft error rate under single-event-induced charge sharing / Investigando técnicas para reduzir a taxa de erro de soft sob evento único induzido de carga compartilhada

Almeida, Antonio Felipe Costa de January 2014 (has links)
The interaction of radiation with integrated circuits can provoke transient faults due to the deposit of charge in sensitive nodes of transistors. Because of the decrease the size in the process technology, charge sharing between transistors placed close to each other has been more and more observed. This phenomenon can lead to multiple transient faults. Therefore, it is important to analyze the effect of multiple transient faults in integrated circuits and investigate mitigation techniques able to cope with multiple faults. This work investigates the effect known as single-event-induced charge sharing in integrated circuits. Two main techniques are analyzed to cope with this effect. First, a placement constraint methodology is proposed. This technique uses placement constraints in standard cell based circuits. The objective is to achieve a layout for which the Soft-Error Rate (SER) due charge shared at adjacent cell is reduced. A set of fault injection was performed and the results show that the SER can be minimized due to single-event-induced charge sharing in according to the layout structure. Results show that by using placement constraint, it is possible to reduce the error rate from 12.85% to 10.63% due double faults. Second, Triple Modular Redundancy (TMR) schemes with different levels of granularities limited by majority voters are analyzed under multiple faults. The TMR versions are implemented using a standard design flow based on a traditional commercial standard cell library. An extensive fault injection campaign is then performed in order to verify the softerror rate due to single-event-induced charge sharing in multiple nodes. Results show that the proposed methodology becomes crucial to find the best trade-off in area, performance and soft-error rate when TMR designs are considered under multiple upsets. Results have been evaluated in a case-study circuit Advanced Encryption Standard (AES), synthesized to 90nm Application Specific Integrated Circuit (ASIC) library, and they show that combining the two techniques, the error rate resulted from multiple faults can be minimized or masked. By using TMR with different granularities and placement constraint methodology, it is possible to reduce the error rate from 11.06% to 0.00% for double faults. A detailed study of triple, four and five multiple faults combining both techniques are also described. We also tested the TMR with different granularities in SRAM-based FPGA platform. Results show that the versions with a fine grain scheme (FGTMR) were more effectiveness in masking multiple faults, similarly to results observed in the ASICs. In summary, the main contribution of this master thesis is the investigation of charge sharing effects in ASICs and the use of a combination of techniques based on TMR redundancy and placement to improve the tolerance under multiple faults.

Page generated in 0.0401 seconds