841 |
Bases para um modelo auto-regulador para o setor elétrico brasileiroGreiner, Peter 19 December 1994 (has links)
Made available in DSpace on 2010-04-20T20:08:06Z (GMT). No. of bitstreams: 0
Previous issue date: 1994-12-19T00:00:00Z / Partindo da crise econômico-financeira do setor elétrico brasileiro, demonstra que esta se deve ao fracasso de seu modelo institucional. Propõe a sua reformulação buscando as diretrizes num amplo referencial de ensinamentos da economia, finanças e teorias do Estado e de atuação dos grupos, na reinterpretação da história do setor elétrico brasileiro e nas experiências históricas da França e dos Estados Unidos, além das reformulações em cursos em outros países, entre ele a Inglaterra, Chile, Espanha e Estados Unidos. O “modelo auto-regulador”, proposto ao fim do trabalho, se baseia numa adequada segmentação competitiva do mercado, ajustando-lhe os correspondentes quadros econômico-tarifário, organizacional funcional e legal. Completa o estudo com considerações sobre as estratégias para uma privatização neste setor. Termina com uma breve reflexão sobre os desafios da crise brasileira.
|
842 |
[en] MODELING OF GEOBODIES: AI FOR SEISMIC FAULT DETECTION AND ALL-QUADRILATERAL MESH GENERATION / [pt] MODELAGEM DE OBJETOS GEOLÓGICOS: IA PARA DETECÇÃO AUTOMÁTICA DE FALHAS E GERAÇÃO DE MALHAS DE QUADRILÁTEROSAXELLE DANY JULIETTE POCHET 14 December 2018 (has links)
[pt] A exploração segura de reservatórios de petróleo necessita uma boa modelagem numérica dos objetos geológicos da sub superfície, que inclui entre outras etapas: interpretação sísmica e geração de malha. Esta tese apresenta um estudo nessas duas áreas. O primeiro estudo é uma contribuição para interpretação de dados sísmicos, que se baseia na detecção automática de falhas sísmicas usando redes neurais profundas. Em particular, usamos Redes Neurais Convolucionais (RNCs) diretamente sobre mapas de amplitude sísmica, com a particularidade de usar dados sintéticos para treinar a rede com o objetivo final de classificar dados reais. Num segundo estudo, propomos um novo algoritmo para geração de malhas bidimensionais de quadrilaterais para estudos geomecânicos, baseado numa abordagem inovadora do método de quadtree: definimos novos padrões de subdivisão para adaptar a malha de maneira eficiente a qualquer geometria de entrada. As malhas obtidas podem ser usadas para simulações com o Método de Elementos Finitos (MEF). / [en] Safe oil exploration requires good numerical modeling of the subsurface geobodies, which includes among other steps: seismic interpretation and mesh generation. This thesis presents a study in these two areas. The first study is a contribution to data interpretation, examining the possibilities of automatic seismic fault detection using deep learning methods. In particular, we use Convolutional Neural Networks (CNNs) on seismic amplitude maps, with the particularity to use synthetic data for training with the goal to classify real data. In the second study, we propose a new two-dimensional all-quadrilateral meshing algorithm for geomechanical domains, based on an innovative quadtree approach: we define new subdivision patterns to efficiently adapt the mesh to any input geometry. The resulting mesh is suited for Finite Element Method (FEM) simulations.
|
843 |
Selective software-implemented hardware fault tolerance tecnhiques to detect soft errors in processors with reduced overhead / Técnicas seletivas de tolerência a falhas em software com custo reduzido para detectar erros causados por falhas transientes em processadoresChielle, Eduardo January 2016 (has links)
A utilização de técnicas de tolerância a falhas em software é uma forma de baixo custo para proteger processadores contra soft errors. Contudo, elas causam aumento no tempo de execução e utilização de memória. Em consequência disso, o consumo de energia também aumenta. Sistemas que operam com restrição de tempo ou energia podem ficar impossibilitados de utilizar tais técnicas. Por esse motivo, este trabalho propoe técnicas de tolerância a falhas em software com custos no desempenho e memória reduzidos e cobertura de falhas similar a técnicas presentes na literatura. Como detecção é menos custoso que correção, este trabalho foca em técnicas de detecção. Primeiramente, um conjunto de técnicas de dados baseadas em regras de generalização, chamada VAR, é apresentada. As técnicas são baseadas nesse conjunto generalizado de regras para permitir uma investigação exaustiva, em termos de confiabilidade e custos, de diferentes variações de técnicas. As regras definem como a técnica duplica o código e insere verificadores. Cada técnica usa um diferente conjunto de regras. Então, uma técnica de controle, chamada SETA, é introduzida. Comparando SETA com uma técnica estado-da-arte, SETA é 11.0% mais rápida e ocupa 10.3% menos posições de memória. As técnicas de dados mais promissoras são combinadas com a técnica de controle com o objetivo de proteger tanto os dados quanto o fluxo de controle da aplicação alvo. Para reduzir ainda mais os custos, métodos para aplicar seletivamente as técnicas propostas foram desenvolvidos. Para técnica de dados, em vez de proteger todos os registradores, somente um conjunto de registradores selecionados é protegido. O conjunto é selecionado com base em uma métrica que analisa o código e classifica os registradores por sua criticalidade. Para técnicas de controle, há duas abordagens: (1) remover verificadores de blocos básicos, e (2) seletivamente proteger blocos básicos. As técnicas e suas versões seletivas são avaliadas em termos de tempo de execução, tamanho do código, cobertura de falhas, e o Mean Work to Failure (MWTF), o qual é uma métrica que mede o compromisso entre cobertura de falhas e tempo de execução. Resultados mostram redução dos custos sem diminuição da cobertura de falhas, e para uma pequena redução na cobertura de falhas foi possível significativamente reduzir os custos. Por fim, uma vez que a avaliação de todas as possíveis combinações utilizando métodos seletivos toma muito tempo, este trabalho utiliza um método para extrapolar os resultados obtidos por simulação com o objetivo de encontrar os melhores parâmetros para a proteção seletiva e combinada de técnicas de dados e de controle que melhorem o compromisso entre confiabilidade e custos. / Software-based fault tolerance techniques are a low-cost way to protect processors against soft errors. However, they introduce significant overheads to the execution time and code size, which consequently increases the energy consumption. System operation with time or energy restrictions may not be able to make use of these techniques. For this reason, this work proposes software-based fault tolerance techniques with lower overheads and similar fault coverage to state-of-the-art software techniques. Once detection is less costly than correction, the work focuses on software-based detection techniques. Firstly, a set of data-flow techniques called VAR is proposed. The techniques are based on general building rules to allow an exhaustive assessment, in terms of reliability and overheads, of different technique variations. The rules define how the technique duplicates the code and insert checkers. Each technique uses a different set of rules. Then, a control-flow technique called SETA (Software-only Error-detection Technique using Assertions) is introduced. Comparing SETA with a state-of-the-art technique, SETA is 11.0% faster and occupies 10.3% fewer memory positions. The most promising data-flow techniques are combined with the control-flow technique in order to protect both dataflow and control-flow of the target application. To go even further with the reduction of the overheads, methods to selective apply the proposed software techniques have been developed. For the data-flow techniques, instead of protecting all registers, only a set of selected registers is protected. The set is selected based on a metric that analyzes the code and rank the registers by their criticality. For the control-flow technique, two approaches are taken: (1) removing checkers from basic blocks: all the basic blocks are protected by SETA, but only selected basic blocks have checkers inserted, and (2) selectively protecting basic blocks: only a set of basic blocks is protected. The techniques and their selective versions are evaluated in terms of execution time, code size, fault coverage, and Mean Work To Failure (MWTF), which is a metric to measure the trade-off between fault coverage and execution time. Results show that was possible to reduce the overheads without affecting the fault coverage, and for a small reduction in the fault coverage it was possible to significantly reduce the overheads. Lastly, since the evaluation of all the possible combinations for selective hardening of every application takes too much time, this work uses a method to extrapolate the results obtained by simulation in order to find the parameters for the selective combination of data and control-flow techniques that are probably the best candidates to improve the trade-off between reliability and overheads.
|
844 |
Soft error analysis with and without operating systemCasagrande, Luiz Gustavo January 2016 (has links)
A complexidade dos sistemas integrados em chips bem como a arquitetura de processadores comerciais vem crescendo dramaticamente nos últimos anos. Com isto, a dificuldade de avaliarmos a suscetibilidade às falhas em decorrência da incidência de partículas espaciais carregadas nestes dispositivos cresce com a mesma taxa. Este trabalho apresenta uma análise comparativa da susceptibilidade à erros de software em um microprocessador embarcado ARM Cortex-A9 single core de larga escala comercial, amplamente utilizado em aplicações críticas, executando um conjunto de 11 aplicações desenvolvidas para um ambiente bare metal e para o sistema operacional Linux. A análise de soft errors é executada por injeção de falhas na plataforma de simulação OVPSim juntamente com o injetor OVPSim-FIM, capaz de sortear o momento e local de injeção de uma falha. A campanha de injeção de falhas reproduz milhares de bit-flips no banco de registradores do microprocessador durante a execução do conjunto de benchmarks que possuem um comportamento de código diverso, desde dependência de fluxo de controle até aplicações intensivas em dados. O método de análise consiste em comparar execuções da aplicação onde falhas foram injetadas com uma execução livre de falhas. Os resultados apresentam a taxa de falhas que são classificadas em: mascaradas (UNACE), travamento ou perda de controle de fluxo (HANG) e erro nos resultados (SDC). Adicionalmente, os erros são classificados por registradores, separando erros latentes por sua localização nos resultados e por exceções detectadas pelo sistema operacional, provendo novas possibilidades de análise para um processador desta escala. O método proposto e os resultados obtidos podem ajudar a orientar desenvolvedores de software na escolha de diferentes arquiteturas de código, a fim de aprimorar a tolerância à falhas do sistema embarcado como um todo. / The complexity of integrated system on-chips as well as commercial processor’s architecture has increased dramatically in recent years. Thus, the effort for assessing the susceptibility to faults due to the incidence of spatial charged particles in these devices has growth at the same rate. This work presents a comparative analysis of soft errors susceptibility in the commercial large-scale embedded microprocessor ARM Cortex-A9 single core, widely used in critical applications, performing a set of 11 applications developed for a bare metal environment and the Linux operating system. The soft errors analysis is performed by fault injection in OVPSim simulation platform along with the OVPSim-FIM fault injector, able to randomly select the time and place to inject the fault. The fault injection campaign reproduces thousands of bit-flips in the microprocessor register file during the execution of the benchmarks set, with a diverse code behavior ranging from control flow dependency to data intensive applications. The analysis method is based on comparing applications executions where faults were injected with a fault-free implementation. The results show the error rate classified by their effect as: masked (UNACE), crash or loss of control flow (HANG) and silent data corruption (SDC); and by register locations. By separating latent errors by its location in the results and exceptions detected by the operating system, one can provide new better observability for a large-scale processor. The proposed method and the results can guide software developers in choosing different code architectures in order to improve the fault tolerance of the embedded system as a whole.
|
845 |
Impact FD : an unreliable failure detector based on process relevance and confidence in the system / Impact FD : um detector de falhas baseado na relevância dos processos e confiaça no sistemaRossetto, Anubis Graciela de Moraes January 2016 (has links)
Detectores de falhas não confiáveis tradicionais são oráculos disponíveis localmente para processos deumsistema distribuído que fornecem uma lista de processos suspeitos de terem falhado. Este trabalho propõe um novo e flexível detector de falhas não confiável, chamado Impact FD, que fornece como saída um valor trust level que é o grau de confiança no sistema. Ao expressar a relevância de cada processo por um valor de fator de impacto, bem como por uma margem de falhas aceitáveis do sistema, o Impact FD permite ao usuário ajustar a configuração do detector de falhas de acordo com os requisitos da aplicação: em certos cenários, o defeito de umprocesso de baixo impacto ou redundante não compromete a confiança no sistema, enquanto o defeito de um processo de alto fator de impacto pode afetá-la seriamente. Assim, pode ser adotada uma estragégia de monitoramento com maior ou menor rigor. Em particular, definimos algumas propriedades de flexibilidade que caracterizam a capacidade do Impact FD para tolerar uma certa margem de falhas ou falsas suspeitas, ou seja, a sua capacidade de fornecer diferentes conjuntos de respostas que levam o sistema a estados confiáveis. O Impact FD é adequado para sistemas que apresentam redundância de nodos, heterogeneidade de nodos, recurso de agrupamento e permite uma margem de falhas que não degrada a confiança no sistema. Nós também mostramos que algumas classes do Impact FD são equivalentes a § e , que são detectores de falhas fundamentais para contornar a impossibilidade de resolver o problema do consenso em sistemas de transmissão de mensagens assíncronas na presença de falhas. Adicionalmente, com base em pressupostos de sincronia e nas abordagens baseada em tempo e padrão de mensagem, apresentamos três algoritmos que implementam o Impact FD. Os resultados da avaliação de desempenho usando traces reais do PlanetLab confirmam o grau de aplicabilidade flexível do nosso detector de falhas e, devido à margem aceitável de falhas, o número de falsas respostas ou suspeitas pode ser tolerado quando comparado a tradicionais detectores de falhas não confiáveis. / Traditional unreliable failure detectors are per process oracles that provide a list of processes suspected of having failed. This work proposes a new and flexible unreliable failure detector (FD), denoted the Impact FD, that outputs a trust level value which is the degree of confidence in the system. By expressing the relevance of each process by an impact factor value as well as a margin of acceptable failures of the system, the Impact FD enables the user to tune the failure detection configuration in accordance with the requirements of the application: in some scenarios, the failure of low impact or redundant processes does not jeopardize the confidence in the system, while the crash of a high impact process may seriously affect it. Either a softer or stricter monitoring strategy can be adopted. In particular, we define some flexibility properties that characterize the capacity of the Impact FD to tolerate a certain margin of failures or false suspicions, i.e., its capacity of providing different sets of responses that lead the system to trusted states. The Impact FD is suitable for systems that present node redundancy, heterogeneity of nodes, clustering feature, and allow a margin of failures which does not degrade the confidence in the system. We also show that some classes of the Impact FD are equivalent to and § which are fundamental FDs to circumvent the impossibility of solving the consensus problem in asynchronous message-passing systems in presence of failures. Additionally, based on different synchrony assumptions and message-pattern or timer-based approaches, we present three algorithms which implement the Impact FD. Performance evaluation results using real PlanetLab traces confirmthe degree of flexible applicability of our failure detector and, due to the accepted margin of failures, that false responses or suspicions may be tolerated when compared to traditional unreliable failure detectors.
|
846 |
[en] DEPENDABILITY OF OPEN MULTI-AGENT SYSTEMS BASED ON A LAW-GOVERNED APPROACH / [pt] FIDEDIGNIDADE DE SISTEMAS MULTIAGENTES ABERTOS GOVERNADOS POR LEISMAIRA ATHANAZIO CERQUEIRA GATTI 16 March 2007 (has links)
[pt] Com o aumento da complexidade dos SMA´s governados por
leis, tornouse
mais difícil projetar e implementar requisitos referentes
à tolerância a falhas,
principalmente por não existir nenhum ponto de controle
sobre tais sistemas. E,
apesar disto, não são conhecidas soluções que abordem tais
questões na
literatura de governança de SMA´s baseados em leis.
Contudo, existe uma
técnica de tolerância a falhas, chamada Replicação de
Agentes, que propõe
reutilizar os conceitos de recuperação em sistemas
distribuídos através da
tolerância a falhas para a recuperação de agentes baseando-
se em informações
que identifiquem suas criticalidades. Entretanto, apesar
de existirem algumas
estratégias de estimativa de criticalidade de agentes,
nenhuma apresenta o grau
de granularidade suficiente para o monitoramento de SMA´s
abertos
governados por leis. Desta forma, o trabalho aqui proposto
tem como objetivo
apresentar um mecanismo de configuração de variação de
criticalidade de
agentes que interagem em SMA´s abertos. Para isto é
proposta uma arquitetura
para desenvolvimento de SMA´s abertos governados por leis
tolerantes a falhas
e uma abordagem para projetar tais mecanismos com
simplicidade,
modularidade e reuso. Este trabalho apresenta três
contribuições principais: a
extensão no modelo conceitual da linguagem declarativa de
especificação de lei
XMLaw com elementos para monitoramento da criticalidade
dos agentes; a
integração dos frameworks de governança de SMA´s abertos
(M-Law) e de
adaptação dinâmica de replicação de agentes (DIMAX); e a
proposição de uma
forma de documentação e derivação das leis. Por fim são
apresentadas planilhas
de resultados da aplicação do mecanismo proposto em dois
estudos de caso. / [en] With law-governed multi-agent systems complexity growth,
it is harder to
design and implement requirements related to dependability
mainly because
there is no control point over such systems. Despite the
great importance of
those problems, there is no solution that fully addresses
those issues in the
context of law-governed multi-agent systems. However,
there is a fault tolerant
technique called Agent Replication that proposes the reuse
of some recovery
concepts of distributed systems through a fault tolerance
based approach on
some data that helps the identification of critical agent.
And, besides the
existents strategies of agents´ criticality estimation,
none of them presents the
granularity degree necessary for the monitoring of law-
governed open MAS´s.
Due to it, the goal of this work is to present a mechanism
of the configuration
variation of the agents´ criticality that interacts in
open MAS´s. To achieve this
goal, an architecture to support the development of fault
tolerant law-governed
open MAS and an approach to design such mechanisms with
simplicity,
modularity and reuse were proposed. This work has three
main contributions:
an extension on the conceptual model of the law-
specification declarative
language XMLaw within new elements to monitor the agents´
criticality; the
integration of two frameworks: one is for law-enforcement
(M-Law), and the
other one is for a dynamic and adaptative agents´
replication (DimaX); and a
proposal of a means to document and derive the laws.
Finally, we present some
sheets of the results of the proposed mechanism
application in two case studies.
|
847 |
Pan-biogeografia dos ungulados viventes (Mammalia: Cetartiodactyla e Perissodactyla) da região Neotropical, da Zona de Transição Sul-americana e região Andina: aspectos históricos e conservacionistas / Panbiogeography of living ungulates (Mammalia: Perissodactyla and Cetartiodactyla) of the Neotropical region, the South American Transition Zone and Andean region: historical and conservationist aspectsBruno Araujo Absolon 14 November 2013 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Os ungulados viventes (Cetartiodactyla e Perissodactyla), nas regiões estudadas, são representados por 11 gêneros e 24 espécies. O presente estudo propõe reconhecer os padrões de distribuição destas espécies, a partir da aplicação do método pan-biogeográfico de análise de traços. Este método auxilia no entendimento a priori dos padrões congruentes de distribuição e numa compreensão de padrões e processos de diferenciação geográfica no tempo e no espaço, reconstruindo a biogeografia de táxons. Em relação a aspectos conservacionistas, o método foi aplicado na identificação de áreas prioritárias para conservação. A aplicação do método consiste basicamente na marcação das localidades de ocorrência dos diferentes táxons em mapas, sendo estas localidades conectadas por intermédio de linhas seguindo um critério de mínima distância, resultando nos chamados traços individuais que foram plotados nos mapas de biomas da América Central e do Sul do programa ArcView GIS 3.2. A superposição destes traços individuais define um traço generalizado, sugerindo uma história comum, ou seja, a preexistência de uma biota ancestral subsequentemente fragmentada por eventos vicariantes. A interseção de dois ou mais traços generalizados corresponde a um nó biogeográfico, que representa áreas compostas e complexas, nas quais se agrupam distintas histórias biogeográficas. Para a análise pan-biogeográfica foi utilizado o software ArcView GIS 3.2 e a extensão Trazos 2004. A partir da superposição dos 24 traços individuais, foram reconhecidos cinco traços generalizados (TGs): TG1, Mesoamericano/Chocó, composto por Mazama pandora, M. temama e Tapirus bairdii; TG2, Andes do Norte (Mazama rufina, Pudu mephistophiles e Tapirus pinchaque); TG 3, Andes Centrais (Hippocamelus antisensis, Lama guanicoe, Mazama chunyi e Vicugna vicugna) ; TG4, Patagônia chilena (Hippocamelus bisulcus e Pudu puda).; TG5, Chaco/Centro oeste do Brasil (Blastocerus dichotomus, Catagonus wagneri e Ozotocerus bezoarticus); e um nó biogeográfico em Antioquia no noroeste da Colômbia. As espécies Mazama americana, M.bricenii, M.goazoubira, M.nana, Tapirus terrestris, Tayassu pecari e T. tajacu não participaram de nenhum dos traços generalizados. Os padrões de distribuição formados a partir dos traços generalizados indicam que os ungulados viventes sofreram uma fragmentação e diferenciação no Pleistoceno, relacionadas a eventos históricos ocorridos na região Neotropical, na Zona de Transição Sul-americana e na região Andina, explicados pelos movimentos ocorridos nas Zonas de Falhas Tectônicas da América Central e do Sul, por vulcanismo e pelas mudanças climáticas. A formação do platô Altiplano-Puna revelou ser uma barreira geográfica, tanto em tempos pretéritos como em tempos atuais, para a maioria da biota sul-americana, com exceção dos camelídeos, que habitam estas áreas da Argentina, do oeste da Bolívia e sudoeste do Peru. O nó biogeográfico confirmou a presença de componentes bióticos de diferentes origens, constituindo uma área com grande diversidade biológica e endêmica, sugerindo assim uma unidade de conservação no noroeste da América do Sul. / The living ungulates (Cetartiodactyla and Perissodactyla) are represented in the studied regions by 11 genera and 24 species. This study proposes to recognize the distribution patterns of these species, using the panbiogeographical method of track analysis. This method is a useful tool in a priori understanding of the congruent distribution patterns and in the knowledge of patterns and processes of geographical differentiation in time and space, reconstructing the biogeography of taxa. Regarding conservationist approaches, it was applied in order to identify priority conservation areas. The panbiogeographical method consists basically of plotting locality records of different taxa on maps and connecting them using lines following a criterion of minimum distance, resulting in the so-called individual tracks, which were plotted on maps of biomes of Central America and South America from the ArcView GIS 3.2. The individual tracks are superimposed and the coincidence of them corresponds to generalized tracks, indicating a common history, that is, the existence of an ancestral biota widespread in the past and later fragmented by vicariant events. The intersection of two or more generalized tracks corresponds to a biogeographic node, which represents composite and complex areas, implying that different ancestral biotas interrelated, possibly in different geologic times. The analysis was carried out with the aid of the software ArcView v3.2 and the Trazos2004 extension. From the overlapping of the 24 individual tracks, five generalized tracks (GTs) were recognized: GT1, Mesoamerican/Chocó, composed by Mazama pandora, M. temama and Tapirus bairdii; GT2, Northern Andes (Mazama rufina, Pudu mephistophiles and Tapirus pinchaque); GT 3, Central Andes (Hippocamelus antisensis, Lama guanicoe, Mazama chunyi and Vicugna vicugna); GT4, Chilean Patagonia (Hippocamelus bisulcus and Pudu puda); GT5, Chaco/Center-West Brazil (Blastocerus dichotomus, Catagonus wagneri and Ozotocerus bezoarticus); and a biogeographic node in Antioquia, northwestern Colombia. The species Mazama americana, M. bricenii, M. goazoubira, M. nana, Tapirus terrestris, Tayassu pecari and T. tajacu did not participate in the composition of any generalized track. The distribution patterns formed from the generalized tracks indicate that living ungulates were fragmented and differentiated in the Pleistocene, related to historical events in Neotropical region, South American Transition Zone and Andean region, explained by movements in Tectonic Fault Zones of Central America and South America, by volcanism and climate change. The formation of the Altiplano-Puna plateau seemed to be a geographic barrier in past and present times for most of the South American biota, except for camelids, which inhabit these areas in Argentina, western Bolivia and southeastern Peru. The biogeographic node confirmed the presence of biotic components of different origins, being an area with great biological diversity and endemicity, therefore suggesting a conservation unit in northwestern South America.
|
848 |
Diagnóstico de falhas e determinação de eficiência em sistemas geradores isolados baseados em gerador de indução auto-excitadoHerrera, Victoria Alejandra Salazar January 2016 (has links)
Orientador: Prof. Dr. Jesus Franklin Andrade Romero. / Tese ( doutorado)- Universidade Federal do ABC. Programa de Pós-Graduação em Energia, 2016.
|
849 |
Detecção de falhas em circuitos eletrônicos lineares baseados em classificadores de classe única. / Fault detection in electronics linear circuits based in one class classifiers.Alvaro Cesar Otoni Lombardi 05 August 2011 (has links)
Esse trabalho está baseado na investigação dos detectores de falhas aplicando classificadores de classe única. As falhas a serem detectadas são relativas ao estado de funcionamento de cada componente do circuito, especificamente de suas tolerâncias (falha paramétrica). Usando a função de transferência de cada um dos circuitos são gerados e analisados os sinais de saída com os componentes dentro e fora da tolerância. Uma função degrau é aplicada à entrada do circuito, o sinal de saída desse circuito passa por uma função diferenciadora e um filtro. O sinal de saída do filtro passa por um processo de redução de atributos e finalmente, o sinal segue simultaneamente para os classificadores multiclasse e classe única. Na análise são empregados ferramentas de reconhecimento de padrões e de classificação de classe única. Os classficadores multiclasse são capazes de classificar o sinal de saída do circuito em uma das classes de falha para o qual foram treinados. Eles apresentam um bom desempenho quando as classes de falha não possuem superposição e quando eles não são apresentados a classes de falhas para os quais não foram treinados. Comitê de classificadores de classe única podem classificar o sinal de saída em uma ou mais classes de falha e também podem classificá-lo em nenhuma classe. Eles apresentam desempenho comparável ao classificador multiclasse, mas também são capazes detectar casos de sobreposição de classes de falhas e indicar situações de falhas para os quais não foram treinados (falhas desconhecidas). Os resultados obtidos nesse trabalho mostraram que os classificadores de classe única, além de ser compatível com o desempenho do classificador multiclasse quando não há sobreposição, também detectou todas as sobreposições existentes sugerindo as possíveis falhas. / This work deals with the application of one class classifiers in fault detection. The faults to be detected are related parametric faults. The transfer function of each circuit was generated and the outputs signals with the components in and out of tolerance were analyzed. Pattern recognition and one class classifications tools are employed to perform the analysis. The multiclass classifiers are able to classify the circuit output signal in one of the trained classes. They present a good performance when the fault classes do not overlap or when they are not presented to fault classes that were not presented in the training. The one class classifier committee may classify the output signal in one or more fault classes and may also classify them in none of the trained class faults. They present comparable performance to multiclass classifiers, but also are able to detect overlapping fault classes and show fault situations that were no present in the training (unknown faults).
|
850 |
Racionalidade e otimização regulatórias: um estudo a partir da teoria das falhas de regulação / Rationality and regulatory optimization: a study from the theory of regulatory failuresAlice Bernardo Voronoff de Medeiros 30 March 2012 (has links)
A presente dissertação procura investigar o incremento da racionalidade regulatória (ou otimização regulatória) a partir da teoria das falhas de regulação. Hoje, já parece existir um consenso teórico e prático de que a regulação e seu aparato institucional as agências reguladoras constituem fenômeno irreversível. Nesse contexto, as perguntas que se colocam são as seguintes: no plano dos resultados, o Estado Regulador tem alcançado as finalidades a que se propôs? Em caso negativo, que tipo de obstáculos o tem impedido? E mais: que providências devem ser adotadas para superá-los? Responder a tais indagações depende do reconhecimento de que não apenas os mercados são imperfeitos; também a intervenção estatal na economia gera riscos e efeitos negativos. Estudar seus tipos, suas fontes e a maneira como operam é o ponto de partida para se otimizar a regulação.
O trabalho propõe uma sistematização das espécies de falhas regulatórias, baseada na proposta de Cass Sunstein, mas adaptada à realidade brasileira. A exposição é precedida de explicações introdutórias sobre o conceito de regulação; as razões para se regular; e características da regulação no Estado Democrático de Direito. Tais características conformam um ideal de racionalidade regulatória, o qual é comprometido pela instauração das falhas de regulação.
Reconhecer a existência dos defeitos regulatórios e conhecê-los é já um primeiro passo para se melhorar a regulação. Mas há outros encaminhamentos deveras importantes para a prevenção e correção de falhas regulatórias. Dentre eles, destaca-se um conjunto de reformas institucionais em sentido amplo e estrito, as quais envolvem o sistema de controle pelos Poderes Legislativo, Executivo e Judiciário, e mecanismos procedimentais como a análise de impacto regulatório e a elaboração de agendas regulatórias. / This dissertation seeks to investigate the increase in regulatory rationality (or regulatory optimization) based on the theory of regulatory failures. Today, there already seems to be a theoretical (and practical) consensus that regulation and its institutional apparatus (regulatory agencies) constitute an irreversible phenomenon. In this context, the following questions are posed: in terms of results, has the Regulatory State achieved its established goals? If not, what obstacles prevented it from doing so? And moreover: what measures should be adopted to overcome these obstacles? Answering these questions depends on acknowledging that not only are markets imperfect; but also that state intervention in the economy creates negative risks and effects. Studying types, sources and how they operate is the starting point for optimizing regulation.
This work proposes systematizing the types of regulatory failures, based on the proposal of Cass Sunstein, but adapted to Brazilian reality. The exposition is preceded by introductory explanations on the concept of regulation; the reasons for regulating; and characteristics of regulation in the Democratic State of Law. These characteristics conform an ideal of regulatory rationality, which is compromised by the introduction of regulatory failures.
Acknowledging the existence of regulatory defects and knowing them is a first step in improving regulation. But there are other very important procedures for preventing and correcting regulatory failures, such as, and indeed in particular, a set of institutional reforms in a broad sense and strict, which involves the control system by the Legislative, Executive and Judiciary; and procedural mechanisms such as regulatory impact analysis and preparation of regulatory agendas.
|
Page generated in 0.0413 seconds