• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 536
  • 30
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 567
  • 567
  • 205
  • 197
  • 194
  • 193
  • 192
  • 180
  • 152
  • 149
  • 144
  • 65
  • 57
  • 57
  • 52
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Uma abordagem baseada na teoria de controle supervisório para controle de redes de regulação gênica

Baldissera, Fabio Luis January 2014 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Automação e Sistemas, Florianópolis, 2014 / Made available in DSpace on 2015-02-05T21:13:00Z (GMT). No. of bitstreams: 1 329768.pdf: 6742978 bytes, checksum: 355846409af3fc8e4dc3075f15d55dec (MD5) Previous issue date: 2014 / Nesta Tese, trataremos do problema de controle realimentado de sistemas biológicos celulares, mais especificamente, do controle das chamadas redes de regulação gênica, segundo uma abordagem fundamentada na Teoria de Controle Supervisório (TCS).A capacidade de reprogramar o comportamento das redes de regulação gênica, elementos determinantes da dinâmica celular, encontra aplicações em áreas como produção otimizada de biocombustíveis, tratamento de doenças como o câncer e síntese de tecidos e órgãos humanos in vitro. Basicamente, duas abordagens podem ser adotadas para controlar redes biológicas intracelulares. Uma delas baseia-se no emprego de dispositivos técnicos externos à célula, como equipamentos de microscopia, computadores e sistemas de microfluídica. A segunda estratégia prefere fazer uso exclusivo de moléculas sintéticas que, inseridas no meio intracelular, desempenham as funções de sensores, controladores e atuadores. Utilizaremos a última das abordagens mencionadas e mostraremos como ideias advindas da TCS podem ser empregadas para definir os critérios de projeto de tais moléculas sintéticas controladoras, capazes de alterar a dinâmica de redes de regulação gênica de maneira pré-determinada. Para tanto, partiremos de um modelo em autômato finito da rede a ser controlada, adicionando a esse autômato os eventos e estados decorrentes das possíveis ações de moléculas sintéticas. Sobre esse novo modelo, resolveremos uma tarefa de controle conhecida na literatura como atração de estados, em que o sistema deve ser levado de um estado inicial a um conjunto de estados-alvo, mantendo-se ali indefinidamente. O supervisor resultante da resolução do problema será convertido, então, em critérios de projeto de moléculas sintéticas. A Tese traz contribuições à TCS e propõe uma formalização inédita para o problema de controle de redes de regulação gênica por moléculas sintéticas. No campo da TCS, estendemos a resolução do problema de atração de estados para o caso em que os eventos da planta, além de serem particionados em controláveis ou não controláveis, são também divididos em forçáveis ou não forçáveis e, por fim, preemptáveis ou não preemptáveis. Esse rico particionamento, como detalhado na Tese, decorre de hipóteses bem fundamentadas biologicamente acerca da dinâmica dos processos de expressão gênica e da forma de intervenção no comportamento celular por nós adotada. Ainda no âmbito do Controle Supervisório, mostramos como conceitos provenientes da teoria de Controle Hierárquico - como abstração por agregação de estados e consistência hierárquica - naturalmente aparecem na resolução do problema de controle de redes de regulação gênica por moléculas sintéticas. A Tese mostra, também, como projetar controladores que induzem o menor consumo de energia celular possível e que sejam realizados por moléculas sintéticas de fácil construção. Por sua vez, a formalização do problema de controle de redes gênicas por moléculas sintéticas como um problema da Teoria de Controle é nova na literatura, haja vista que os estudos correlatos até então divulgados não adotam métodos da Teoria de Controle para sua resolução, o que dificulta a extensão dessas abordagens para alterar o comportamento de redes de regulação com dinâmicas mais complexas.<br> / Abstract: In this thesis, we tackle the issue of feedback control of intracellular biological networks, namely, the control of gene regulatory networks within a perspective founded on Supervisory Control Theory (SCT).The ability to reprogram the behavior of gene networks, major players in cell dynamics, might be employed, for instance, to optimize the production of biofuels, to treat and cure diseases, such as cancer, and to synthesize human tissues and organs in vitro. Two approaches can be adopted to control the dynamics of intracellular networks. The first one employs external technical hardware to close the loop, e.g. microscopy equipment, microfluidics devices and computers. The second, on the other hand, makes use only of synthetic biomolecules that, when inserted in the cell, perform the major tasks of a control system: sensing, control and actuation. We adopt the second of the mentioned strategies and show how ideas from SCT can be employed to define design criteria of synthetic biomolecules that are able to alter cell dynamics, so to achieve a set of specifications. In order to do so, we start with a finite state machine model of the native gene network to be controlled and update this model with the new states (and events) that can be achieved (generated) by programmable synthetic biomolecules. This enlarged model is used to solve a control task known as state attraction, which can be stated as follows: find a supervisor that brings the system from an initial state to a set of target states, keeping it there indefinitely. This supervisor is then translated into design criteria of synthetic biomolecules. Our thesis brings theoretical contributions to SCT and proposes a novel approach to formalize the control of gene networks by means of synthetic biomolecules. In the field of SCT, we extend the solution of the state attraction problem for the case where plant events, besides being partitioned into controllable and uncontrollable ones, are also divided into forcible and non forcible, preemptable and non preemptable. This rich partition, as shown throughout the thesis, is a result of concrete biological assumptions regarding the dynamics of native and synthetic genes. Still concerning the field of SCT, we show how concepts from Hierarchical Control Theory - e.g. abstraction by state aggregation and hierarchical consistency - naturally appear in the process of finding a solution for the posed control problem. The thesis shows also how to design controllers that minimize the energy consumption and that are implemented by synthetic biomolecules that are more easily constructed. The formalization we propose for the control of gene networks with synthetic genes as a control problem is new in the literature, given that the results concerning the intervention in the dynamics of biological networks by means of synthetic molecules do not adopt procedures from Control Theory to solve the problem, thus making it harder to extend such approaches to networks with a more complex dynamics.
162

Real-time operating system support for multicore applications

Gracioli, Giovani January 2014 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Automação e Sistemas, Florianópolis, 2014 / Made available in DSpace on 2015-02-05T21:15:28Z (GMT). No. of bitstreams: 1 328605.pdf: 3709437 bytes, checksum: 81e0fb95e092d5a351413aae5a972ac2 (MD5) Previous issue date: 2014 / Plataformas multiprocessadas atuais possuem diversos níveis da memória cache entre o processador e a memória principal para esconder a latência da hierarquia de memória. O principal objetivo da hierarquia de memória é melhorar o tempo médio de execução, ao custo da previsibilidade. O uso não controlado da hierarquia da cache pelas tarefas de tempo real impacta a estimativa dos seus piores tempos de execução, especialmente quando as tarefas de tempo real acessam os níveis da cache compartilhados. Tal acesso causa uma disputa pelas linhas da cache compartilhadas e aumenta o tempo de execução das aplicações. Além disso, essa disputa na cache compartilhada pode causar a perda de prazos, o que é intolerável em sistemas de tempo real críticos. O particionamento da memória cache compartilhada é uma técnica bastante utilizada em sistemas de tempo real multiprocessados para isolar as tarefas e melhorar a previsibilidade do sistema. Atualmente, os estudos que avaliam o particionamento da memória cache em multiprocessadores carecem de dois pontos fundamentais. Primeiro, o mecanismo de particionamento da cache é tipicamente implementado em um ambiente simulado ou em um sistema operacional de propósito geral. Consequentemente, o impacto das atividades realizados pelo núcleo do sistema operacional, tais como o tratamento de interrupções e troca de contexto, no particionamento das tarefas tende a ser negligenciado. Segundo, a avaliação é restrita a um escalonador global ou particionado, e assim não comparando o desempenho do particionamento da cache em diferentes estratégias de escalonamento. Ademais, trabalhos recentes confirmaram que aspectos da implementação do SO, tal como a estrutura de dados usada no escalonamento e os mecanismos de tratamento de interrupções, impactam a escalonabilidade das tarefas de tempo real tanto quanto os aspectos teóricos. Entretanto, tais estudos também usaram sistemas operacionais de propósito geral com extensões de tempo real, que afetamos sobre custos de tempo de execução observados e a escalonabilidade das tarefas de tempo real. Adicionalmente, os algoritmos de escalonamento tempo real para multiprocessadores atuais não consideram cenários onde tarefas de tempo real acessam as mesmas linhas da cache, o que dificulta a estimativa do pior tempo de execução. Esta pesquisa aborda os problemas supracitados com as estratégias de particionamento da cache e com os algoritmos de escalonamento tempo real multiprocessados da seguinte forma. Primeiro, uma infraestrutura de tempo real para multiprocessadores é projetada e implementada em um sistema operacional embarcado. A infraestrutura consiste em diversos algoritmos de escalonamento tempo real, tais como o EDF global e particionado, e um mecanismo de particionamento da cache usando a técnica de coloração de páginas. Segundo, é apresentada uma comparação em termos da taxa de escalonabilidade considerando o sobre custo de tempo de execução da infraestrutura criada e de um sistema operacional de propósito geral com extensões de tempo real. Em alguns casos, o EDF global considerando o sobre custo do sistema operacional embarcado possui uma melhor taxa de escalonabilidade do que o EDF particionado com o sobre custo do sistema operacional de propósito geral, mostrando claramente como diferentes sistemas operacionais influenciam os escalonadores de tempo real críticos em multiprocessadores. Terceiro, é realizada uma avaliação do impacto do particionamento da memória cache em diversos escalonadores de tempo real multiprocessados. Os resultados desta avaliação indicam que um sistema operacional "leve" não compromete as garantias de tempo real e que o particionamento da cache tem diferentes comportamentos dependendo do escalonador e do tamanho do conjunto de trabalho das tarefas. Quarto, é proposto um algoritmo de particionamento de tarefas que atribui as tarefas que compartilham partições ao mesmo processador. Os resultados mostram que essa técnica de particionamento de tarefas reduz a disputa pelas linhas da cache compartilhadas e provê garantias de tempo real para sistemas críticos. Finalmente, é proposto um escalonador de tempo real de duas fases para multiprocessadores. O escalonador usa informações coletadas durante o tempo de execução das tarefas através dos contadores de desempenho em hardware. Com base nos valores dos contadores, o escalonador detecta quando tarefas de melhor esforço o interferem com tarefas de tempo real na cache. Assim é possível impedir que tarefas de melhor esforço acessem as mesmas linhas da cache que tarefas de tempo real. O resultado desta estratégia de escalonamento é o atendimento dos prazos críticos e não críticos das tarefas de tempo real.<br> / Abstracts: Modern multicore platforms feature multiple levels of cache memory placed between the processor and main memory to hide the latency of ordinary memory systems. The primary goal of this cache hierarchy is to improve average execution time (at the cost of predictability). The uncontrolled use of the cache hierarchy by realtime tasks may impact the estimation of their worst-case execution times (WCET), specially when real-time tasks access a shared cache level, causing a contention for shared cache lines and increasing the application execution time. This contention in the shared cache may leadto deadline losses, which is intolerable particularly for hard real-time (HRT) systems. Shared cache partitioning is a well-known technique used in multicore real-time systems to isolate task workloads and to improve system predictability. Presently, the state-of-the-art studies that evaluate shared cache partitioning on multicore processors lack two key issues. First, the cache partitioning mechanism is typically implemented either in a simulated environment or in a general-purpose OS (GPOS), and so the impact of kernel activities, such as interrupt handlers and context switching, on the task partitions tend to be overlooked. Second, the evaluation is typically restricted to either a global or partitioned scheduler, thereby by falling to compare the performance of cache partitioning when tasks are scheduled by different schedulers. Furthermore, recent works have confirmed that OS implementation aspects, such as the choice of scheduling data structures and interrupt handling mechanisms, impact real-time schedulability as much as scheduling theoretic aspects. However, these studies also used real-time patches applied into GPOSes, which affects the run-time overhead observed in these works and consequently the schedulability of real-time tasks. Additionally, current multicore scheduling algorithms do not consider scenarios where real-time tasks access the same cache lines due to true or false sharing, which also impacts the WCET. This thesis addresses these aforementioned problems with cache partitioning techniques and multicore real-time scheduling algorithms as following. First, a real-time multicore support is designed and implemented on top of an embedded operating system designed from scratch. This support consists of several multicore real-time scheduling algorithms, such as global and partitioned EDF, and a cache partitioning mechanism based on page coloring. Second, it is presented a comparison in terms of schedulability ratio considering the run-time overhead of the implemented RTOS and a GPOS patched with real-time extensions. In some cases, Global-EDF considering the overhead of the RTOS is superior to Partitioned-EDF considering the overhead of the patched GPOS, which clearly shows how different OSs impact hard realtime schedulers. Third, an evaluation of the cache partitioning impacton partitioned, clustered, and global real-time schedulers is performed.The results indicate that a lightweight RTOS does not impact real-time tasks, and shared cache partitioning has different behavior depending on the scheduler and the task's working set size. Fourth, a task partitioning algorithm that assigns tasks to cores respecting their usage of cache partitions is proposed. The results show that by simply assigning tasks that shared cache partitions to the same processor, it is possible to reduce the contention for shared cache lines and to provideHRT guarantees. Finally, a two-phase multicore scheduler that provides HRT and soft real-time (SRT) guarantees is proposed. It is shown that by using information from hardware performance counters at run-time, the RTOS can detect when best-effort tasks interfere with real-time tasks in the shared cache. Then, the RTOS can prevent best effort tasks from interfering with real-time tasks. The results also show that the assignment of exclusive partitions to HRT tasks together with the two-phase multicore scheduler provides HRT and SRT guarantees, even when best-effort tasks share partitions with real-time tasks.
163

Estudo de um mecanismo de suspensão magnética utilizando ímãs-permanentes

Lima, Sigmar de January 2011 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Automação e Sistemas, Florianópolis, 2011. / Made available in DSpace on 2015-03-18T20:34:24Z (GMT). No. of bitstreams: 1 327722.pdf: 7877951 bytes, checksum: 0b3f900997c69bbfa2f21102f94edd7a (MD5) Previous issue date: 2011 / Os sistemas de suspensão tiveram uma rápida evolução na primeira metade do século XX. Desde então, o conjunto mola amortecedor hidráulico tem sido usado com constantes melhoras nos materiais, mas sem mudanças na concepção. A suspensão ativa, embora conhecida há muito tempo, não é, pela sua complexidade e custo, amplamente utilizada. Nesta dissertação é desenvolvido um sistema de suspensão magnética com amortecimento eletromagnético integrado nele. O objetivo é a simplificação de construção do sistema final de suspensão. No projeto do sistema foi utilizado o software EFCAD desenvolvido pelo GRUCAD/EEL/UFSC, que é baseado na técnica de Elementos Finitos e aplicado em problemas de Eletromagnetismo. A partir do sistema projetado é proposto um modelo para controle da corrente do sistema. Finalmente, são apresentadas simulações do sistema em operação usando um controlador fuzzy para verificar se o sistema atende às especificações de projeto.<br> / Abstract : The suspension systems have had a rapid evolution in the first half of the 20th Century. Since then, the conjunct damper-spring hydraulic has been used with constant improvements in materials but without changes in the design. Although known for a long time the active suspension is not widely used because of its complexity and cost.In This dissertation is developed a system of magnetic suspension with electromagnetic damping integrated therein. The objective is the simplification of the construction of the final suspension system. In the project of the system was used the software EFCAD developed by GRUCAD /EEL/UFSC, which is based on the technique of Finite Elements and applied in Electromagnetism problems. From system designed is proposed a model for the current control system. Finally, are presented simulations of the system in operation using a fuzzy controller to check if the system fulfils the project specifications.
164

Uma abordagem local para o controle supervisório modular de sistemas a eventos discretos temporizados

Schafaschek, Germano 18 March 2015 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Automação e Sistemas, Florianópolis, 2014. / Made available in DSpace on 2015-03-18T20:59:07Z (GMT). No. of bitstreams: 1 332304.pdf: 891756 bytes, checksum: 2a22c627634d49db4b7eeadea8af3c87 (MD5) / Nesta dissertação, propomos uma abordagem para a síntese local de supervisores modulares no contexto de sistemas a eventos discretos temporizados. O objetivo é reduzir o custo computacional na aplicação da teoria de controle supervisório a essa classe de sistemas, haja vista a dificuldade imposta pela explosão no número de estados dos modelos em sistemas de grande porte. Em grande parte dos problemas complexos envolvendo sistemas temporizados, a planta a ser controlada é composta de subsistemas que operam de maneira assíncrona a menos do compartilhamento de um relógio global. Ademais, o comportamento desejado é normalmente colocado na forma de especificações de controle elementares, cada uma das quais visa sincronizar e restringir o comportamento de apenas alguns dos subsistemas da planta. A ideia da metodologia de controle aqui apresentada é explorar tanto a modularidade das especificações quanto a do próprio sistema. Nossos supervisores são calculados com base em modelos locais, construídos pela agregação dos subsistemas que são afetados por cada especificação. Isso leva a módulos de controle nos quais a ação dos supervisores é relativamente simples, baseada apenas em informações locais, o que facilita sua compreensão, implementação e modificação. Apresentamos condições necessárias e suficientes sob as quais a ação conjunta dos supervisores locais leva o sistema a um comportamento global não bloqueante e que cumpre as especificações de forma ótima (minimamente restritiva). Mostramos, ainda, que a abordagem proposta reduz o custo computacional quando comparada a outras existentes. Por fim, um exemplo de interesse prático e com rígidas restrições temporais é resolvido, ilustrando a aplicabilidade da metodologia proposta.<br> / Abstract : In this thesis, an approach is proposed for the local synthesis of modular supervisors in the context of timed discrete-event systems. The objective is to reduce computational costs for the application of timed supervisory control, in face of the hindrances imposed by state explosion in the models of large scale systems. In a wide variety of complex problems involving timing issues, the plant to be controlled is composed of subsystems that work asynchronously except for the sharing of a global clock. Moreover, the desired behavior for the plant is usually represented by a number of elementary control specifications, each of which attempts to restrict and synchronize the behavior of only some of the system's components. The idea of our control methodology is to explore the modularity of both the specifications and the system itself. Our supervisors are designed over local models, which are obtained by aggregating the subsystems affected by each specification. This results in control modules with relatively simple supervisory actions, based only on local information, which makes the supervisors easier to comprehend, implement, and modify. We present necessary and suficient conditions under which the concurrent action of the local supervisors leads the system to a nonblocking global behavior that complies with the specifications in an optimal (minimally restrictive) way. We also show that the proposed strategy reduces computational efforts in comparison with existing ones. Finally, a practical problem with critical time restrictions is solved to exemplify an application of the proposed control methodology.
165

Desenvolvimento de uma metodologia para realização de testes em programas de CLP na indústria de petróleo e gás

Prati, Thiago Javaroni January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pos-Graduação em Engenharia de Automação e Sistemas, Florianópolis, 2014. / Made available in DSpace on 2015-04-29T21:06:28Z (GMT). No. of bitstreams: 1 333082.pdf: 11184009 bytes, checksum: 1d14dd4bf2faf84b3ce1504e466d5c43 (MD5) Previous issue date: 2014 / Os programas de automação na indústria de petróleo e gás, seja o programa voltado para sistemas de segurança ou de uso geral, são projetados com base em especificações de segurança, definidas em projeto, que devem ser validados antes da implantação. Este documento propõe um método para o teste automático das especificações encontradas na Matriz Causa e Efeito e implementadas em Controladores Lógicos Programáveis (CLPs). Para esses testes, as especificações são representadas como um conjunto de modelos de rede de Petri que observam o comportamento do sistema controlado. O uso de um modelo formal permite composição de diferentes modelos de forma sistemática e a tradução das Redes de Petri em um programa que comanda as entradas de um CLP e observa quando o comportamento do CLP segue ou falha em seguir as especificações de segurança. Uma ferramenta protótipo foi desenvolvida para executar automaticamente o teste da Matriz Causa e Efeito em um dado CLP. Um projeto de um forno foi utilizado para verificar se a metodologia proposta é fácil de usar e viável.<br> / Abstract : The automation programs in the oil and gas industry, be it in Safety Instrumented Systems (SIS) or in general purpose Programmable Logic Controllers (PLC), are designed based on safety specifications that must be validated prior to deployment. This paper proposes a method for the automatic test of the Cause and Efect Matrix specifications on PLC systems. For such testing, the specifications are represented as a set of Petri net models that observe the controlled system behavior. The use of a formal model allows to systematically compose and translate the Petri Nets into a program that commands the PLC inputs and observes when the PLC outputs fail the safety specifications. A prototype tool has been developed to automatically perform the test of the Cause and Efect Matrix on a given PLC. A furnace project has been used to ascertain that the proposed method is easy to use and viable.
166

Method for application of weibull distribution to the reliability calculation of functional safety for industrial machinery

Kuhlhoff, Igor Ribeiro January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Automação e Sistemas, Florianópolis, 2014. / Made available in DSpace on 2015-05-12T04:03:06Z (GMT). No. of bitstreams: 1 333353.pdf: 5233518 bytes, checksum: 599b6c026148a94e45d4b00a33f14b78 (MD5) Previous issue date: 2014 / O desenvolvimento de sistemas elétricos e eletrônicos permitiu a massificação do uso de dispositivos eletrônicos programáveis para comando e controle de operações de sistemas técnicos. Tais dispositivos possibilitaram o desenvolvimento de sistemas técnicos mais complexos, porém, devido a essa elevada complexidade, observou-se um aumento de acidentes causados por falhas inerentes ao controle de tais sistemas. Para se reduzir esses acidentes, foram criadas normas técnicas para sistemas de controle, cuja aplicação seja relevante a segurança, o que deu origem a segurança funcional. Segurança funcional refere-se à segurança que é mantida atráves do correto funcionamento de um sistema técnico. Diferentes segmentos industriais tem aplicado o conceito de segurança funcional, para criar máquinas e sistemas mais seguros. No setor de construção de máquinas, o uso de funções de segurança reduz o número de acidentes de trabalho, ao evitar que operadores, mantenedores e pessoas ao redor fiquem expostas aos perigos inerente das máquinas. As normas técnicos impõe requisitos quantitativos e qualitativos sobre os sistemas de controle de segurança. A norma técnica internacional IEC 61508 definiu um framework para quantificação de segurança funcional. Para cada setor industrial, normas específicas foram baseadas baseadas na IEC 61508. Esse framework é bem adequado para componentes elétricos e eletrônicos. Porém, na área de maquinário industrial, sistemas de controle são realizados não somente com tais componentes, mas também por componentes mecânicos, pneumáticos e hidráulicos, os quais apresentam um comportamento diferente de falha. Tais componentes são considerados pela norma técnica internacional ISO 13849. No entanto, os métodos de quantificação desta norma contém fortes limitações e não são completamente compreendidos pelos usuários. Este trabalho dedica-se ao estudo da norma técnica internacional de segurança funcional no setor de construção de máquinas industriais, a ISO 13849. O foco do estudo é a quantificação de falhas físicas de componentes. Falhas físicas sao quantificadas através de indicadores probabilísticos, sendo objeto de estudo da engenharia de confiabilidade. No primeiro capítulo, desenvolve-se o conceito de segurança funcional. O conceito é explorado como um todo, como uma ferramenta de redução de riscos, e posteriormente como esse conceito é aplicado no setor de construção de máquinas. O apêndice A complementa o capítulo 1 com a estrutura legal no que diz respeito à segurança de máquinas na Europa, definido pela Diretiva Europeia de Máquinas, da qual a norma técnica ISO 13849 faz parte. Ainda no capítulo 1 são identificadas as principais linhas de pesquisa, e o objetivo do trabalho é enunciado. Este trabalho, feito em parceria com a Bosch Rexroth, tem como objetivo o desenvolvimento de um método que possibilite a quatificação de índices de confiabilidade para segurança funcional utilizando distribuição de Weibull. No segundo capítulo, conceitos básicos para a compreensão do trabalho são apresentados. Os primeiros conceitos relacionam-se com conceitos da engenharia de confiabilidade, com o objetivo de esclarecer conceitos como probabilidade, confiabilidade, probabilidade de falha e construir o conceito do índice utilizado pela ISO 13849, a frequência média de falhas perigosas por hora, PFH. O apêndice B complementa esse capítulo, com uma explicação intuitiva do que é medido através do PFH. Neste capítulo também é apresentada a distribuição de Weibull, bem como métodos de cálculo de PFH. Os parâmetros para cálculo do PFH segundo a ISO 13849 são apresentados e explicados. No terceiro capítulo é apresentado como se é calculado o PFH através de simulação a eventos discretos. Um método para cálculo do PFH considerando distribuição de Weibull, para estruturas simples e estruturas redundantes, correspondendo às categorias B, 1, 3 e 4 da norma técnica ISO 13849. O apêndices C desenvolve a equação para determinaão do número mínimo de simulações para se alcançar o resultado desejado, e o apêndice D desenvolve as equações utilizadas pelo método proposto para estruturas redundantes com falha de componentes seguindo a distribuição de Weibull. Os resultados para os casos de comparação com a ISO 13849 são apresentados no apêndice E. No quarto capítulo é apresentado um exemplo de aplicação do método proposto em uma máquina hidráulica simples do Laboratório de Sistemas Hidráulicos e Pneumáticos (LASHIP), da Universidade Federal de Santa Catarina (UFSC). A determinação do PFH e subsequentemente do PL é realizada através do procedimento dado pela norma e pelo método proposto. Utilizando-se o método proposto, foi possível calcular PFH para intervalos de utilização diferente do considerado pela ISO 13849, bem como reconhecer o efeito do desgaste do componente, caracterizado pela distribuição de Weibull. No quinto capítulo é apresentado uma visão geral de como integrar o cálculo de PFH com distribuição de Weibull com o processo de desenvolvimento de uma máquina, baseado em experiência com a Bosch Rexroth. No capítulo de conclusão é analisado o potencial de se realizar análises mais realistas, e as limitações do método proposto, sendo adequado apenas para máquinas o subsistemas produzidos em série, devido ao requerimento de dados de campo para extrair os parâmetros da distribuição de Weibull para cada componente. Analisa-se também como que a pesquisa desenvolvida se encaixa na linha de pesquisa explicitada no primeiro capítulo, e qual a relevância para o cenário brasileiro. Adicionalmente, sugestões para trabalhos futuros são feitas. / Abstract : The IEC 61508 standard series defined a framework for quantification of functional safety. For each particular industry sector, specific standards are being developed based on it. This framework is well suited for electrical and electronic components. However, in the field of machinery, control systems are realized not only by such components, but also by mechanical, pneumatic and hydraulic components, which exhibit a different failure behavior. Such components are considered by the ISO 13849 standard. However, quantification methods of this standard are still not quite well understood by the users, and have strong limitations. This work presents a study an alternative method of how to calculate the average frequency of dangerous failures (PFH), required by ISO 13849 in order to achieve a Performance Level (PL). This alternative method includes modeling safety functions as Reliability Block Diagram and evaluation of PFH using the software BlockSim, through Discrete Event Simulation. Modeling hypothesis and limitations are discussed. The proposed method enables calculation of the standard s cases, as well as consideration of different failure distributions, of which Weibull distribution is considered. A study case considering Weibull distributed failures is presented. Applicability of the method is also discussed.
167

Algoritmos de controle PID preditivo

Álvaro Suarez, Camilo Andrés January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Automação e Sistemas, Florianópolis, 2014. / Made available in DSpace on 2015-05-12T04:07:25Z (GMT). No. of bitstreams: 1 333313.pdf: 9333466 bytes, checksum: 2f5c28506b2aa00baf91ae9c8ef458ce (MD5) Previous issue date: 2014 / Nesta dissertação são abordados projetos de hibridização de controladores PID com algoritmos de controle preditivo GPC, que procuram resgatar as propriedades desejadas para o controle de processos complexos onde atraso de transporte dominante, instabilidade e fase não-mínima estão presentes. Descreve-se o procedimento de síntese das leis de controle PID preditivas a partir de modelos de primeira e segunda ordem com atraso de transporte, e demonstra-se com estudos de caso que o comportamento destes controladores assim derivados é equivalente ao comportamento do GPC, quando aplica-se um tipo particular de sintonia. Depois avalia-se em simulações numéricas o seu desempenho com relação ao seguimento de referência e rejeição de perturbações, comparando-se com o desempenho do PID clássico sintonizado com a metodologia SIMC, considerada de desempenho satisfatório pela literatura de controle. Finalmente, dado que existe certa complexidade matemática para o cálculo dos parâmetros e síntese da lei de controle PID preditiva, que pode inviabilizá-la em aplicações embarcadas, são propostos métodos de sintonia baseados em aproximações da lei de controle GPC denominados pseudo preditivos. Demonstra-se com estudos de caso e implementação no PLC300, desenvolvido pela WEG Automação, que estes métodos resultam viáveis de embarcar em equipamentos de controle industriais e são eficientes para acelerar o tempo de resposta em processos com atraso de transporte dominante.
168

Análise de valor para determinação do tempo de execução no pior caso (WCET) de tarefas em sistemas de tempo real

Silva, Karila Palma January 2015 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Automação e Sistemas, 2015 / Made available in DSpace on 2015-06-02T04:10:09Z (GMT). No. of bitstreams: 1 333801.pdf: 3059940 bytes, checksum: 6dc6cd5583e623b2d79424bb7f769b16 (MD5) Previous issue date: 2015 / A utilização de sistemas computacionais na sociedade tem se expandido e as aplicações com requisitos de tempo real são mais comuns, variando em relação à complexidade e às necessidades de garantia no atendimento de restrições temporais (deadlines). Uma propriedade importante na definição do comportamento temporal de uma tarefa é o tempo de computação, que é o tempo necessário para a execução completada tarefa. Um dos grandes problemas de obtê-lo está ligado à análise da microarquitetura do processador. Considerando um processador que possui memória de dados com latência variada, é necessário a análise de valor para identificar a região de memória que a instrução acessa (memória principal ou ScrathPad Memory), para que o pior tempo de execução dos programas não seja consideravelmente superestimado. O objetivo deste trabalho é usar a análise de valor para determinar o tempo correto de acesso à memória, através da identificação da região de memória que cada instrução acessa, com a finalidade de obter um limite superior do WCET menos pessimista.<br> / Abstract: The use of computer systems in our society has expanded and applications with real-time requirements are getting more usual, varying in relation to the complexity and the necessity of guaranting deadlines. An important restriction in defining the temporal behavior of a task is the computation time, i.e., the time necessary to complete the task. Amajor problem in obtaining WCET is the processor microarchitecture analysis. Considering a processor with a data memory that has varying latency, value analysis is necessary to identify the memory region tha teach instruction accesses (main memory or ScrathPad Memory), so the worst execution time of programs are not considerably overestimated.The objective of this work is to use value analysis to obtain the correct memory access time by identifying the region of memory each instruction accesses, obtaining WCET upper bounds that are less pessimistic.
169

Implementação de um sistema operacional compatível com a especificação ARINC 653

Arcaro, Luís Fernando January 2015 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Automação e Sistemas, Florianópolis, 2015 / Made available in DSpace on 2015-06-02T04:10:14Z (GMT). No. of bitstreams: 1 333796.pdf: 3550462 bytes, checksum: 7eaaf170fea7fb722e02d0801299ad1b (MD5) Previous issue date: 2015 / Sistemas de Tempo Real (STRs) são sistemas computacionais que estão submetidos, alem de a requisitos lógicos, a requisitos de natureza temporal. A especificação ARINC 653 descreve a interface funcional a ser oferecida ao software de aplicação e os requisitos temporais a serem atendidos por Sistemas Operacionais (SOs) sobre os quais são executados STRs aviônicos, ou seja, aplicações relacionadas aos sistemas eletrônicos empregados em aeronaves. Uma das principais definições dessa especificação e a utilização de partições com isolamento temporal e espacial, permitindo a execução de múltiplas aplicações com diferentes objetivos e criticalidades numa mesma plataforma de hardware, e garantindo, ainda, que eventuais falhas ocorridas em uma partição não afetem a execução das demais. Este trabalho descreve a implementação de um SO compatível com a especificação ARINC 653 destinado ao treinamento de profissionais e a experimentação de novas aplicações aviônicas, não tendo por objetivo, portanto, a certificação para operação em voo, executado sobre a plataforma de hardware comercialmente conhecida como BeagleBone. Foi desenvolvido ainda um conjunto de ferramentas de configuração destinadas a validação de arquivos de configuração no padrão exigido pela ARINC 653 e a geração de modelos de aplicação para execução no SO. O atendimento as exigências da ARINC 653 pelo SO foi evidenciado através de um conjunto de casos de teste, que servem também como exemplos de utilização e auxiliam, ainda, no processo demigração do SO a outras plataformas.<br> / Abstract: Real-Time Systems (RTSs) are computer systems that are subject to, in addition to logical requirements, temporal requirements. The ARINC 653 specication describes the functional interface that must be oered to the application software and the time requirements that must be met by Operating Systems (OSs) on which avionics RTSs are executed, i.e. applications related to electronic systems used on aircrafts. One of the key definitions of this specification is the use of temporally and spatially isolated partitions, allowing the execution of multiple applications with different objectives and criticality levels onthe same hardware platform, and also ensuring that any failures inone partition do not affect the execution of the others. This work describes the implementation of an ARINC 653 compatible OS aimed for professionals training and test of new avionics applications, and thus does not aim certification for in-ight operation, which is executed on the hardware platform commercially known as BeagleBone. We also developed a set of configuration tools for the validation of ARINC 653 standard configuration files and the generation of application templates to be run in the OS. The compliance of the OS with the ARINC 653 requirements is evidenced through a set of test cases, which also serve as examples of use and are useful in the process of migration of the OS to other platforms.
170

Protocolos tolerantes a faltas bizantinas para transações em bancos de dados

Luiz, Aldelir Fernando January 2015 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Automação e Sistemas, Florianópolis, 2015. / Made available in DSpace on 2015-09-01T04:07:56Z (GMT). No. of bitstreams: 1 334062.pdf: 4102624 bytes, checksum: fcf76323275ca0a4c4b3f1ffd5c92285 (MD5) Previous issue date: 2015 / No âmbito de sistemas computacionais, a noção de transações constitui um dos elementos mais fundamentais para a especificação e implementação de aplicações com requisitos de confiabilidade e consistência, quanto à manipulação de dados. Ao longo dos anos, os sistemas de gerenciamento de banco de dados relacionais (SGBDR) têm sido considerados como componentes chave para o processamento de transações em sistemas computacionais; e, embora algumas alternativas aos SGBDRs tenham surgido nos últimos anos, há perspectivas de que um número significativo de sistemas computacionais permaneçam a utilizar os SGBDRs nos anos vindouros. Neste sentido, é imperioso que requisitos como confiabilidade, disponibilidade, desempenho, tolerância a faltas e consistência, sejam mantidos no SGBDR, com vista para o correto processamento de transações. Tais atributos podem ser obtidos por meio de replicação, sendo que a literatura é vasta em termos de soluções que visam a disponibilidade dos dados a despeito de faltas por parada intermitentes ou permanentes. Todavia, faltas oriundas da corrupção de dados em disco ou em memória RAM devido a efeitos físicos, ou decorrente de bugs no SGBDR, não afetam a disponibilidade dos dados, mas sim a integridade e a consistência destes. Estas faltas, que são caracterizadas como bizantinas, historicamente têm sido encontradas em SGBDRs, e elas afetam o processamento de transações comprometendo não apenas a exatidão, mas também o estado do banco de dados. A literatura dispõe de poucas soluções para lidar com faltas bizantinas em SGBDRs, onde algumas são baseadas em hipóteses difíceis de serem substanciadas na prática; ou em modelos de consistência mais relaxados, que podem causar problemas de integridade, consistência ou até mesmo corrupção de dados. Isto posto, elas não atendem plenamente todos os tipos de aplicações. Neste ensejo, esta tese versa sobre problemas relacionados ao processamento e a terminação de transações em SGBDRs e sistemas distribuídos, em ambientes com sujeição a faltas bizantinas. Para isso, esta tese apresenta duas grandes contribuições no âmbito de transações em SGBDRs. A primeira consiste num protocolo que permite o processamento e terminação de transações, a despeito de faltas bizantinas nas réplicas de bancos de dados  o primeiro da literatura a explorar a semântica de consistência mais forte de transações  , a partir de um protocolo de replicação tolerante a faltas bizantinas totalmente distribuído. A segunda investiga o problema da terminação de transações distribuídas em ambientes sujeitos a faltas bizantinas  um problema sem solução pela literatura  , que é conhecido como Validação Atômica Não-Bloqueante (NBAC) e visa assegurar uma decisão uniforme para os participantes da transação acerca da validação ou anulação das operações executadas num ambiente distribuído de banco de dados. A contribuição para este problema se baseia na investigação dos aspectos práticos necessários para resolvê-lo, onde é introduzido o conceito de Gerenciador Colaborativo de Transações em substituição ao Gerenciador de Transações, tradicionalmente empregado como agente num protocolo NBAC. A solução proposta para resolver o NBAC com faltas bizantinas baseia-se num conceito novo, que adota a tecnologia de virtualização como suporte para a especificação de uma arquitetura de sistema distribuído que permite circunscrever o problema. As soluções propostas foram comparadas de maneira analítica com soluções encontradas na literatura, bem como através de ensaios experimentais, a fim de comprovar a viabilidade das mesmas.<br> / Abstract : Within computer systems, the concept of transaction is one of the most fundamental elements for the specification and implementation of applications with reliability and consistency requirements concerning handling of data. Over the years, relational database management systems (RDBMS) have been considered key components for transaction processing in computer systems; and although some alternatives to RDBMSs have emerged in recent years, there are prospects that a significant number of computer systems will continute to use RDBMSs in coming years. In this sense, the need to provide reliability, availability, performance, fault tolerance and consistency, regarding transaction processing in RDBMS is imminent. Such attributes may be obtained through database replication. The literature is extensive in terms of solutions for data availability regardless of crash faults (e.g. intermittent or permanent). However, faults arising from the disk data corruption or RAM data corruption due to physical effects, or due to bugs in the RDBMS, do not affect the availability of data, though they affect their integrity and consistency. These faults, which are known as Byzantine, have historically been found in RDBMSs, and they affect transaction processing undermining not only the accuracy but also the database state. The literature offers few solutions to deal with Byzantine faults in RDBMSs, where some are based on difficult cases to be used in practice; or more relaxed consistency models, which can cause integrity, consistency or even data corruption problems. So, they are not addressed to all types of applications. As it is, this thesis deals with problems related to transaction processing and transaction termination on RDBMS and distributed systems, in environments subject to Byzantine fault. To this end, this thesis presents two major contributions to the transaction level in RDBMSs. The first is a protocol that allows the transaction processing and transaction, despite Byzantine faults in databases replicas  the first in literature that explores the strongest consistency semantics of transactions (e.g. serializability)  , by means of a fully distributed Byzantine fault tolerant database replication protocol. The second investigates the agreement problem related to transaction termination in distributed systems, also in environments subject to Byzantine fault  an unsolved problem in the literature. The Non Blocking Atomic Commitment (NBAC), as it known, aims to ensure a uniform decision for the transaction participants about the operations performed in a distributed database environment, that is, commit or abort them. The contribution to this problem is based on the investigation of practical and necessary conditions, to solve it. So, this thesis introduces the Collaborative Transaction Manager to replace the Transaction Manager, traditionally used as an agent on a NBAC protocol. The solution proposed to solve the NBAC with Byzantine fault is based on a new concept, adopting virtualization technology as a support for the specification of a distributed system architecture which makes the problem feasible. The proposed solutions were compared analytically with solutions found in the literature as well as through experimental tests in order to prove their feasibility.

Page generated in 0.1245 seconds