Spelling suggestions: "subject:"atécnicas dde computação"" "subject:"atécnicas dee computação""
1 |
Análise de desempenho de algoritmos de escalonamento de tarefas em grids computacionais usando simuladores. / Performance analysis of task scheduling algorithms in grid computing using simulators.Rodamilans, Charles Boulhosa 10 February 2009 (has links)
Escalonamento em Grid tem sido vastamente estudado devido à sua grande importância para o desempenho da Grid. Dada a sua complexidade, este é subdividido em escalonamento de recursos e de aplicações. A qualidade do escalonamento está relacionada ao algoritmo de escalonamento de tarefas. O presente trabalho tem como objetivo apresentar a metodologia AGSA (Analysis of Grid Scheduling Algorithms) para a comparação de algoritmos de escalonamento de tarefas em Grid. O intuito desta metodologia é analisar o comportamento e desempenho dos algoritmos em diversos cenários. O ambiente de simulação CEGSE (Characterization oriEnted Grid Scheduling Environment) foi desenvolvido para a criação e simulação destes cenários. Os estudos de caso comprovam a eficácia da metodologia. / Grid Scheduling has been studied because it is very important for Grid performance. Due Grid Scheduling\'s complexity, it is subdivided in resource and application scheduling. The quality of scheduling is related a tasks scheduling algorithm. The dissertation presents the AGSA (Analysis of Grid Scheduling Algorithms) methodology for comparison of Grid Scheduling Algorithms in Grid Computing. The methodology purpose is the behavior and performance analysis of algorithms in various scenarios. The CEGSE (Characterization oriEnted Grid Scheduling Environment) simulation environment is developed for this scenarios create and simulate. The case studies ratify the methodology efficiency.
|
2 |
Aspectos de projeto e implementação de linguagens para codificação de programas adaptativos. / On the design and implementation of languages for coding adaptive programs.Castro Junior, Amaury Antônio de 07 August 2009 (has links)
Este trabalho apresenta um conjunto de contribuiçõoes teóricas e metodológicas para o projeto e a implementação de linguagens de programação, utilizando o autômato adaptativo como dispositivo formal para sua definição. A especificação completa de uma linguagem de programação envolve desde a compreensão adequada de princípios e fundamentos comuns entre todas as linguagens de programação, transparentes ao programador, até as suas formas e características externas. Embora muitos modelos e notações possam ser utilizados na formalização de diferentes aspectos envolvidos no projeto e na implementação das linguagens de programação, o autômato adaptativo demonstra alta aplicabilidade e adequação para uma definição completa da linguagem, sem a necessidade do uso de diferentes notações. Demonstra-se como os autômatos adaptativos podem ser utilizados como uma metalinguagem unificada para especificar todas as componentes relevantes da definição formal da linguagem de programação, tais como: análise léxica, reconhecimento da sintaxe livre de contexto e manipulação de alguns aspectos dependentes de contexto da linguagem - declaração e uso de nomes simb´olicos, semântica estática, declaração e expansão de macros, entre outros. São apresentados os conceitos relacionados, e descrito os aspectos mais importantes da formalização proposta. Para isso, utiliza-se uma linguagem imperativa simplificada, sobre a qual é acoplado um mecanismo de extensão para torná-la extensÍvel. / This work presents a set of theoretical and methodological contributions to the design and implementation of programming languages, using the adaptive automaton as device for its formal definition. The complete specification of a programming language involves proper understanding of principles and common ground between all the programming languages, transparent to the programmer, and forms and external characteristics. Although many models and notations can be used to formalize different aspects involved in the design and implementation of programming languages, the adaptive automaton shows high applicability and suitability to full definition of the language, without the need to use distincts notations. It is shown how the adaptive automata can be used as a unified metalanguage to specify all the relevant components of the formal definition of programming language, such as lexical analysis, sintax contextfree recognition and handling of context-dependent aspects of language - declaration and use of symbolic names, static semantics, definition and expansion of macros, and others. Concepts are shown and the most important aspects are described of the this formal proposal. A simple imperative language is used, on which is attached an extension mechanism to make it extensible.
|
3 |
Aspectos de projeto e implementação de linguagens para codificação de programas adaptativos. / On the design and implementation of languages for coding adaptive programs.Amaury Antônio de Castro Junior 07 August 2009 (has links)
Este trabalho apresenta um conjunto de contribuiçõoes teóricas e metodológicas para o projeto e a implementação de linguagens de programação, utilizando o autômato adaptativo como dispositivo formal para sua definição. A especificação completa de uma linguagem de programação envolve desde a compreensão adequada de princípios e fundamentos comuns entre todas as linguagens de programação, transparentes ao programador, até as suas formas e características externas. Embora muitos modelos e notações possam ser utilizados na formalização de diferentes aspectos envolvidos no projeto e na implementação das linguagens de programação, o autômato adaptativo demonstra alta aplicabilidade e adequação para uma definição completa da linguagem, sem a necessidade do uso de diferentes notações. Demonstra-se como os autômatos adaptativos podem ser utilizados como uma metalinguagem unificada para especificar todas as componentes relevantes da definição formal da linguagem de programação, tais como: análise léxica, reconhecimento da sintaxe livre de contexto e manipulação de alguns aspectos dependentes de contexto da linguagem - declaração e uso de nomes simb´olicos, semântica estática, declaração e expansão de macros, entre outros. São apresentados os conceitos relacionados, e descrito os aspectos mais importantes da formalização proposta. Para isso, utiliza-se uma linguagem imperativa simplificada, sobre a qual é acoplado um mecanismo de extensão para torná-la extensÍvel. / This work presents a set of theoretical and methodological contributions to the design and implementation of programming languages, using the adaptive automaton as device for its formal definition. The complete specification of a programming language involves proper understanding of principles and common ground between all the programming languages, transparent to the programmer, and forms and external characteristics. Although many models and notations can be used to formalize different aspects involved in the design and implementation of programming languages, the adaptive automaton shows high applicability and suitability to full definition of the language, without the need to use distincts notations. It is shown how the adaptive automata can be used as a unified metalanguage to specify all the relevant components of the formal definition of programming language, such as lexical analysis, sintax contextfree recognition and handling of context-dependent aspects of language - declaration and use of symbolic names, static semantics, definition and expansion of macros, and others. Concepts are shown and the most important aspects are described of the this formal proposal. A simple imperative language is used, on which is attached an extension mechanism to make it extensible.
|
4 |
Análise de desempenho de algoritmos de escalonamento de tarefas em grids computacionais usando simuladores. / Performance analysis of task scheduling algorithms in grid computing using simulators.Charles Boulhosa Rodamilans 10 February 2009 (has links)
Escalonamento em Grid tem sido vastamente estudado devido à sua grande importância para o desempenho da Grid. Dada a sua complexidade, este é subdividido em escalonamento de recursos e de aplicações. A qualidade do escalonamento está relacionada ao algoritmo de escalonamento de tarefas. O presente trabalho tem como objetivo apresentar a metodologia AGSA (Analysis of Grid Scheduling Algorithms) para a comparação de algoritmos de escalonamento de tarefas em Grid. O intuito desta metodologia é analisar o comportamento e desempenho dos algoritmos em diversos cenários. O ambiente de simulação CEGSE (Characterization oriEnted Grid Scheduling Environment) foi desenvolvido para a criação e simulação destes cenários. Os estudos de caso comprovam a eficácia da metodologia. / Grid Scheduling has been studied because it is very important for Grid performance. Due Grid Scheduling\'s complexity, it is subdivided in resource and application scheduling. The quality of scheduling is related a tasks scheduling algorithm. The dissertation presents the AGSA (Analysis of Grid Scheduling Algorithms) methodology for comparison of Grid Scheduling Algorithms in Grid Computing. The methodology purpose is the behavior and performance analysis of algorithms in various scenarios. The CEGSE (Characterization oriEnted Grid Scheduling Environment) simulation environment is developed for this scenarios create and simulate. The case studies ratify the methodology efficiency.
|
5 |
Extração de Características Utilizando Análise de Componentes Independentes para Spike Sorting. / Features extraction Using Independent component analysis for Spike Sorting.LOPES, Marcus Vinicius de Sousa 27 February 2013 (has links)
Submitted by Maria Aparecida (cidazen@gmail.com) on 2017-09-04T15:04:55Z
No. of bitstreams: 1
Marcos Vinicius Lopes.pdf: 7214975 bytes, checksum: 3d8e5de44c75de5f02b3f6101759f37a (MD5) / Made available in DSpace on 2017-09-04T15:04:55Z (GMT). No. of bitstreams: 1
Marcos Vinicius Lopes.pdf: 7214975 bytes, checksum: 3d8e5de44c75de5f02b3f6101759f37a (MD5)
Previous issue date: 2013-02-27 / CAPES / Independent component analysis (ICA) is a method which objective is to find a non
gaussian, linear or non linear representation such that the components are statistically
independent. As a representation, tries to capture the input data essential structure.
One of ICA applications is feature extraction. A main digital signal processing issue is
finding a satisfactory representation, whether for image, speech signal or any signal type
for purposes such as compression and de-noise. ICA can be aplied in this direction to
propose generative models of the phenomena to be represented.
This work presents the problem of spike classification in extracellular records, denominated spike sorting. It is assumed that the waveforms of spikes depend on factors such
as the morphology of the neuron and the distance from the electrode, so that different
neurons will present different forms of spikes. However, since different neurons may have
similar spikes, what makes classification very difficult, the problem is even worse due to
background noise and variation os spikes of the same neuron.
The spike sorting algorithm is usually divided into three parts: firstly, the spikes are
detected, then projected into a feature space (with possible dimensionality reduction) to
facilitate differentiation between the waveforms from different neurons, finally the cluster
algorithm is run for identifying these characteristics so the spikes from the same neuron.
Here, we propose the use of ICA in feature extraction stage, being this step critical to
the spike sorting process, thus distinguishing the activity of each neuron detected, supporting the analysis of neural population activity near the electrode. The method was
compared with conventional techniques such as Principal Component Analysis and Wavelets, demonstrating a significant improvement in results. / A análise de componentes independentes (ICA, do inglês Indepdendent Component
Analysis) é um método no qual o objetivo é encontrar uma representação linear ou não linear, não-gaussiana, tal que as componentes sejam estatisticamente independentes. Como
uma representação busca capturar a estrutura essencial dos dados de entrada.
Uma das aplicações de ICA é em extração de características. Um grande problema
no processamento digital de sinais é encontrar uma representação adequada, seja para
imagem, sinal de fala ou qualquer outro tipo de sinal para objetivos como compressão e
remoção de ruído. ICA pode ser aplicada nesta direção ao tentar propor modelos geradores
para os fenômenos a serem representados.
Neste trabalho é apresentado o problema da classificação de espículas em gravações
extracelulares, denominado spike sorting. Assume-se que as formas de onda das espículas
dependem de fatores como a morfologia do neurônio e da distância deste para o eletrodo,
então diferentes neurônios irão apresentar diferentes formas de espículas. Contudo diferentes neurônios podem apresentar espículas semelhantes, tornando a classificação mais
difícil, o problema ainda é agravado devido ao ruído de fundo e a variação das espículas
de um mesmo neurônio.
O algoritmo de spike sorting geralmente é dividido em três partes: inicialmente as
espículas são detectadas, em seguida são projetadas em um espaço de características
(podendo haver redução de dimensionalidade) para facilitar a diferenciação entre as formas
de onda de diferentes neurônios, por fim é feito o agrupamento dessas características
identificando assim as espículas pertencentes ao mesmo neurônio.
Aqui propomos a utilização de ICA na etapa de extração de características das espículas, sendo esta etapa crítica para o processo de spike sorting, permitindo assim distinguir
a atividade de cada neurônio detectado, auxiliando a análise da atividade da população
neural próxima ao eletrodo. O método foi comparado com técnicas convencionais como
Análise de componentes principais (PCA, do inglês Principal Component Analysis) e Wavelets, demonstrando significativa melhora nos resultados.
|
6 |
Segmentação de Embarcação em Ambientes FluviaisPimentel, Fagner de Assis Moura 07 August 2015 (has links)
Submitted by FAGNER PIMENTEL (fagnerpimentel@gmail.com) on 2016-01-21T21:11:46Z
No. of bitstreams: 1
Dissertacao_Mestrado_Fagner_Pimentel.pdf: 7230805 bytes, checksum: b7bacfcdb3010865e10a9600de7b555f (MD5) / Approved for entry into archive by Alda Lima da Silva (sivalda@ufba.br) on 2016-01-26T19:14:11Z (GMT) No. of bitstreams: 1
Dissertacao_Mestrado_Fagner_Pimentel.pdf: 7230805 bytes, checksum: b7bacfcdb3010865e10a9600de7b555f (MD5) / Made available in DSpace on 2016-01-26T19:14:12Z (GMT). No. of bitstreams: 1
Dissertacao_Mestrado_Fagner_Pimentel.pdf: 7230805 bytes, checksum: b7bacfcdb3010865e10a9600de7b555f (MD5) / FAPESB / Este trabalho apresenta uma pesquisa e o estudo de técnicas de visão computacional voltadas para a segmentação de embarcações utilizando câmeras Pan-Tilt-Zoom de modo a auxiliar a automação e otimização do processo de eclusagem nas represas do rio Tietê no estado de São Paulo, Brasil. São apresentadas e comparadas técnicas de Subtração de Fundo e Classificação utilizando SVM (Support Vector Machine) como classificador. Com este estudo foi possível definir um conjunto de técnicas que melhor se adequam a segmentação de embarcações em ambientes fluviais. Foram realizados testes extensivos para selecionar as melhores técnicas e parâmetros para cada fase e descrever um estudo comparativo das técnicas utilizadas. A metodologia utilizada neste trabalho se divide em coleta e classificação de dados (vídeos), criação de datasets, avaliação de métodos de detecção de movimento da câmera PTZ, avaliação de métodos para segmentação de região de água e avaliação de métodos de detecção de objetos móveis por subtração de fundo. Para a detecção de movimento de câmera visando a reinicialização do método de subtração de fundo usado neste trabalho, foi realizada a comparação de 8 métodos variando seus thresholds. O método BorderTracer (BT) desenvolvido neste trabalho, apresentou os melhores resultados com accuracy (ACC) médio = 99.71% (threshold = 8). Para a segmentação da região de água, usada como informação de contexto para a etapa seguinte, foram realizadas variações de pré-processamento e espaço de cor das imagens selecionadas, além da otimização dos parâmetros para os kernels do classificador SVM em um total de 112 combinações. O espaço de cor YCbCr sem pré-processamento e com o uso do kernel com Função de Base Radial (RBF) apresentou os melhores resultados com Balanced Acurracy (BAC) médio = 94.53%. Para a segmentação das embarcações foi realizada uma otimização de parâmetros dos dois melhores algoritmos pré-selecionados da BGSlibrary em um total de 175 combinações. O algoritmo StaticFrameDifferenceBGS, juntamente com a técnica de histerese (baixo limiar = 15 e e alto limiar = 100) apresentou um Balanced Acurracy (BAC) médio = 88.77% enquanto o DPEigenbackgroundBGS com ℎ𝑖𝑠𝑡𝑜𝑟𝑦𝑆𝑖𝑧𝑒 = 10 e 𝑒𝑚𝑏𝑒𝑑𝑑𝑒𝑑𝐷𝑖𝑚 = 20 juntamente com a técnica de histerese (baixo limiar = 15 e alto limiar = 100) apresentou um melhor Balanced Acurracy (BAC) médio = 91.25%, e portanto foi selecionado para esta etapa. Entre os resultados deste projeto, encontrase também o desenvolvimento de uma ferramenta semi-automática de anotação de vídeos em máscara binária, a criação de um novo dataset, inédito, de embarcações em ambientes fluviais anotados em máscara binária e o desenvolvimento de uma rotina de detecção de movimento da câmera, o BorderTracer apresentado anteriormente;
|
7 |
Teste de parâmetros da busca evolutiva por autômatos celulares no problema da paridade, com ênfase nos métodos de avaliação das regrasSilva, Paulo Sérgio Germano da 17 September 2007 (has links)
Made available in DSpace on 2016-03-15T19:38:06Z (GMT). No. of bitstreams: 1
Paulo Sergio Germano da Silva.pdf: 409690 bytes, checksum: d0a755bc0651655440f8954300bd67e8 (MD5)
Previous issue date: 2007-09-17 / Fundo Mackenzie de Pesquisa / Problem solving through computation based on cellular automata rules remains a challenging subject, the scarcity of knowledge in the area. Among several problems reported in the literature, the parity problem has generated significant interest, its aim being to ascertain the parity of a quantity of 1s in a binary string, input as an initial configuration to a binary, one-dimensional, cellular automaton. Although a classic problem, no rule able to solve this problem has been found to date. Indeed, it remains uncertain as to whether such a solution exists. In this context, this work presents the results of evolutionary searches for sound rules of one-dimensional, cellular automata of radius 3, in the parity problem. The main focus of the research was to verify the effect of varying the strategies used to generate initial test configuration samples, which implied different ways of evaluating the candidate rules. Such an approach extends the work in [Oliveira e Vaiano, 2005] in the direction of better understanding as well as trying to reproduce some of the results in [Wolz e de Oliveira, 2007], where rules with excellent performance at odd-sised lattices were reported, as well as rules with good performance at even-sised lengths, even though the latter showed lack of robustness. In spite of testing a range of approaches, none led to good rules for the problem, leading to the conclusion that the excellent results obtained in [Wolz e de Oliveira, 2007] were due to the other concepts used therein, distinct from those evaluated in the present study. / A obtenção de soluções de problemas através da computação implícita a regras de autômatos celulares permanece um assunto desafiador, pelo pouco que ainda se conhece a respeito. Entre vários problemas abordados na literatura, um que tem despertado interesse é o problema da paridade, em que a meta é determinar a paridade da quantidade de 1s de uma cadeia binária fornecida como configuração inicial a um autômato celular unidimensional binário. Apesar de clássico, ainda não se tem registro de uma regra capaz de resolver o problema e, de fato, nem se sabe se essa solução existe. Nesse contexto, apresentam-se aqui os resultados experimentais de buscas evolutivas realizadas para encontrar boas regras de autômatos celulares unidimensionais binários de raio 3, no problema da paridade. O foco principal da pesquisa foi verificar o efeito de se variar as estratégias de geração das amostras de configurações iniciais de teste, o que se traduz em diferentes formas de avaliação das regras candidatas. Tal enfoque expande os trabalhos de [de Oliveira e Vaiano, 2005], caminhando na direção de melhor compreender e reproduzir alguns dos resultados obtidos em [Wolz e de Oliveira, 2007], em que regras de excelente desempenho foram achadas para reticulados de comprimento ímpar, bem como regras de bom desempenho, apesar de não robustas, para alguns comprimentos pares de reticulados. A despeito das várias abordagens testadas, nenhuma delas conduziu a boas regras no problema em questão, fazendo crer que a qualidade conseguida em [Wolz e de Oliveira, 2007] deve-se, portanto, aos outros conceitos lá empregados, distintos dos aqui avaliados.
|
8 |
Engenharia de sistema em redes eusociais. / Systems engineering in eusociais networks.Sanches, Fábio Leandro Lazo 14 September 2010 (has links)
Este trabalho apresenta a abordagem sistêmica, a complexidade e as propriedades emergentes de um sistema de atividades humanas utilizando métodos da Engenharia de Sistemas utilizando como referência para a prova de conceito a metáfora das redes eusociais da Biologia. A análise do sistema foi feita por meio de uma comparação entre as redes eusociais, e as redes de cooperação entre universidades, após esta comparação, que levantou características relevantes para uma comunidade de sucesso, foram aplicados os 7 estágios da metodologia Soft System Methodology para a proposta de um protótipo de uma Rede Temática, aqui analisada como um sistema sociotécnico, abordando a interação entre pessoas e a tecnologia. Nesta prova de conceito foram utilizadas as informações coletadas durante reuniões das partes interessadas. Estas informações foram utilizadas para a criação de um protótipo que foi comparado com a situação real e depois modificado e melhorado pelas partes interessadas. / This work presents a systemic approach, the complexity and emergent properties of a human activities system using systems engineering methods using as reference for the proof of concept, the metaphor of networks eusocial Biology. The analysis system was made through a comparison between the eusocial networks and networks of cooperation between universities, after this comparison, which raised relevant features to a success community, were applied 7 stages of Soft System Methodology for a Thematic Network prototype proposed, here regarded as a sociotechnical system, addressing the interaction between people and technology. In this proof of concept we used the information gathered during meetings with stakeholders. This information was used to create a prototype that was compared with the actual situation and then modified and improved by stakeholders.
|
9 |
Lyra2: password hashing scheme with improved security against time-memory trade-offs. / LYRA2: um esquema de hash de senhas com maior segurança contra trade-offs entre processamento e memória.Andrade, Ewerton Rodrigues 07 June 2016 (has links)
To protect against brute force attacks, modern password-based authentication systems usually employ mechanisms known as Password Hashing Schemes (PHS). Basically, a PHS is a cryptographic algorithm that generates a sequence of pseudorandom bits from a user-defined password, allowing the user to configure the computational costs involved in the process aiming to raise the costs of attackers testing multiple passwords trying to guess the correct one. Traditional schemes such as PBKDF2 and bcrypt, for example, include a configurable parameter that controls the number of iterations performed, allowing the user to adjust the time required by the password hashing process. The more recent scrypt and Lyra algorithms, on the other hand, allow users to control both processing time and memory usage. Despite these advances, there is still considerable interest by the research community in the development of new (and better) alternatives. Indeed, this led to the creation of a competition with this specific purpose, the Password Hashing Competition (PHC). In this context, the goal of this research effort is to propose a superior PHS alternative. Specifically, the objective is to improve the Lyra algorithm, a PHS built upon cryptographic sponges whose project counted with the authors\' participation. The resulting solution, called Lyra2, preserves the security, efficiency and flexibility of Lyra, including: the ability to configure the desired amount of memory and processing time to be used by the algorithm; and (2) the capacity of providing a high memory usage with a processing time similar to that obtained with scrypt. In addition, it brings important improvements when compared to its predecessor: (1) it allows a higher security level against attack venues involving time-memory trade-offs; (2) it includes tweaks for increasing the costs involved in the construction of dedicated hardware to attack the algorithm; (3) it balances resistance against side-channel threats and attacks relying on cheaper (and, hence, slower) storage devices. Besides describing the algorithm\'s design rationale in detail, this work also includes a detailed analysis of its security and performance in different platforms. It is worth mentioning that Lyra2, as hereby described, received a special recognition in the aforementioned PHC competition. / Para proteger-se de ataques de força bruta, sistemas modernos de autenticação baseados em senhas geralmente empregam algum Esquema de Hash de Senhas (Password Hashing Scheme - PHS). Basicamente, um PHS é um algoritmo criptográfico que gera uma sequência de bits pseudo-aleatórios a partir de uma senha provida pelo usuário, permitindo a este último configurar o custo computacional envolvido no processo e, assim, potencialmente elevar os custos de atacantes testando múltiplas senhas em paralelo. Esquemas tradicionais utilizados para esse propósito são o PBKDF2 e bcrypt, por exemplo, que incluem um parâmetro configurável que controla o número de iterações realizadas pelo algoritmo, permitindo ajustar-se o seu tempo total de processamento. Já os algoritmos scrypt e Lyra, mais recentes, permitem que usuários não apenas controlem o tempo de processamento, mas também a quantidade de memória necessária para testar uma senha. Apesar desses avanços, ainda há um interesse considerável da comunidade de pesquisa no desenvolvimento e avaliação de novas (e melhores) alternativas. De fato, tal interesse levou recentemente à criação de uma competição com esta finalidade específica, a Password Hashing Competition (PHC). Neste contexto, o objetivo do presente trabalho é propor uma alternativa superior aos PHS existentes. Especificamente, tem-se como alvo melhorar o algoritmo Lyra, um PHS baseado em esponjas criptográficas cujo projeto contou com a participação dos autores do presente trabalho. O algoritmo resultante, denominado Lyra2, preserva a segurança, eficiência e flexibilidade do Lyra, incluindo a habilidade de configurar do uso de memória e tempo de processamento do algoritmo, e também a capacidade de prover um uso de memória superior ao do scrypt com um tempo de processamento similar. Entretanto, ele traz importantes melhorias quando comparado ao seu predecessor: (1) permite um maior nível de segurança contra estratégias de ataque envolvendo trade-offs entre tempo de processamento e memória; (2) inclui a possibilidade de elevar os custos envolvidos na construção de plataformas de hardware dedicado para ataques contra o algoritmo; (3) e provê um equilíbrio entre resistância contra ataques de canal colateral (\"side-channel\") e ataques que se baseiam no uso de dispositivos de memória mais baratos (e, portanto, mais lentos) do que os utilizados em computadores controlados por usuários legítimos. Além da descrição detalhada do projeto do algoritmo, o presente trabalho inclui também uma análise detalhada de sua segurança e de seu desempenho em diferentes plataformas. Cabe notar que o Lyra2, conforme aqui descrito, recebeu uma menção de reconhecimento especial ao final da competição PHC previamente mencionada.
|
10 |
Proposta de extensões a métodos e ferramentas de desenvolvimento de sistemas de automação distribuídos baseados em modelos dados pela UML e pela IEC 61499. / Proposal for extensions of methods and tools aimed at the development of distributed automation systems based on UML and IEC 61499 models.Ceschini, Gabriela Werner 23 April 2008 (has links)
A motivação para o presente trabalho foi o desejo de investigar métodos e ferramentas que fossem capazes de auxiliar engenheiros a desenvolver melhores projetos de sistemas de automação. Investigaram-se então quais seriam as contribuições da engenharia de software e da engenharia de controle para alcançar esse objetivo: a primeira destacou-se pelos métodos e ferramentas aplicáveis às fases de levantamento de requisitos e análise, em que os sistemas podem ser expressos através da UML; a segunda contribuiu com blocos funcionais, especialmente os orientados a eventos da norma IEC 61499, e ferramentas para implementação e testes. Diversos autores sugerem a unificação entre as técnicas de orientação a objetos expressas através da UML e o projeto de sistemas por meio de blocos funcionais orientados a eventos da norma IEC 61499, para que os engenheiros de cada uma das áreas citadas continuassem trabalhando com técnicas e ferramentas próprias no desenvolvimento de sistemas de automação, mas de maneira colaborativa. Nesta pesquisa estudou-se a maneira pela qual vêm sendo feitos os mapeamentos entre a UML e a norma IEC 61499 do ponto de vista teórico, embora com intenção de implementação de ferramentas para ajudar nessa conversão. Estudaram-se também as ferramentas criadas para automatizar essa transformação e para auxiliar no projeto de sistemas de automação distribuídos, principalmente segundo a visão da norma IEC 61499. A partir daí, pôde-se oferecer as seguintes contribuições: quanto aos métodos, sugerir um novo método de mapeamento UML-IEC 61499 simplificado, com o uso, em UML, de um vocabulário menos atrelado à norma IEC 61499 (ao contrário do que acontecia com os métodos estudados); e sugerir a expressão de requisitos temporais quanto aos sistemas de automação (também considerados no contexto da conversão UML-IEC61499); quanto às ferramentas, comparar o modelo lógico da IEC 61499 com o da tecnologia LonWorks; e, a partir daí, demonstrar a viabilidade de criação de uma ferramenta para implementar sistemas de automação LonWorks expressados primeiramente em abstrações da IEC 61499 (obtidas a partir das ferramentas vistas anteriormente). Concluiu-se que é possível, teoricamente, criar uma ferramenta para cobrir todo o ciclo de vida de desenvolvimento de um sistema de automação distribuído, com a implementação deste sendo feita em uma tecnologia de controle de grande aceitação no mercado. Apesar disso, identificou-se ainda que há várias oportunidades de estudo em continuidade a essa pesquisa, como aprofundamento da expressão dos requisitos de QoS e implementação da ferramenta idealizada. / The main motivation of this research was to investigate tools and methods which could help engineers to develop better automation system projects. So, with this aim, the contributions of both software engineering and control engineering areas were investigated: the first offered methods and tools to be used in the requisite elicitation and system analysis project phases, in which the system could be designed in terms of UML models; the latter contributed mainly through implementation and test tools, related to the usage of function blocks, especially the IEC 61499 standard eventoriented ones. Many authors suggest the unification between object-orientation techniques expressed through UML and project methods done with the IEC 61499 event-driven function blocks, so that software engineers and control engineers could keep working with their own area techniques and tools, in the context of an automation system design, but in a collaborative sense. In this work, the mapping between UML and IEC 61499 standard concepts was investigated from a theoretical point of view, even though the intention behind that was to find or generate tools which could automate this kind of conversion. Additionally, other tools related to help engineers in the development of automation systems (particularly those which used IEC 61499 standard abstractions) were also analyzed. After all that, some contributions to this area could be proposed: as for the methods, a new simplified UML-IEC61499 mapping, whose main features are the usage, in UML, of a less IEC 61499-constrained vocabulary (opposite to what happened in the other studied techniques), and the way of expressing automation systems temporal requisites (still related to the UML-IEC61499 conversion context); as for the tools, a comparison between IEC 61499 and the LonWorks technology logical models, which led to the conclusion that it would be possible to implement LonWorks automation systems whose models were expressed at first through IEC 61499 abstractions (mainly those resultant from the usage of UML-IEC61499 conversion tools). The conclusion of this work is that with the development of all these tools and techniques it would be possible to aid engineers through all automation system development phases, and the implementation of such systems could be done with a broadly-accepted control system technology. It was also identified that many other study opportunities were raised by this research, such as discovering ways of expressing other QoS requisites in automation system models, and trying to implement more complete engineering project tools.
|
Page generated in 0.1091 seconds