• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 3
  • Tagged with
  • 28
  • 28
  • 25
  • 10
  • 10
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • 7
  • 7
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Proposta de extensões a métodos e ferramentas de desenvolvimento de sistemas de automação distribuídos baseados em modelos dados pela UML e pela IEC 61499. / Proposal for extensions of methods and tools aimed at the development of distributed automation systems based on UML and IEC 61499 models.

Gabriela Werner Ceschini 23 April 2008 (has links)
A motivação para o presente trabalho foi o desejo de investigar métodos e ferramentas que fossem capazes de auxiliar engenheiros a desenvolver melhores projetos de sistemas de automação. Investigaram-se então quais seriam as contribuições da engenharia de software e da engenharia de controle para alcançar esse objetivo: a primeira destacou-se pelos métodos e ferramentas aplicáveis às fases de levantamento de requisitos e análise, em que os sistemas podem ser expressos através da UML; a segunda contribuiu com blocos funcionais, especialmente os orientados a eventos da norma IEC 61499, e ferramentas para implementação e testes. Diversos autores sugerem a unificação entre as técnicas de orientação a objetos expressas através da UML e o projeto de sistemas por meio de blocos funcionais orientados a eventos da norma IEC 61499, para que os engenheiros de cada uma das áreas citadas continuassem trabalhando com técnicas e ferramentas próprias no desenvolvimento de sistemas de automação, mas de maneira colaborativa. Nesta pesquisa estudou-se a maneira pela qual vêm sendo feitos os mapeamentos entre a UML e a norma IEC 61499 do ponto de vista teórico, embora com intenção de implementação de ferramentas para ajudar nessa conversão. Estudaram-se também as ferramentas criadas para automatizar essa transformação e para auxiliar no projeto de sistemas de automação distribuídos, principalmente segundo a visão da norma IEC 61499. A partir daí, pôde-se oferecer as seguintes contribuições: quanto aos métodos, sugerir um novo método de mapeamento UML-IEC 61499 simplificado, com o uso, em UML, de um vocabulário menos atrelado à norma IEC 61499 (ao contrário do que acontecia com os métodos estudados); e sugerir a expressão de requisitos temporais quanto aos sistemas de automação (também considerados no contexto da conversão UML-IEC61499); quanto às ferramentas, comparar o modelo lógico da IEC 61499 com o da tecnologia LonWorks; e, a partir daí, demonstrar a viabilidade de criação de uma ferramenta para implementar sistemas de automação LonWorks expressados primeiramente em abstrações da IEC 61499 (obtidas a partir das ferramentas vistas anteriormente). Concluiu-se que é possível, teoricamente, criar uma ferramenta para cobrir todo o ciclo de vida de desenvolvimento de um sistema de automação distribuído, com a implementação deste sendo feita em uma tecnologia de controle de grande aceitação no mercado. Apesar disso, identificou-se ainda que há várias oportunidades de estudo em continuidade a essa pesquisa, como aprofundamento da expressão dos requisitos de QoS e implementação da ferramenta idealizada. / The main motivation of this research was to investigate tools and methods which could help engineers to develop better automation system projects. So, with this aim, the contributions of both software engineering and control engineering areas were investigated: the first offered methods and tools to be used in the requisite elicitation and system analysis project phases, in which the system could be designed in terms of UML models; the latter contributed mainly through implementation and test tools, related to the usage of function blocks, especially the IEC 61499 standard eventoriented ones. Many authors suggest the unification between object-orientation techniques expressed through UML and project methods done with the IEC 61499 event-driven function blocks, so that software engineers and control engineers could keep working with their own area techniques and tools, in the context of an automation system design, but in a collaborative sense. In this work, the mapping between UML and IEC 61499 standard concepts was investigated from a theoretical point of view, even though the intention behind that was to find or generate tools which could automate this kind of conversion. Additionally, other tools related to help engineers in the development of automation systems (particularly those which used IEC 61499 standard abstractions) were also analyzed. After all that, some contributions to this area could be proposed: as for the methods, a new simplified UML-IEC61499 mapping, whose main features are the usage, in UML, of a less IEC 61499-constrained vocabulary (opposite to what happened in the other studied techniques), and the way of expressing automation systems temporal requisites (still related to the UML-IEC61499 conversion context); as for the tools, a comparison between IEC 61499 and the LonWorks technology logical models, which led to the conclusion that it would be possible to implement LonWorks automation systems whose models were expressed at first through IEC 61499 abstractions (mainly those resultant from the usage of UML-IEC61499 conversion tools). The conclusion of this work is that with the development of all these tools and techniques it would be possible to aid engineers through all automation system development phases, and the implementation of such systems could be done with a broadly-accepted control system technology. It was also identified that many other study opportunities were raised by this research, such as discovering ways of expressing other QoS requisites in automation system models, and trying to implement more complete engineering project tools.
12

Lyra2: password hashing scheme with improved security against time-memory trade-offs. / LYRA2: um esquema de hash de senhas com maior segurança contra trade-offs entre processamento e memória.

Ewerton Rodrigues Andrade 07 June 2016 (has links)
To protect against brute force attacks, modern password-based authentication systems usually employ mechanisms known as Password Hashing Schemes (PHS). Basically, a PHS is a cryptographic algorithm that generates a sequence of pseudorandom bits from a user-defined password, allowing the user to configure the computational costs involved in the process aiming to raise the costs of attackers testing multiple passwords trying to guess the correct one. Traditional schemes such as PBKDF2 and bcrypt, for example, include a configurable parameter that controls the number of iterations performed, allowing the user to adjust the time required by the password hashing process. The more recent scrypt and Lyra algorithms, on the other hand, allow users to control both processing time and memory usage. Despite these advances, there is still considerable interest by the research community in the development of new (and better) alternatives. Indeed, this led to the creation of a competition with this specific purpose, the Password Hashing Competition (PHC). In this context, the goal of this research effort is to propose a superior PHS alternative. Specifically, the objective is to improve the Lyra algorithm, a PHS built upon cryptographic sponges whose project counted with the authors\' participation. The resulting solution, called Lyra2, preserves the security, efficiency and flexibility of Lyra, including: the ability to configure the desired amount of memory and processing time to be used by the algorithm; and (2) the capacity of providing a high memory usage with a processing time similar to that obtained with scrypt. In addition, it brings important improvements when compared to its predecessor: (1) it allows a higher security level against attack venues involving time-memory trade-offs; (2) it includes tweaks for increasing the costs involved in the construction of dedicated hardware to attack the algorithm; (3) it balances resistance against side-channel threats and attacks relying on cheaper (and, hence, slower) storage devices. Besides describing the algorithm\'s design rationale in detail, this work also includes a detailed analysis of its security and performance in different platforms. It is worth mentioning that Lyra2, as hereby described, received a special recognition in the aforementioned PHC competition. / Para proteger-se de ataques de força bruta, sistemas modernos de autenticação baseados em senhas geralmente empregam algum Esquema de Hash de Senhas (Password Hashing Scheme - PHS). Basicamente, um PHS é um algoritmo criptográfico que gera uma sequência de bits pseudo-aleatórios a partir de uma senha provida pelo usuário, permitindo a este último configurar o custo computacional envolvido no processo e, assim, potencialmente elevar os custos de atacantes testando múltiplas senhas em paralelo. Esquemas tradicionais utilizados para esse propósito são o PBKDF2 e bcrypt, por exemplo, que incluem um parâmetro configurável que controla o número de iterações realizadas pelo algoritmo, permitindo ajustar-se o seu tempo total de processamento. Já os algoritmos scrypt e Lyra, mais recentes, permitem que usuários não apenas controlem o tempo de processamento, mas também a quantidade de memória necessária para testar uma senha. Apesar desses avanços, ainda há um interesse considerável da comunidade de pesquisa no desenvolvimento e avaliação de novas (e melhores) alternativas. De fato, tal interesse levou recentemente à criação de uma competição com esta finalidade específica, a Password Hashing Competition (PHC). Neste contexto, o objetivo do presente trabalho é propor uma alternativa superior aos PHS existentes. Especificamente, tem-se como alvo melhorar o algoritmo Lyra, um PHS baseado em esponjas criptográficas cujo projeto contou com a participação dos autores do presente trabalho. O algoritmo resultante, denominado Lyra2, preserva a segurança, eficiência e flexibilidade do Lyra, incluindo a habilidade de configurar do uso de memória e tempo de processamento do algoritmo, e também a capacidade de prover um uso de memória superior ao do scrypt com um tempo de processamento similar. Entretanto, ele traz importantes melhorias quando comparado ao seu predecessor: (1) permite um maior nível de segurança contra estratégias de ataque envolvendo trade-offs entre tempo de processamento e memória; (2) inclui a possibilidade de elevar os custos envolvidos na construção de plataformas de hardware dedicado para ataques contra o algoritmo; (3) e provê um equilíbrio entre resistância contra ataques de canal colateral (\"side-channel\") e ataques que se baseiam no uso de dispositivos de memória mais baratos (e, portanto, mais lentos) do que os utilizados em computadores controlados por usuários legítimos. Além da descrição detalhada do projeto do algoritmo, o presente trabalho inclui também uma análise detalhada de sua segurança e de seu desempenho em diferentes plataformas. Cabe notar que o Lyra2, conforme aqui descrito, recebeu uma menção de reconhecimento especial ao final da competição PHC previamente mencionada.
13

Engenharia de sistema em redes eusociais. / Systems engineering in eusociais networks.

Fábio Leandro Lazo Sanches 14 September 2010 (has links)
Este trabalho apresenta a abordagem sistêmica, a complexidade e as propriedades emergentes de um sistema de atividades humanas utilizando métodos da Engenharia de Sistemas utilizando como referência para a prova de conceito a metáfora das redes eusociais da Biologia. A análise do sistema foi feita por meio de uma comparação entre as redes eusociais, e as redes de cooperação entre universidades, após esta comparação, que levantou características relevantes para uma comunidade de sucesso, foram aplicados os 7 estágios da metodologia Soft System Methodology para a proposta de um protótipo de uma Rede Temática, aqui analisada como um sistema sociotécnico, abordando a interação entre pessoas e a tecnologia. Nesta prova de conceito foram utilizadas as informações coletadas durante reuniões das partes interessadas. Estas informações foram utilizadas para a criação de um protótipo que foi comparado com a situação real e depois modificado e melhorado pelas partes interessadas. / This work presents a systemic approach, the complexity and emergent properties of a human activities system using systems engineering methods using as reference for the proof of concept, the metaphor of networks eusocial Biology. The analysis system was made through a comparison between the eusocial networks and networks of cooperation between universities, after this comparison, which raised relevant features to a success community, were applied 7 stages of Soft System Methodology for a Thematic Network prototype proposed, here regarded as a sociotechnical system, addressing the interaction between people and technology. In this proof of concept we used the information gathered during meetings with stakeholders. This information was used to create a prototype that was compared with the actual situation and then modified and improved by stakeholders.
14

Um arcabouço conceitual para diagnóstico organizacional a respeito da utilização da automação de testes de software

Rodrigues, Anderson Clayton Barreto, +55 92 988280034 27 February 2018 (has links)
Submitted by ANDERSON RODRIGUES (rodrigues.anderson@gmail.com) on 2018-06-26T16:44:32Z No. of bitstreams: 1 Tese Completa - ANDERSON RODRIGUES.pdf: 5422918 bytes, checksum: 1eaacb8bd2852d4ff7ea5c2c110d76a6 (MD5) / Approved for entry into archive by Secretaria PPGI (secretariappgi@icomp.ufam.edu.br) on 2018-06-26T18:32:13Z (GMT) No. of bitstreams: 1 Tese Completa - ANDERSON RODRIGUES.pdf: 5422918 bytes, checksum: 1eaacb8bd2852d4ff7ea5c2c110d76a6 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-06-26T18:54:36Z (GMT) No. of bitstreams: 1 Tese Completa - ANDERSON RODRIGUES.pdf: 5422918 bytes, checksum: 1eaacb8bd2852d4ff7ea5c2c110d76a6 (MD5) / Made available in DSpace on 2018-06-26T18:54:36Z (GMT). No. of bitstreams: 1 Tese Completa - ANDERSON RODRIGUES.pdf: 5422918 bytes, checksum: 1eaacb8bd2852d4ff7ea5c2c110d76a6 (MD5) Previous issue date: 2018-02-27 / FAPEAM - Fundação de Amparo à Pesquisa do Estado do Amazonas / Software is present in all areas of contemporary life. From simple video games to complex air traffic monitoring systems, the risks involved in software failure have never been so serious. Testing is one of the most effective ways to increase the software quality. However, it is a laborious activity that may account for 20%-50% of the total cost of the software development project. The automation of software testing (AST) may represent a viable alternative for reducing this cost. The main benefits of AST are the decrease in test run time, increased quality, and decreased human error during the test process. However, just 20% of software organizations report having achieved the expected benefits from using AST. This dissertation presents a conceptual framework that aims to help organizations reach the objectives expected with the use of AST. The body of knowledge was constructed through two empirical studies: A systematic review of the literature, aiming to identify and characterize factors and practices that positively influence the use of AST and a survey with experts in software testing to assess relevance and impact identified. Finally, the viability of the proposed framework was evaluated through its application in two software organizations and from the perception of participants through interviews. From the studies conducted, 12 critical success factors (CSF) and 46 practices were identified and evaluated as relevant in the use of AST, among them are: the commitment and qualification of the automation team, the level of software testability and the feasibility of the automation project. Finally, a conceptual framework was developed using CSF assistance as a way to evaluate the knowledge of organizations about AST and therefore to suggest the adoption of practices to assist them in achieving the objectives expected with the use of AST. The results show that meeting critical success factors and adopting good practices contribute to the organizations achieving the expected benefits through the use of software testing automation and that the framework developed is feasible and can assist them in this purpose. / Software está presente em todas as áreas da vida contemporânea. De simples vídeo games a complexos sistemas de monitoramento de tráfego aéreo, os riscos envolvidos na falha de um software nunca foram tão sérios. Testar é uma das maneiras mais efetivas de aumentar a qualidade de um software. No entanto, teste é uma atividade laboriosa que pode ser responsável por 20%-50% do custo total do projeto de desenvolvimento de um software. A automação de testes de software (ATS) pode representar uma alternativa viável para a redução desse custo. Os principais benefícios da ATS são a diminuição no tempo de execução de testes, aumento da qualidade e diminuição de erros humanos durante o processo de teste. No entanto, apenas 20% das organizações relatam ter alcançado os benefícios esperados com a utilização da ATS. Este trabalho apresenta um arcabouço conceitual que visa auxiliar organizações a atingirem os objetivos esperados com a utilização da ATS. O corpo de conhecimento foi construído por meio de dois estudos experimentais: Uma revisão sistemática da literatura, com o objetivo de identificar e caracterizar fatores e práticas que influenciam positivamente na utilização da ATS e um survey com especialistas em testes de software visando avaliar a relevância e o impacto dos FCS identificados. Por fim, a viabilidade do arcabouço foi avaliada por meio da sua aplicação em 2 organizações produtoras de software e da coleta de percepção dos participantes por meio de entrevistas. A partir dos estudos conduzidos, 12 fatores críticos de sucesso (FCS) e 46 práticas foram identificados e avaliados como relevantes na utilização da ATS, entre eles estão: o comprometimento e qualificação da equipe de automação, o nível de testabilidade do software e a viabilidade do projeto de automação. Por fim, um arcabouço conceitual foi desenvolvido utilizando o atendimento de FSC como forma de avaliar o conhecimento de organizações a respeito da ATS e por conseguinte sugerir a adoção de práticas para auxilia-las no atingimento dos objetivos esperados com a utilização da ATS. Os resultados apontam que o atendimento de fatores críticos de sucesso e a adoção de boas práticas contribuem para que as organizações alcancem os benefícios esperados com a utilização da automação de teste de software e que o arcabouço desenvolvido é viável e pode auxilia-las nesse propósito.
15

Regiões de confiança para a localização do ponto estacionário em superfícies de resposta, usando o método "bootstrap" Bayesiano / Confidence region on the location of the stationary point in response surfaces, a Bayesian bootstrap approach

Miquelluti, David José 18 April 2008 (has links)
Experimentos nos quais uma ou mais variáveis respostas são influênciadas por diversos fatores quantitativos são bastante comuns nas áreas agrícola, química, biológica, dentre outras. Nesse caso, o problema de pesquisa consiste em se estudar essa relação, sendo de grande utilidade o uso da metodologia de superfícies de resposta (MSR). Nesse contexto, a determinação dos níveis dos fatores que otimizam a resposta consiste inicialmente na obtenção das coordenadas do ponto estacionário do modelo ajustado. No entanto, como o modelo verdadeiro é desconhecido, é interessante obter uma região de confiança das coordenadas verdadeiras de modo a avaliar a precisão da estimativa obtida. Foram abordados aqui os procedimentos para construção de regiões de confiança para as coordenadas do ponto estacionário em diferentes situações considerando-se a forma das superfícies analisadas e a distribuição e magnitude da variância dos erros do modelo. Foram utilizadas a metodologia de Box e Hunter (1954) (BH), "bootstrap" e "bootstrap" Bayesiano aliados ao cálculo da distância de Mahalanobis entre as coordenadas do ponto estacionários da amostra observada e aquelas obtidas por meio das estimativas "bootstrap"(BM e BBM), e métodos "bootstrap" e "bootstrap" Bayesiano aliados a métodos não paramétricos de estimação de funções densidade de probabilidade (BNP e BBNP). A avaliaçãoda metodologia foi realizada por meio de simulação e foi aplicada a um conjunto de dados de produção de amendoim. No estudo de simulação, a metodologia BH, baseada na distribuição normal dos erros, apresentou um bom desempenho em todas as situações analisadas, havendo concordância entre as regiões de confiança nominais e reais, mesmo naquelas em que essa distribuição é bastante assimétrica. Este mesmo comportamento foi observado para os métodos BM e BBM. No entanto, os métodos BNP e BBNP não apresentaram um desempenho satisfatório, resultando em um nível de significância real menor que o nominal para os autovalores com menor valor absoluto, gerando regiões de confiança maiores. No caso de autovalores com maior valor absoluto observou-se situação inversa. No caso da análise do conjunto de dados de amendoim os métodos BH, BM e BNP apresentaram regiões de confiança mais amplas comparativamente aos métodos BBM e BBNP. No entanto, os valores das estimativas do "bootstrap" Bayesiano são mais próximas das estimativas de mínimos quadrados e apresentam menor dispersão o que explica a menor área da região de confiança. / Experiments in which one or more response variables are influenced by several quantitative factors are very common in agricultural, chemistry, biology and other areas. In this case, the research question consists in studying this relation, being of great utility the use of response surface methodology (RSM). In this context determining the level of the factors that optimize the response consists finding the coordinates of the stationary point of the model. However, as the true model is unknown, it is of interest to obtain a confidence region of the true coordinates to analyze the precision of the obtained estimate. The procedures for the construction of confidence regions for the coordinates of the stationary point were studied in diferent situations, considering the shape of the surfaces analyzed and the distribution and magnitude of the variance errors. The methodology of Box and Hunter (1954) (BH), bootstrap and Bayesian bootstrap with Mahalanobis distance among the coordinates of the stationary point of the observed sample and those obtained using bootstrap estimates(BM and BBM) and bootstrap and Bayesian bootstrap with non-parametric methods for density estimation (BNP and BBNP) were compared. The methodology evaluation was realized by means of simulation and applied to a peanut yields data set. In simulation study the BH methodology, which is based in normal distribution of errors, presented a good performance in all of the analyzed situations, having concordance among the nominal and real confidence regions, even in those which this distribution is fairly asymmetric. This behavior was also observed in BM and BBM methods. The BNP and BBNP methods did not presented a satisfactory performance, resulting in a real significance level lower than the nominal for the eigenvalue with lower absolute value, generating bigger confidence regions. The inverse was observed using eigenvalue with higher absolute value. In the analysis of the peanut yields data set the BH, BM and BNP methods presented confidence regions larger than the BBM and BBNP methods. The Bayesian bootstrap estimate values are closer of the minimum square estimates and present less dispersion what explain the confidence region lower area.
16

Técnicas de parsing para gramática livre de contexto lexicalizada da língua portuguesa.

Cinthyan Renata Sachs Camerlengo de Barbosa 00 December 2004 (has links)
Este trabalho apresenta algoritmos de reconhecimento e parsing para um subconjunto da Gramática Livre de Contexto Lexicalizada (GLCL) da língua portuguesa. A GLCL apresentada neste trabalho estende o domínio de localidade de uma Gramática Livre de Contexto (GLC) do português fazendo com que um item lexical (símbolo terminal das gramáticas formais) apareça como parte das estruturas elementares sem alterar as estruturas das árvores utilizadas, o que é lingüisticamente muito significativo. A GLCL é uma forma restrita da Gramática de Adjunção de Árvores Lexicalizada (LTAG) que pode somente gerar linguagens livres de contexto, mantendo limites de complexidade de ordem cúbica, no pior caso, para o reconhecimento e parsing. Inicialmente, é apresentada uma introdução à área das Interfaces em Linguagem Natural para Banco de Dados (ILNBDs) referenciando as principais motivações e problemas encontrados no uso destas. O trabalho também apresenta uma introdução ao processamento da linguagem natural, situando gramáticas e analisadores sintáticos, buscando inserir este trabalho em seu contexto. Para um embasamento teórico é descrito o formalismo das GLCLs, com suas características, componentes, e operações de combinações entre os componentes. Os componentes principais do formalismo são dois conjuntos de árvores: árvores iniciais, as quais são combinadas por substituição, e árvores auxiliares, combinadas por uma forma restrita de adjunção.A seguir, é apresentado o subconjunto da língua escolhida. Algumas famílias de árvores foram descritas, mostrando um conjunto de orações na voz ativa, passiva, orações relativas, interrogativas e clivadas. A gramática está descrita de acordo com o formalismo da GLCL. Finalmente, algoritmos de reconhecimento e parsing para a GLCL da língua portuguesa serão desenvolvidos.
17

Uma infraestrutura de comando e controle de data center para um conjunto de recursos computacionais. / A data center command and control infrastructure for a computing resource ensemble.

Silva, Marcio Augusto de Lima e 30 June 2009 (has links)
O crescimento das necessidades de recursos computacionais gerado por novas classes de aplicações comerciais e científicas apresenta um novo tipo de desafio para infraestruturas computacionais. O acelerado crescimento das demandas por recursos promove um acelerado crescimento no número absoluto de elementos computacionais nestas. Nesse cenário, o provisionamento e a operação de sistemas tornam-se tarefas progressivamente complexas, devido primariamente ao aumento em escala. Este trabalho propõe um modelo para uma infraestrutura computacional que opera como um repositório abstrato de recursos computacionais de tempo de execução com níveis variáveis de consumo. Desenhado para operar como um ensemble (i.e. um conjunto coordenado) de recursos computacionais, grandes números de elementos são agregados em conjuntos de servidores de recursos de processamento, armazenamento e comunicação. O ensemble é concebido e implementado com ampla utilização de tecnologias de virtualização e possui um mecanismo de provisionamento e operação organizado como uma estrutura distribuída de comando e controle (Command and Control, ou C²). A implementação de uma prova de conceito de tal infraestrutura computacional é apresentada, e a validação da proposta é realizada através de uma combinação de resultados experimentais e emulação. / The increase in computing resource needs posed by new classes of commercial and scientific applications presents a new kind of challenge for computing infrastructures. The accelerated growth in resource demand leads to an accelerated growth in the absolute number of computing elements on such infrastructures. In this scenario, the provisioning and systems operations of such elements becomes a progressively complex task, due mainly to the increase in scale. This work proposes a model for a computing infrastructure that operates as an abstract repository of run-time resources with variable levels of consumption. Designed to operate as a computing ensemble, large numbers of elements are aggregated in pools of processing, storage and communication resource servers. The Computing Resource Ensemble is designed with the heavy use of virtualization technologies and has a provisioning and systems operation engine organized as a distributed Command and Control (C2) framework. A Proof of Concept implementation of such computing infrastructure is presented, and the validation of the concept is carried out by a combination of experiments and emulation.
18

Uma infraestrutura de comando e controle de data center para um conjunto de recursos computacionais. / A data center command and control infrastructure for a computing resource ensemble.

Marcio Augusto de Lima e Silva 30 June 2009 (has links)
O crescimento das necessidades de recursos computacionais gerado por novas classes de aplicações comerciais e científicas apresenta um novo tipo de desafio para infraestruturas computacionais. O acelerado crescimento das demandas por recursos promove um acelerado crescimento no número absoluto de elementos computacionais nestas. Nesse cenário, o provisionamento e a operação de sistemas tornam-se tarefas progressivamente complexas, devido primariamente ao aumento em escala. Este trabalho propõe um modelo para uma infraestrutura computacional que opera como um repositório abstrato de recursos computacionais de tempo de execução com níveis variáveis de consumo. Desenhado para operar como um ensemble (i.e. um conjunto coordenado) de recursos computacionais, grandes números de elementos são agregados em conjuntos de servidores de recursos de processamento, armazenamento e comunicação. O ensemble é concebido e implementado com ampla utilização de tecnologias de virtualização e possui um mecanismo de provisionamento e operação organizado como uma estrutura distribuída de comando e controle (Command and Control, ou C²). A implementação de uma prova de conceito de tal infraestrutura computacional é apresentada, e a validação da proposta é realizada através de uma combinação de resultados experimentais e emulação. / The increase in computing resource needs posed by new classes of commercial and scientific applications presents a new kind of challenge for computing infrastructures. The accelerated growth in resource demand leads to an accelerated growth in the absolute number of computing elements on such infrastructures. In this scenario, the provisioning and systems operations of such elements becomes a progressively complex task, due mainly to the increase in scale. This work proposes a model for a computing infrastructure that operates as an abstract repository of run-time resources with variable levels of consumption. Designed to operate as a computing ensemble, large numbers of elements are aggregated in pools of processing, storage and communication resource servers. The Computing Resource Ensemble is designed with the heavy use of virtualization technologies and has a provisioning and systems operation engine organized as a distributed Command and Control (C2) framework. A Proof of Concept implementation of such computing infrastructure is presented, and the validation of the concept is carried out by a combination of experiments and emulation.
19

Agregação de classificadores neurais via integral de Choquet com respeito a uma medida fuzzy

Pacheco, André Georghton Cardoso 15 July 2016 (has links)
Submitted by Patricia Barros (patricia.barros@ufes.br) on 2017-07-03T10:36:35Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Andre Georghton Cardoso Pacheco Agregacao de classificadores neurais via integral de Choquet com respeito a uma medida fuzzy.pdf: 2377890 bytes, checksum: a119a6b35273222d80df45cdde5602db (MD5) / Approved for entry into archive by Patricia Barros (patricia.barros@ufes.br) on 2017-07-19T09:37:39Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Andre Georghton Cardoso Pacheco Agregacao de classificadores neurais via integral de Choquet com respeito a uma medida fuzzy.pdf: 2377890 bytes, checksum: a119a6b35273222d80df45cdde5602db (MD5) / Made available in DSpace on 2017-07-19T09:37:39Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Andre Georghton Cardoso Pacheco Agregacao de classificadores neurais via integral de Choquet com respeito a uma medida fuzzy.pdf: 2377890 bytes, checksum: a119a6b35273222d80df45cdde5602db (MD5) / CAPES / Data classification appears in many real-world problems, e.g., recognition of image patterns, differentiation among species of plants, classifying between benign and malignant tumors, among others. Many of these problems present data patterns, which are difficult to be identified, thus requiring more advanced techniques to be solved. Over the last few years, various classification algorithms have been developed to address these problems, but there is no classifier able to be the best choice in all situations. So, the concept of ensemble systems arise, which more than one methodology is used together to solve a particular problem. As a simple and effective methodology, ensemble of classifiers have been applied in several classification problems, aiming to improve performance and increase reliability of the final result. However, in order to improve the classification accuracy, an affective aggregation of classifiers must be performed. In this work, we present two contributions: first, we describe three classifiers based on neural networks, a multilayer feedforward trained by Levenberg-Marquardt algorithm; an extreme learning machine (ELM); and a discriminative restricted Boltmann machine (DRBM). Furthermore, we use conventional classifier k-nearest neighbors (KNN). Next, we propose an aggregation methodology to ensemble of classifiers using Choquet integral with respect to a fuzzy measure obtained by principal component analysis (PCA). Then, we apply this methodology to aggregate the classifiers performed to conventional benchmarks, for large database and the results are promising. / Classificação de dados pode ser aplicada em diversos problemas reais, tais como: reconhecer padrões em imagens, diferenciar espécies de plantas, classificar tumores benignos e malignos, dentre outros. Muitos desses problemas possuem padrões de dados difíceis de serem identificados, o que requer, consequentemente, técnicas mais avançadas para sua resolução. Ao longo dos anos, diversos algoritmos de classificação foram desenvolvidos para abordar esses problemas, todavia, não existe um classificador capaz de ser a melhor opção em todas as situações. Baseado nisso, surge o conceito de sistema baseado em elenco, no qual, mais de uma metodologia é utilizada em conjunto para solucionar um determinado problema. Por ser uma metodologia simples e eficaz, elenco de classificadores vem sendo aplicado em diversos problemas de classificação com intuito de melhorar o desempenho e de aumentar confiabilidade do resultado final. Entretanto, para que o elenco seja capaz de promover melhorias, uma boa técnica de agregação deve ser aplicada. Neste trabalho, duas contribui- ções são apresentadas: primeiramente será apresentado o uso de três classificadores baseado em redes neurais artificiais, sendo uma rede neural multicamadas feedforward usando o algoritmo de treinamento de Levenberg-Marquardt, uma rede neural do tipo máquina de aprendizado extremo (ELM), e uma máquina de Boltzmann restrita discriminativa (DRBM), além de um classificador convencional do tipo K vizinhos mais próximos (KNN). A seguir é proposta uma metodologia de agregação de elenco de classificadores utilizando a integral de Choquet com respeito a uma medida fuzzy obtida através da técnica de Análise de Componentes Principais (PCA). Por fim, tal metodologia é aplicada para agregar os classificadores obtidos para benchmarks convencionais da literatura, para grande base de dados e os resultados são promissores
20

Uma abordagem para melhora a experiência do testador em projetos de software

Ekwoge, Oswald Mesumbe, 92-996132192 12 March 2018 (has links)
Submitted by Joyce Ribeiro (lucas.ribeiro.060496@gmail.com) on 2018-05-07T16:14:20Z No. of bitstreams: 2 Dissertação_OswaldEkwoge_vf.5.pdf: 2319636 bytes, checksum: 01ded37d937f89a4836d74082d8e3383 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-05-08T14:19:47Z (GMT) No. of bitstreams: 2 Dissertação_OswaldEkwoge_vf.5.pdf: 2319636 bytes, checksum: 01ded37d937f89a4836d74082d8e3383 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-05-08T14:54:21Z (GMT) No. of bitstreams: 2 Dissertação_OswaldEkwoge_vf.5.pdf: 2319636 bytes, checksum: 01ded37d937f89a4836d74082d8e3383 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-05-08T14:54:21Z (GMT). No. of bitstreams: 2 Dissertação_OswaldEkwoge_vf.5.pdf: 2319636 bytes, checksum: 01ded37d937f89a4836d74082d8e3383 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2018-03-12 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Testing is a very essential activity for software development. It is the act of executing a software product in order to validate whether it behaves as intended and identify possible malfunctions. Studies have shown that testing makes up more than 50% of the development cost. Besides, much effort and emphasis have now been placed on tasks related to automation with the purpose of reducing cost and the participation of the human element in software activities. Testing is a human-based activity. Therefore, efficient ways of testing software products for quality assurance will require a better and more comprehensive understanding of testers’ feelings, perceptions, and motivations, referred to as Tester Experience (TX). Thus, the better the TX of developers during testing, or anyone who takes up the role of a tester, the better the result. TX can be defined as a means of capturing how testers think and feel about their activities within the software testing environment, with the assumption that an improvement of the tester’s experience has a positive impact on quality assurance. This thesis motivates the importance of TX, proposes concepts, issues, definition and factors affecting TX. It also proposes an approach, namely, the Tester ExperienceBased Approach (TX-A), composed of guidelines and activities that developers (or testers) can follow in order to improve their TX in addition to the factors affecting TX. Moreover, this work presents the results of a survey carried out with software development practitioners in order to evaluate TX-A which evaluates the importance of the factors and the relevance of the guidelines in improving TX. The results obtained show that more than 95% of participants agree that the factors are important and the guidelines relevant for improving TX. / Teste é uma atividade essencial para o desenvolvimento de software. É o ato de executar um produto de software para validar se o mesmo se comporta como previsto e identificar possíveis falhas. Estudos demonstraram que os testes compõem mais de 50% do custo de desenvolvimento. Além disso, muito esforço e ênfase têm sido dedicados em tarefas relacionadas à automação com o objetivo de reduzir custos e a participação do elemento humano em atividades de teste de software. No entanto, teste é também uma atividade humana. Assim, formas eficientes de testar produtos de software para garantia de qualidade exigem uma compreensão melhor e mais abrangente dos sentimentos, percepções e motivações dos testadores, conhecido como Tester Experience (TX). Dessa forma, quanto melhor o TX dos desenvolvedores durante o teste, ou qualquer um que assumir o papel de testador, melhor será o resultado. O TX pode ser definido como um meio de capturar como os testadores pensam e sentem sobre suas atividades dentro do ambiente de teste de software, com o pressuposto de que a melhoria da experiência do testador tenha um impacto positivo na garantia de qualidade. Esta dissertação demonstra a importância do TX, propõe conceitos, definições e fatores que afetam o TX. Ela também propõe uma abordagem, denominada, Tester Experience-Based Approach (TX-A), composta por diretrizes e atividades que os desenvolvedores (ou testadores) devem seguir para melhorar seu TX, além dos fatores que afetam o TX. Além disso, este trabalho apresenta os resultados de um survey realizado com profissionais de desenvolvimento de software para avaliar a TX-A. O estudo avaliou a importância dos fatores e a relevância das diretrizes na melhoria do TX. Os resultados obtidos mostram que mais de 95% dos participantes concordam que os fatores são importantes e as diretrizes são relevantes para melhorar o TX.

Page generated in 0.0576 seconds