Spelling suggestions: "subject:"computacional""
461 |
Avaliação comparativa entre técnicas de programação defensiva aplicadas a um sistema crítico simulado. / Comparative evaluation among defensive programming techniques applied in a critical system simulated.Alex Ander Javarotti Zumalde 05 May 2011 (has links)
A introdução de software em sistemas de aplicações críticas traz consigo questões relacionadas à segurança (safety) que, durante muito tempo recaíram predominantemente sobre o desenvolvimento do hardware que compunha tais sistemas. Atualmente, padrões relacionados à segurança de software avaliam qualitativamente o impacto do seu uso sobre sistemas suscetíveis a falhas de natureza randômica. A pesquisa aqui desenvolvida visa, em complemento a outras investigações já realizadas, avaliar quantitativamente diversas técnicas de programação defensiva em função de sua representatividade no quesito segurança de sistemas de aplicação crítica tolerantes a erros. Como objetivo essencial, buscou-se avaliar o comportamento adquirido por um sistema tolerante a erros quando submetido a um processo de injeção de falhas por software. A tolerância a erros do sistema de aplicação crítica em estudo é alcançada, através de técnicas de programação defensiva aplicadas ao software original. Foram aplicadas diversas técnicas de programação defensiva e diversas combinações entre elas, de modo que foi possível avaliar quantitativamente e identificar possíveis padrões de níveis de segurança adquiridos em cada caso. / The introduction of software systems for critical applications raises safety issues that have long fell predominantly on the development of the hardware composing such systems. Currently, standards related to safety software qualitatively assess the impact of their use on systems sensitive to random errors. The research developed here seeks, in addition to other previous investigations, to quantitatively evaluate different techniques of defensive programming in function of their safety level in fault-tolerant safety critical systems. As a key objective, we sought to evaluate the behavior acquired by a fault-tolerant system when subjected to a software fault injection process. The fault-tolerance system, in a typical critical application under study, is achieved through the application of defensive programming techniques over the original software. Many defensive programming techniques and various combinations among them were applied, hence making it possible to quantitatively assess and identify possible patterns of safety levels acquired in each case.
|
462 |
Modelo para avaliação da qualidade de projetos de planos de continuidade de negócios aplicados a sistemas computacionais. / Business continuity plans projects applied to computer systems quality evaluation model.Wagner Ludescher 26 May 2011 (has links)
Diante da constante necessidade de funcionamento ininterrupto dos sistemas computacionais, das mais diversas organizações, é imperativo que existam meios de continuidade dos negócios e recuperação de desastres implantados, testados e prontos para serem invocados. Diante disso, torna-se essencial a existência de uma maneira de avaliar se as informações, os procedimentos e o nível do conhecimento dos colaboradores da organização estão adequados para enfrentar uma ocorrência inesperada e devastadora no ambiente computacional da organização. A presente tese propõe um modelo hierárquico para se representar e avaliar a qualidade dos Projetos de Planos de Continuidade de Negócios (PPCN) aplicados a sistemas computacionais. Este modelo apresenta o mapeamento das principais características que esses planos devem possuir, de acordo com as principais normas relativas ao tema (BS 25999, ABNT NBR ISO/IEC 27001 e ABNT NBR ISO/IEC 27002), as experiências de especialistas da área e dados reais dos usuários dos PPCNs obtidos por meio da utilização de questionários. É proposto neste trabalho, também, um Índice de Qualidade (IQ) para os PPCNs que permite a comparação de um PPCN existente com um PPCN ideal, identificando-se os pontos fracos nele existentes e munindo a organização com informações para a busca de soluções que resultarão na melhoria do PPCN atual. / Given the need for computer systems uninterrupted operation, for the most different organizations, it is imperative that business continuity and disaster recovery plans be already in place, tested and ready to be invoked. Given this, it is essential for there being a way to assess whether the information, procedures and organizations employees knowledge level are adequate to deal with an unexpected and devastating event in the organization\'s computing environment. This thesis proposes a hierarchical model to represent and assess the organizations computer systems Business Continuity Plan Project (BCPP) quality. This model maps the main features these plans should have, in accordance with the main standards related to this area (BS 25999, ISO/IEC 27001 and ISO/IEC 27002), specialists experience and real data from BCPPs users obtained from questionnaires. As a complementary proposal, a BCPP Quality Index (QI) is suggested, which will allow organizations to compare their existing BCPP against an ideal BCPP, identifying the gaps between these plans and providing the organization with information for seeking solutions that will result in the improvement of current BCPP.
|
463 |
O ensino-aprendizagem de matemática financeira utilizando ferramentas computacionais: uma abordagem construcionistaLeme, Nelson Dias 17 October 2007 (has links)
Made available in DSpace on 2016-04-27T16:58:29Z (GMT). No. of bitstreams: 1
Nelson Dias Leme.pdf: 5327513 bytes, checksum: 4de15af5883da758e73a3351fa8b55d1 (MD5)
Previous issue date: 2007-10-17 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This work aims to contribute to the investigation of the impact of a
constructionist approach to the use of electronic spreadsheets on the teaching and
learning of topics related to Financial Mathematics.
To this end, a teaching experiment was designed which involved students in
the construction of their own formulas, using spreadsheets, for calculating
interests and future values of investments, under regimes of both simple and
compound rates. The constructionist conceptions of Papert provided a theoretical
base for the development of the activities.
The methodology adopted for the study was modelled according to the
design-based research methodologies. Two phases of experimentation were
elaborated. The first phase involves students initiating their studies in Financial
Mathematics in working on a set of activities with spreadsheets, and then
completing a series of paper and pencil tasks. In the second phase, to provide a
basis for comparing the approach adopted with the more usual practice of giving
students previously defined formulae for calculating interest, the paper and pencil
task were also administered to a group of students who has previously studied
Financial Mathematics.
The analysis of data followed the cycle of description-execution-reflectiondebugging-
description described by Valente. According to these analyses, the
formulae constructed by the students and implemented on the computer served as
computational models providing feedback and enabling simulations of various
possible situations. This in turn allowed students to engage in a cycle of
expression, evaluation and reflection of the mathematical domain in question / O objetivo deste trabalho é colaborar na investigação do impacto da
abordagem construcionista e das potencialidades das planilhas eletrônicas no
ensino-aprendizagem de conteúdos da Matemática Financeira.
Para alcançar o objetivo proposto, foi elaborado um experimento de ensino
envolvendo alunos na construção de suas próprias fórmulas, usando planilhas
eletrônicas, para o cálculo dos juros e do montante, nos regimes dos juros
simples e compostos. Para o desenvolvimento das atividades buscamos
referência na concepção construcionista de Seymour Papert (1994).
A metodologia empregada neste trabalho está baseada no design-based
research methodologies . Metodologia de Pesquisa Baseada em Design. Foram
desenvolvidas duas fases de experimentação. A primeira fase envolveu um grupo
de alunos iniciantes seus em estudos de Matemática Financeira, em um conjunto
de atividades com planilhas eletrônicas e, em uma série de tarefas em papel e
lápis. Na segunda fase para comparar com o desempenho do primeiro grupo,
foram aplicadas as atividades com papel e lápis a um grupo de alunos que já
concluiu seus estudos de Matemática Financeira e que vivenciou uma abordagem
de ensino onde as fórmulas não foram construídas.
A análise empregou o ciclo descrição-execução-reflexão-depuraçãodescrição
de Valente (2002). Segundo nossas análises, as fórmulas deduzidas e
implementadas no computador são modelos computacionais que possibilitam o
feedback e a simulação, favorecendo o envolvimento dos aprendizes no ciclo
básico de expressão, avaliação e reflexão sobre o domínio considerado
|
464 |
Análise de jogos digitais infantis para o ensino e aprendizagem de História das ArtesVieira, Izana Weber 28 November 2014 (has links)
Made available in DSpace on 2016-04-29T14:23:33Z (GMT). No. of bitstreams: 1
Izana Weber Vieira.pdf: 3774125 bytes, checksum: a82d5a0ccd1b4cad1f3af12ac55aa72a (MD5)
Previous issue date: 2014-11-28 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Contemporary technologies favor the process of teaching and learning, construction of
knowledge and awareness. In this proposal we are considering the diversity of media
that today converge to a structured technological base through digital resources.
Contribute to progress towards digital and social inclusion, in the areas of teaching and
learning, production and distribution of knowledge. This research aims to contribute to
the advancement of academic, educational, and social studies that take into account the
interactive products and computer systems that allowed intense cultural exchange and
reflection on specific themes: arts, sciences, games and new technologies. Providing
significant findings in relation to the processes of teaching and learning and the
production and distribution of knowledge on social networks and through identifying the
possibilities of use of online interactive games as focused on the teaching of art history
educational tools the child of 08 to 10. We draw dialogues with researchers such as Lev
S. Vygotsky, Charles S. Peirce, Ana Mae Barbosa, Lucia Santaella and Hermes Renato
Hildebrand, addressing issues related to the teaching and learning of children using
games for educational development. As a result, the research proposes the analysis of
educational games available on the internet and the modification of the game "face to
face" that presents the possibility of generating educational content in visual arts, in
addition to the development of a suitable prototype game "cara a cara" to through print
and digital / As tecnologias contemporâneas favorecem o processo de ensino e aprendizagem, de
construção de conhecimento e de tomada de consciência. Nesta proposta, estamos
considerando a diversidade dos meios de comunicação que, hoje, convergem para uma
base tecnológica estruturada, por meio dos recursos digitais. Também se pretende
contribuir para o avanço no sentido da inclusão digital e social, nas áreas de ensino e
aprendizagem, produção e distribuição de conhecimento. Esta pesquisa propõe a
elaboração de estudos acadêmicos e educacionais que levem em conta os produtos
interativos com sistemas computacionais, os quais possibilitaram intensas trocas
culturais e reflexão sobre temáticas específicas nas áreas de artes, jogos e novas
tecnologias. O estudo busca refletir sobre pontos significativos em relação aos processos
de ensino e aprendizagem e da produção e distribuição de conhecimento, por meio da
identificação de possibilidades de uso dos jogos interativos modificados, como
ferramentas educacionais voltadas para o ensino de História das Artes de crianças de 08
aos 10 anos. Para isso, traçamos diálogos com pesquisadores, como: Lev S. Vygotsky,
Charles S. Peirce, Ana Mae Barbosa, Lucia Santaella e Hermes Renato Hildebrand,
abordando aspectos relativos ao ensino e à aprendizagem de crianças que utilizam jogos
educacionais para seu desenvolvimento. Como resultado, a pesquisa propõe a análise de
jogos educacionais disponíveis na internet e a modificação do jogo cara a cara que
apresenta possibilidade de gerar conteúdo educacional em artes visuais, além da
elaboração de um protótipo adaptado do jogo cara a cara para meio impresso e digital
|
465 |
Grid computing e cloud computing: análise dos impactos sociais, ambientais e econômicos da colaboração por meio do compartilhamento de recursos computacionais / Grid Computing and Cloud Computing: analysis of the social,environmental and economic impacts of the collaboration through the resources sharing.Silva, Diogo Cortiz da 01 October 2009 (has links)
Made available in DSpace on 2016-04-29T14:23:52Z (GMT). No. of bitstreams: 1
Diogo Cortiz Silva.pdf: 1671903 bytes, checksum: ee5719b8fbbb5e1d9a7de4b35b463f43 (MD5)
Previous issue date: 2009-10-01 / This research debates the excess of worldwide available computational resources with
exceeded processing capacity and also how the utilization of the sharing and collaboration
concepts influence the integration of those devices to constitute an economic environment
with high processing capacity. Currently, it is possible to find a great amount of personal
computers, servers and others devices that show high level of idleness, while they could be
being used for another purpose, once there are many scientific researches, collaborative
projects and digital inclusion programs that are short of resources to reach theirs objectives.
The Grid Computing technology was conceived as an alternative to integrate geographically
distributed resources pertaining to different domains, enabling a decentralized computational
environment. The main objective of this research is to analyze how this technology can
generate benefits to the social, environment and economic contexts. In the social approach,
Grid Computing stimulates the collaboration and the sharing of computational resources and
applications, as well as providing features that are very useful for data transparency between
many domains. Those characteristics are also important for the scientific inclusion. The first
Case Study approaches the importance of Grid Computing for the collaborative tasks found in
the scientific project of the Large Hadron Collider (LHC), which allowed many research
institutions and universities around the world to build a shared computational environment of
large scale for processing the data generated by LHC. In the environment context, this
technology also presents some characteristics to make the computational resources more
energy efficient increasing the use of its computational capacities. The second Case Study
analyzes the data related to the amount of personal computers connected in the Internet and
how to implement Grid Computing based on the Volunteer Computing model to make those
computers more productive with no relevant impact in the energy consumption. This research
also highlights the synergy between Grid Computing and Cloud Computing, its financial
advantages and the generation of new business models based on the commercialization of
platform and software as a service in the Internet. The third Case Study analyzes a Cloud
Computing model that delivers computational resources (such as a whole server) as a service,
enabling a scenario where companies and people could contract a computational environment
with a quick provisioning with no need to purchase equipments and to invest in
implementation projects. Finally, it is possible to appoint both technologies as relevant trends
for the coming years, which can be an influence to generate new software models, platforms
and services focused in the Internet / Esta dissertação discute o excesso de recursos computacionais disponíveis mundialmente com
capacidade de processamento excedente e também debate como o emprego dos conceitos de
compartilhamento e colaboração influenciam a integração desses dispositivos para constituir
um ambiente econômico e com alta capacidade de processamento. Atualmente, é possível
encontrar uma grande quantidade de computadores pessoais, servidores, entre outros
dispositivos, que apresentam elevados níveis de ociosidade. Estes poderiam ser utilizados para
outra finalidade, haja vista pesquisas científicas, projetos colaborativos e programas de
inclusão digital carentes de recursos para atingirem seus objetivos. A tecnologia de Grid
Computing, também chamada de Computação em Grade, foi concebida como uma alternativa
para integrar recursos distribuídos geograficamente e pertencentes a diferentes domínios,
habilitando um ambiente computacional abrangente e descentralizado. O objetivo desta
dissertação é analisar como essa tecnologia, baseada no conceito de colaboração, pode gerar
benefícios no contexto social, ambiental e econômico. No âmbito social, Grid Computing
estimula o trabalho colaborativo e o compartilhamento de recursos computacionais e
aplicacões, além de prover funcionalidades que auxiliam na transparência de dados entre
diversos domínios. Essas características também são importantes para a inclusão científica. O
primeiro Estudo de Caso aborda a importância de Grid Computing para o projeto científico do
Superacelerador de Partículas (LHC). No contexto ambiental, essa tecnologia também
apresenta características para tornar os recursos computacionais mais eficientes em relação ao
consumo de energia através do aumento do uso de sua capacidade computacional. O segundo
Estudo de Caso aborda dados em relação à quantidade de máquinas conectadas à Internet e
como uma aplicação de Grid Computing, no modelo de Computação Voluntária, pode tornálas
mais produtivas e, consequentemente, mais eficientes no consumo de recursos energéticos.
Já no contexto econômico, é de importância destacar a sinergia existente entre Grid
Computing e Cloud Computing, as suas vantagens financeiras e a geração de novos modelos
de negócios através da comercialização de plataformas e softwares como serviços na Internet,
e não mais como produtos. O terceiro Estudo de Caso aborda um modelo de Cloud
Computing que disponibiliza recursos computacionais em forma de serviços, permitindo que
empresas e pessoas físicas possam contratar um ambiente computacional de rápido
provisionamento, sem a necessidade de adquirir equipamentos e investir em projetos de
implementação. Por fim, ambas as tecnologias são apontadas como grandes tendências para
os próximos anos, as quais influenciarão a geração de novos modelos de softwares,
plataformas e serviços voltados à Internet
|
466 |
Previsão da pressão de colapso em dutos para transporte de gás e petróleo contendo defeitos planares incorporando curvas de resistência J-R: uma abordagem micromecânica utilizando critérios locais. / Burst pressure prediction of gas and oil pipelines with planar defects incorporating J-R resistance curves: A micromechanics approach using local criteria.Dotta, Fernando 22 June 2006 (has links)
Este estudo estende a abordagem micromecânica baseada em células computacionais e a abordagem baseada em deformação utilizando o critério de CTOA para descrever extensão dúctil de trincas longitudinais em dutos de aços de elevada tenacidade sob alta pressão. Ensaios laboratoriais realizados em aços API 5L X60 e X70 utilizando corpos-de-prova padronizados de fratura com trinca profunda, produzem os resultados necessários para medir as curvas de resistência à propagação de trincas e calibrar os parâmetros dos modelos de Gurson e CTOA para estes materiais. O foco central deste trabalho é a aplicação da metodologia de células computacionais e o critério de CTOA para prever as pressões de colapso medidas experimentalmente em dutos de paredes finas contendo trincas longitudinais. O programa experimental inclui espécimes pré-trincados com 508 mm (20") e 219 mm (8 5/8") com diferentes profundidades de trincas. Foram conduzidas análises de elementos finitos, sob estado plano de deformações e no contexto 3D pleno utilizando modelos detalhados dos dutos para descrever a extensão de trinca com o incremento de pressão. As simulações numéricas demonstram a eficiência e limitações de ambas as abordagens para descrever a resposta de crescimento de dúctil e prever a pressão de colapso para os dutos testados. Enquanto o critério de CTOA ainda parece ter limitada aplicabilidade para prever o comportamento dúctil dos dutos, a previsão da resposta dúctil do dutos pré-trincados utilizando o modelo de células computacionais mostrou boa concordância com as pressões de colapso medidas experimentalmente. / This study extends a micromechanics approach based upon the computational cell methodology incorporating the Gurson model and a deformation-based approach using the CTOA criterion to describe ductile crack extension of longitudinal crack-like defects in high pressure pipeline steels. Laboratory testing of API 5L X60 and X70 steels at room temperature using standard, deeply cracked fracture specimens provides the data needed to measure the crack growth resistance curve and to calibrate the Gurson and the CTOA parameters for these materials. A central focus of the paper is the application of the cell methodology and the CTOA criterion to predict experimentally measured burst pressures for thin-walled gas pipeline containing longitudinal cracks. The experimental program includes precracked pipe specimens with 508 mm (20 inches) O.D. and 219 mm (8 5/8 inches) O.D. with varying crack depth to thickness ratios (at). Plane-strain and full 3D computations are conducted on detailed finite element models for the pipe specimens to describe crack extension with increased pressure. The numerical simulations demonstrate the effectiveness and limitations of both approaches to describe crack growth response and to predict the burst pressure for the tested pipes. While the CTOA criterion still appears to have limited applicability to predict ductile cracking behavior for the pipe specimens, the cell model predictions of the ductile response for the precracked pipes show good agreement with experimentally measured burst pressures.
|
467 |
Compressão de dados ambientais em redes de sensores sem fio usando código de HuffmanMaciel, Marcos Costa 21 February 2013 (has links)
Fundação do Amparo à Pesquisa do Estado do Amazonas (FAPEAM) / Nesta dissertação de mestrado é apresentada uma proposta de um método simples de compressão de dados sem perda para Redes de Sensores sem Fio (RSSF). Este método é baseado numa codificação Huffman convencional aplicada a um conjunto de amostras de parâmetros monitorados que possuam uma forte correlação temporal, fazendo com que seja gerado um dicionário Huffman a partir dessas probabilidades e que possam ser utilizadas em outros conjuntos de parâmetros de mesma característica. Os resultados de simulação usando temperatura e umidade relativa mostram que este método supera alguns dos mais populares mecanismos de compressão projetados especificamente para RSSF. / In this masters thesis we present a lightweight lossless data compression method for wireless sensor networks(WSN). This method is based on a conventional Huffman coding applied to a sample set of monitored parameters that have a strong temporal correlation, so that a Huffman dictionary is generated from these probabilities, and which may be used in other sets of parameters with same characteristic. Simulations results using temperature and relative humidity measurements show that the proposed method outperforms popular compression mechanisms designed specifically for wireless sensor networks.
|
468 |
Sistema de plataformas de força e identificação de movimentos por processamento de imagem para aplicação em treinamento do equilíbrio baseado em biofeedback / A system based on force platforms and body movements detection by image processing for application in balance training with biofeedbackLavarda, Marcos Dinís 28 March 2016 (has links)
Parte da população mundial sofre com distúrbios relacionados ao controle muscular de membros superiores e inferiores que, em muitos casos, podem ter sua origem devido a interrupção da comunicação sensório-motora entre o cérebro e os grupos musculares. Estes fatores podem estar relacionados à idade, doenças neuro-degenerativas ou acidentes vasculares cerebrais (AVC). Dessa forma, devido ao gradativo envelhecimento da população, em função do aumento da expectativa de vida e consequentemente da demanda por tratamentos de reabilitação, diversos estudos da literatura utilizam equipamentos de biofeedback na reabilitação do controle muscular, não havendo, porém, uma ferramenta simples e unificada que permita a elaboração de protocolos motores para diversas patologias em uma única plataforma. Sendo assim, o objetivo deste trabalho é apresentar o desenvolvimento de uma ferramenta de biofeedback visual, baseada em plataformas de força para membros inferiores e aquisição de imagem para membros superiores. Este sistema conta com duas interfaces: a primeira, programável em alto nível, é destinada ao profissional da saúde para elaboração do treino motor conforme a necessidade do paciente; a segunda é a interface do jogo, ou serious game, com o qual o paciente interage realizando a série de atividades programadas em um jogo de exercícios, ou exergames. A proposta deste estudo é fornecer uma plataforma de reabilitação programável de acordo com a necessidade específica de cada paciente, mantendo características motivacionais e de interatividade, que proporcionem entretenimento associado às atividades, reduzindo assim a evasão dos tratamentos, que costumam ser realizados por longos períodos. Ainda, neste estudo foram apresentados alguns testes, aprovados pelo comitê de ética, com voluntários, em que é aplicado um protocolo motor a um grupo de jovens saudáveis e comparando os resultados com um grupo de voluntários idosos. Os resultados deste estudo foram obtidos a partir de duas análises: a primeira é interna à sessão, em tempo real, e diz respeito à pontuação dos voluntários no jogo; a segunda é externa à sessão, utiliza os dados armazenados ao longo de um teste estabilométrico e compara medidas posturográficas do grupo de jovens e idosos saudáveis. Ainda, para complementar a validação do equipamento desenvolvido, foi realizada uma comparação dos resultados das análises posturográficas obtidas, com os resultados obtidos a partir de um baropodômetro comercial. Os resultados demonstram que o sistema permite a obtenção da estimativa da estabilometria e atividades de serious games. / The cases of disorders related to upper and lower limbs control directly affect the population. These problems may have its origin due to interruption of sensorimotor communication between the brain and the muscle groups. These factors may be related to aging, neurodegenerative diseases or stroke. Thus, due to the gradual aging of the population, the increase in life expectancy and hence the demand for rehabilitation treatments, several studies in the literature are using biofeedback to rehabilitation of muscle control. However, there is no unified tool that allows the development of exercise protocols for several diseases in a single platform. The aim of this work is to present the development of a visual biofeedback tool, based on force platforms for lower limbs and image acquisition for upper limbs. This system has two interfaces: the first, programmable in high-level, is intended for health professionals to prepare the motor training as needed by the patient; the second is the serious game interface, with which the patient interacts performing the series of activities planned in an exercise games (exergames). The purpose of this study is to provide a programmable rehabilitation platform according to the specific needs of each patient, keeping motivational and interactive features that provide fun activities to reduce evasion of treatments, which are usually carried out for long periods. Moreover, this study shows some tests, approved by the Ethics Committee, with volunteers, applying an exercise protocol to a group of healthy young and comparing the results with a group of elderly volunteers. The results of this study are obtained from two experimental setups: the first is internal to the session in real time, and concerns the scores of volunteers in the game; the second is external to the session, uses the data stored over a stabilometry and compare posturographic data between control and study group. Furthermore, in order to complement the assessments of the developed system, the posturographic data is compared to those obtainded from a commercial baropodometer. Results show that the system is able to perform the estimative of the stabilometry and serious game activities.
|
469 |
Diferentes abordagens evolutivas aplicadas no processo de transcrição automática de partituras musicais em tablaturas / Different evolutionary approaches applied in the process of automatic transcription of music scores into tablaturesRamos, João Víctor 11 December 2015 (has links)
A tablatura é um formato de notação musical alternativo para instrumentos de corda. Ela contém a posição exata (corda e casa) que necessita ser tocada para produzir um som desejado. A conversão da notação musical padrão (partitura) para uma tablatura de violão, também conhecida como transcrição, não é um processo simplificado. A razão é que cada nota da notação musical padrão pode ser tocada em diferentes posições no braço do violão. Desta forma este problema pode ser classificada como um problema de otimização combinatório. Neste trabalho, foi empregado um estudo comparativo de diferentes algoritmos: A*, algoritmos genéticos (AG), algoritmos genéticos com uso de subpopulações (AG-SP), otimização por colônia de formigas (ACO), e evolução diferencial (ED). Heurísticas baseadas nas buscas locais 2-opt e 3-opt para as abordagens AG, AG-SP e ED também foram inclusas. Os resultados experimentais com um conjunto de dados de 87 músicas monofônicas demonstraram que os algoritmos ACO, AG-SP 2-opt e AG 2-opt apresentaram os melhores resultados. Por fim, cada abordagem foi estatisticamente comparada utilizando o teste ANOVA em conjunto com o pós-teste de Tukey (Tukey post hoc), onde as análises demonstraram que há diferenças significativas entre os algoritmos avaliados. / A tablature is an alternative music notation format for string instruments. It contains the exact position (string and fret) witch needs to be played to produce the desired sound. The conversion of the musical staff notation (sheet music) to a guitar tablature, also known as transcription, is not a straightforward process. The reason is that each note on the music notation format can be played in different positions of the guitar fretboard. So this problem can be classified as a combinatorial optimization problem. In this work, we have employed a comparative study of different algorithms: A*, genetic algorithms (AG), genetic algorithms with use of subpopulations (AG-SP), ant colony optimization (ACO) and differential evolution (ED). I was also included heuristics based on local search 2-opt and 3-opt in the aproaches AG, AG-SP and ED. The experimental results with a dataset of 87 monophonic musics indicated that the approaches ACO, AG-SP 2-opt and AG 2-opt obtained the best results. Finally, each approach were statistically compared using the ANOVA with the Tukey post hoc, where the analysis indicated that there are significant differences between the evaluated algorithms.
|
470 |
Eleição de líder com qualidade de serviço para o modelo falha-e-recuperação / A leader election algorithm with quality of service for the crash-recovery failure modelReis, Vinícius Angiolucci 05 May 2017 (has links)
Submitted by Milena Rubi (milenarubi@ufscar.br) on 2017-10-03T18:36:29Z
No. of bitstreams: 1
REIS_Vinicius-2017.pdf: 1220818 bytes, checksum: 22e195232fbe4af89ae5ed34520da9b8 (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2017-10-03T18:36:40Z (GMT) No. of bitstreams: 1
REIS_Vinicius-2017.pdf: 1220818 bytes, checksum: 22e195232fbe4af89ae5ed34520da9b8 (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2017-10-03T18:36:49Z (GMT) No. of bitstreams: 1
REIS_Vinicius-2017.pdf: 1220818 bytes, checksum: 22e195232fbe4af89ae5ed34520da9b8 (MD5) / Made available in DSpace on 2017-10-03T18:36:56Z (GMT). No. of bitstreams: 1
REIS_Vinicius-2017.pdf: 1220818 bytes, checksum: 22e195232fbe4af89ae5ed34520da9b8 (MD5)
Previous issue date: 2017-05-05 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / A distributed system is a set of processes and links that is desgined to provide computing power and data persistency, even on the presence of failures. To encapsulate the abstraction of time and to determine which processes have currently failed, these distributed systems are based on unreliable failure detectors, which in its turn are used as a leader election service. Many works are dedicated to analyze the quality of service (QoS) of failure detectors, but a few of them has analyzed the QoS of a leader election algorithm. In this work, we present the NFD-L leader election algorithm, designed to work on crash-recovery distributed systems and to follow the QoS specification defined by Chen, Toueg e Aguilera (2002). We used NFD-L to elect Paxos coordinators for a replication framework and compared the observed QoS for NFD-L with the behavior of the framework native leader election algorithm that is not designed to explicitly meet any QoS requirement. / Um dos objetivos de um sistema distribuído é prover poder computacional e persistência de dados mesmo na presença de falhas de um subconjunto de enlaces e processos. Para determinar quais são os processos falhos deste sistema e abstrair o conceito de tempo, estes sistemas utilizam os serviços de um detector de falhas não confiável, encapsulado em um algoritmo de eleição de líder. Embora a literatura sobre a qualidade de serviço (QoS) oferecida por detectores de falhas seja abundante, ela é escassa quando se trata da QoS oferecida por algoritmos de eleição de líder. Neste trabalho propomos um algoritmo de eleição de líder para o modelo falha-e-recuperação denominado NFD-L, que segue as especificações de QoS originalmente apresentadas por Chen, Toueg e Aguilera (2002). Utilizamos NFD-L em uma aplicação para replicação, como mecanismo de eleição de coordenador para Paxos e apresentamos uma análise da QoS observada, comparando o seu comportamento com um algoritmo de eleição de líder que não foi projetado explicitamente para prover garantias de QoS.
|
Page generated in 0.6089 seconds