• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 538
  • 36
  • 5
  • 2
  • Tagged with
  • 584
  • 161
  • 129
  • 99
  • 99
  • 82
  • 80
  • 73
  • 71
  • 57
  • 57
  • 55
  • 51
  • 47
  • 45
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
461

Avaliação comparativa entre técnicas de programação defensiva aplicadas a um sistema crítico simulado. / Comparative evaluation among defensive programming techniques applied in a critical system simulated.

Alex Ander Javarotti Zumalde 05 May 2011 (has links)
A introdução de software em sistemas de aplicações críticas traz consigo questões relacionadas à segurança (safety) que, durante muito tempo recaíram predominantemente sobre o desenvolvimento do hardware que compunha tais sistemas. Atualmente, padrões relacionados à segurança de software avaliam qualitativamente o impacto do seu uso sobre sistemas suscetíveis a falhas de natureza randômica. A pesquisa aqui desenvolvida visa, em complemento a outras investigações já realizadas, avaliar quantitativamente diversas técnicas de programação defensiva em função de sua representatividade no quesito segurança de sistemas de aplicação crítica tolerantes a erros. Como objetivo essencial, buscou-se avaliar o comportamento adquirido por um sistema tolerante a erros quando submetido a um processo de injeção de falhas por software. A tolerância a erros do sistema de aplicação crítica em estudo é alcançada, através de técnicas de programação defensiva aplicadas ao software original. Foram aplicadas diversas técnicas de programação defensiva e diversas combinações entre elas, de modo que foi possível avaliar quantitativamente e identificar possíveis padrões de níveis de segurança adquiridos em cada caso. / The introduction of software systems for critical applications raises safety issues that have long fell predominantly on the development of the hardware composing such systems. Currently, standards related to safety software qualitatively assess the impact of their use on systems sensitive to random errors. The research developed here seeks, in addition to other previous investigations, to quantitatively evaluate different techniques of defensive programming in function of their safety level in fault-tolerant safety critical systems. As a key objective, we sought to evaluate the behavior acquired by a fault-tolerant system when subjected to a software fault injection process. The fault-tolerance system, in a typical critical application under study, is achieved through the application of defensive programming techniques over the original software. Many defensive programming techniques and various combinations among them were applied, hence making it possible to quantitatively assess and identify possible patterns of safety levels acquired in each case.
462

Modelo para avaliação da qualidade de projetos de planos de continuidade de negócios aplicados a sistemas computacionais. / Business continuity plans projects applied to computer systems quality evaluation model.

Wagner Ludescher 26 May 2011 (has links)
Diante da constante necessidade de funcionamento ininterrupto dos sistemas computacionais, das mais diversas organizações, é imperativo que existam meios de continuidade dos negócios e recuperação de desastres implantados, testados e prontos para serem invocados. Diante disso, torna-se essencial a existência de uma maneira de avaliar se as informações, os procedimentos e o nível do conhecimento dos colaboradores da organização estão adequados para enfrentar uma ocorrência inesperada e devastadora no ambiente computacional da organização. A presente tese propõe um modelo hierárquico para se representar e avaliar a qualidade dos Projetos de Planos de Continuidade de Negócios (PPCN) aplicados a sistemas computacionais. Este modelo apresenta o mapeamento das principais características que esses planos devem possuir, de acordo com as principais normas relativas ao tema (BS 25999, ABNT NBR ISO/IEC 27001 e ABNT NBR ISO/IEC 27002), as experiências de especialistas da área e dados reais dos usuários dos PPCNs obtidos por meio da utilização de questionários. É proposto neste trabalho, também, um Índice de Qualidade (IQ) para os PPCNs que permite a comparação de um PPCN existente com um PPCN ideal, identificando-se os pontos fracos nele existentes e munindo a organização com informações para a busca de soluções que resultarão na melhoria do PPCN atual. / Given the need for computer systems uninterrupted operation, for the most different organizations, it is imperative that business continuity and disaster recovery plans be already in place, tested and ready to be invoked. Given this, it is essential for there being a way to assess whether the information, procedures and organizations employees knowledge level are adequate to deal with an unexpected and devastating event in the organization\'s computing environment. This thesis proposes a hierarchical model to represent and assess the organizations computer systems Business Continuity Plan Project (BCPP) quality. This model maps the main features these plans should have, in accordance with the main standards related to this area (BS 25999, ISO/IEC 27001 and ISO/IEC 27002), specialists experience and real data from BCPPs users obtained from questionnaires. As a complementary proposal, a BCPP Quality Index (QI) is suggested, which will allow organizations to compare their existing BCPP against an ideal BCPP, identifying the gaps between these plans and providing the organization with information for seeking solutions that will result in the improvement of current BCPP.
463

O ensino-aprendizagem de matemática financeira utilizando ferramentas computacionais: uma abordagem construcionista

Leme, Nelson Dias 17 October 2007 (has links)
Made available in DSpace on 2016-04-27T16:58:29Z (GMT). No. of bitstreams: 1 Nelson Dias Leme.pdf: 5327513 bytes, checksum: 4de15af5883da758e73a3351fa8b55d1 (MD5) Previous issue date: 2007-10-17 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This work aims to contribute to the investigation of the impact of a constructionist approach to the use of electronic spreadsheets on the teaching and learning of topics related to Financial Mathematics. To this end, a teaching experiment was designed which involved students in the construction of their own formulas, using spreadsheets, for calculating interests and future values of investments, under regimes of both simple and compound rates. The constructionist conceptions of Papert provided a theoretical base for the development of the activities. The methodology adopted for the study was modelled according to the design-based research methodologies. Two phases of experimentation were elaborated. The first phase involves students initiating their studies in Financial Mathematics in working on a set of activities with spreadsheets, and then completing a series of paper and pencil tasks. In the second phase, to provide a basis for comparing the approach adopted with the more usual practice of giving students previously defined formulae for calculating interest, the paper and pencil task were also administered to a group of students who has previously studied Financial Mathematics. The analysis of data followed the cycle of description-execution-reflectiondebugging- description described by Valente. According to these analyses, the formulae constructed by the students and implemented on the computer served as computational models providing feedback and enabling simulations of various possible situations. This in turn allowed students to engage in a cycle of expression, evaluation and reflection of the mathematical domain in question / O objetivo deste trabalho é colaborar na investigação do impacto da abordagem construcionista e das potencialidades das planilhas eletrônicas no ensino-aprendizagem de conteúdos da Matemática Financeira. Para alcançar o objetivo proposto, foi elaborado um experimento de ensino envolvendo alunos na construção de suas próprias fórmulas, usando planilhas eletrônicas, para o cálculo dos juros e do montante, nos regimes dos juros simples e compostos. Para o desenvolvimento das atividades buscamos referência na concepção construcionista de Seymour Papert (1994). A metodologia empregada neste trabalho está baseada no design-based research methodologies . Metodologia de Pesquisa Baseada em Design. Foram desenvolvidas duas fases de experimentação. A primeira fase envolveu um grupo de alunos iniciantes seus em estudos de Matemática Financeira, em um conjunto de atividades com planilhas eletrônicas e, em uma série de tarefas em papel e lápis. Na segunda fase para comparar com o desempenho do primeiro grupo, foram aplicadas as atividades com papel e lápis a um grupo de alunos que já concluiu seus estudos de Matemática Financeira e que vivenciou uma abordagem de ensino onde as fórmulas não foram construídas. A análise empregou o ciclo descrição-execução-reflexão-depuraçãodescrição de Valente (2002). Segundo nossas análises, as fórmulas deduzidas e implementadas no computador são modelos computacionais que possibilitam o feedback e a simulação, favorecendo o envolvimento dos aprendizes no ciclo básico de expressão, avaliação e reflexão sobre o domínio considerado
464

Análise de jogos digitais infantis para o ensino e aprendizagem de História das Artes

Vieira, Izana Weber 28 November 2014 (has links)
Made available in DSpace on 2016-04-29T14:23:33Z (GMT). No. of bitstreams: 1 Izana Weber Vieira.pdf: 3774125 bytes, checksum: a82d5a0ccd1b4cad1f3af12ac55aa72a (MD5) Previous issue date: 2014-11-28 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Contemporary technologies favor the process of teaching and learning, construction of knowledge and awareness. In this proposal we are considering the diversity of media that today converge to a structured technological base through digital resources. Contribute to progress towards digital and social inclusion, in the areas of teaching and learning, production and distribution of knowledge. This research aims to contribute to the advancement of academic, educational, and social studies that take into account the interactive products and computer systems that allowed intense cultural exchange and reflection on specific themes: arts, sciences, games and new technologies. Providing significant findings in relation to the processes of teaching and learning and the production and distribution of knowledge on social networks and through identifying the possibilities of use of online interactive games as focused on the teaching of art history educational tools the child of 08 to 10. We draw dialogues with researchers such as Lev S. Vygotsky, Charles S. Peirce, Ana Mae Barbosa, Lucia Santaella and Hermes Renato Hildebrand, addressing issues related to the teaching and learning of children using games for educational development. As a result, the research proposes the analysis of educational games available on the internet and the modification of the game "face to face" that presents the possibility of generating educational content in visual arts, in addition to the development of a suitable prototype game "cara a cara" to through print and digital / As tecnologias contemporâneas favorecem o processo de ensino e aprendizagem, de construção de conhecimento e de tomada de consciência. Nesta proposta, estamos considerando a diversidade dos meios de comunicação que, hoje, convergem para uma base tecnológica estruturada, por meio dos recursos digitais. Também se pretende contribuir para o avanço no sentido da inclusão digital e social, nas áreas de ensino e aprendizagem, produção e distribuição de conhecimento. Esta pesquisa propõe a elaboração de estudos acadêmicos e educacionais que levem em conta os produtos interativos com sistemas computacionais, os quais possibilitaram intensas trocas culturais e reflexão sobre temáticas específicas nas áreas de artes, jogos e novas tecnologias. O estudo busca refletir sobre pontos significativos em relação aos processos de ensino e aprendizagem e da produção e distribuição de conhecimento, por meio da identificação de possibilidades de uso dos jogos interativos modificados, como ferramentas educacionais voltadas para o ensino de História das Artes de crianças de 08 aos 10 anos. Para isso, traçamos diálogos com pesquisadores, como: Lev S. Vygotsky, Charles S. Peirce, Ana Mae Barbosa, Lucia Santaella e Hermes Renato Hildebrand, abordando aspectos relativos ao ensino e à aprendizagem de crianças que utilizam jogos educacionais para seu desenvolvimento. Como resultado, a pesquisa propõe a análise de jogos educacionais disponíveis na internet e a modificação do jogo cara a cara que apresenta possibilidade de gerar conteúdo educacional em artes visuais, além da elaboração de um protótipo adaptado do jogo cara a cara para meio impresso e digital
465

Grid computing e cloud computing: análise dos impactos sociais, ambientais e econômicos da colaboração por meio do compartilhamento de recursos computacionais / Grid Computing and Cloud Computing: analysis of the social,environmental and economic impacts of the collaboration through the resources sharing.

Silva, Diogo Cortiz da 01 October 2009 (has links)
Made available in DSpace on 2016-04-29T14:23:52Z (GMT). No. of bitstreams: 1 Diogo Cortiz Silva.pdf: 1671903 bytes, checksum: ee5719b8fbbb5e1d9a7de4b35b463f43 (MD5) Previous issue date: 2009-10-01 / This research debates the excess of worldwide available computational resources with exceeded processing capacity and also how the utilization of the sharing and collaboration concepts influence the integration of those devices to constitute an economic environment with high processing capacity. Currently, it is possible to find a great amount of personal computers, servers and others devices that show high level of idleness, while they could be being used for another purpose, once there are many scientific researches, collaborative projects and digital inclusion programs that are short of resources to reach theirs objectives. The Grid Computing technology was conceived as an alternative to integrate geographically distributed resources pertaining to different domains, enabling a decentralized computational environment. The main objective of this research is to analyze how this technology can generate benefits to the social, environment and economic contexts. In the social approach, Grid Computing stimulates the collaboration and the sharing of computational resources and applications, as well as providing features that are very useful for data transparency between many domains. Those characteristics are also important for the scientific inclusion. The first Case Study approaches the importance of Grid Computing for the collaborative tasks found in the scientific project of the Large Hadron Collider (LHC), which allowed many research institutions and universities around the world to build a shared computational environment of large scale for processing the data generated by LHC. In the environment context, this technology also presents some characteristics to make the computational resources more energy efficient increasing the use of its computational capacities. The second Case Study analyzes the data related to the amount of personal computers connected in the Internet and how to implement Grid Computing based on the Volunteer Computing model to make those computers more productive with no relevant impact in the energy consumption. This research also highlights the synergy between Grid Computing and Cloud Computing, its financial advantages and the generation of new business models based on the commercialization of platform and software as a service in the Internet. The third Case Study analyzes a Cloud Computing model that delivers computational resources (such as a whole server) as a service, enabling a scenario where companies and people could contract a computational environment with a quick provisioning with no need to purchase equipments and to invest in implementation projects. Finally, it is possible to appoint both technologies as relevant trends for the coming years, which can be an influence to generate new software models, platforms and services focused in the Internet / Esta dissertação discute o excesso de recursos computacionais disponíveis mundialmente com capacidade de processamento excedente e também debate como o emprego dos conceitos de compartilhamento e colaboração influenciam a integração desses dispositivos para constituir um ambiente econômico e com alta capacidade de processamento. Atualmente, é possível encontrar uma grande quantidade de computadores pessoais, servidores, entre outros dispositivos, que apresentam elevados níveis de ociosidade. Estes poderiam ser utilizados para outra finalidade, haja vista pesquisas científicas, projetos colaborativos e programas de inclusão digital carentes de recursos para atingirem seus objetivos. A tecnologia de Grid Computing, também chamada de Computação em Grade, foi concebida como uma alternativa para integrar recursos distribuídos geograficamente e pertencentes a diferentes domínios, habilitando um ambiente computacional abrangente e descentralizado. O objetivo desta dissertação é analisar como essa tecnologia, baseada no conceito de colaboração, pode gerar benefícios no contexto social, ambiental e econômico. No âmbito social, Grid Computing estimula o trabalho colaborativo e o compartilhamento de recursos computacionais e aplicacões, além de prover funcionalidades que auxiliam na transparência de dados entre diversos domínios. Essas características também são importantes para a inclusão científica. O primeiro Estudo de Caso aborda a importância de Grid Computing para o projeto científico do Superacelerador de Partículas (LHC). No contexto ambiental, essa tecnologia também apresenta características para tornar os recursos computacionais mais eficientes em relação ao consumo de energia através do aumento do uso de sua capacidade computacional. O segundo Estudo de Caso aborda dados em relação à quantidade de máquinas conectadas à Internet e como uma aplicação de Grid Computing, no modelo de Computação Voluntária, pode tornálas mais produtivas e, consequentemente, mais eficientes no consumo de recursos energéticos. Já no contexto econômico, é de importância destacar a sinergia existente entre Grid Computing e Cloud Computing, as suas vantagens financeiras e a geração de novos modelos de negócios através da comercialização de plataformas e softwares como serviços na Internet, e não mais como produtos. O terceiro Estudo de Caso aborda um modelo de Cloud Computing que disponibiliza recursos computacionais em forma de serviços, permitindo que empresas e pessoas físicas possam contratar um ambiente computacional de rápido provisionamento, sem a necessidade de adquirir equipamentos e investir em projetos de implementação. Por fim, ambas as tecnologias são apontadas como grandes tendências para os próximos anos, as quais influenciarão a geração de novos modelos de softwares, plataformas e serviços voltados à Internet
466

Previsão da pressão de colapso em dutos para transporte de gás e petróleo contendo defeitos planares incorporando curvas de resistência J-R: uma abordagem micromecânica utilizando critérios locais. / Burst pressure prediction of gas and oil pipelines with planar defects incorporating J-R resistance curves: A micromechanics approach using local criteria.

Dotta, Fernando 22 June 2006 (has links)
Este estudo estende a abordagem micromecânica baseada em células computacionais e a abordagem baseada em deformação utilizando o critério de CTOA para descrever extensão dúctil de trincas longitudinais em dutos de aços de elevada tenacidade sob alta pressão. Ensaios laboratoriais realizados em aços API 5L X60 e X70 utilizando corpos-de-prova padronizados de fratura com trinca profunda, produzem os resultados necessários para medir as curvas de resistência à propagação de trincas e calibrar os parâmetros dos modelos de Gurson e CTOA para estes materiais. O foco central deste trabalho é a aplicação da metodologia de células computacionais e o critério de CTOA para prever as pressões de colapso medidas experimentalmente em dutos de paredes finas contendo trincas longitudinais. O programa experimental inclui espécimes pré-trincados com 508 mm (20") e 219 mm (8 5/8") com diferentes profundidades de trincas. Foram conduzidas análises de elementos finitos, sob estado plano de deformações e no contexto 3D pleno utilizando modelos detalhados dos dutos para descrever a extensão de trinca com o incremento de pressão. As simulações numéricas demonstram a eficiência e limitações de ambas as abordagens para descrever a resposta de crescimento de dúctil e prever a pressão de colapso para os dutos testados. Enquanto o critério de CTOA ainda parece ter limitada aplicabilidade para prever o comportamento dúctil dos dutos, a previsão da resposta dúctil do dutos pré-trincados utilizando o modelo de células computacionais mostrou boa concordância com as pressões de colapso medidas experimentalmente. / This study extends a micromechanics approach based upon the computational cell methodology incorporating the Gurson model and a deformation-based approach using the CTOA criterion to describe ductile crack extension of longitudinal crack-like defects in high pressure pipeline steels. Laboratory testing of API 5L X60 and X70 steels at room temperature using standard, deeply cracked fracture specimens provides the data needed to measure the crack growth resistance curve and to calibrate the Gurson and the CTOA parameters for these materials. A central focus of the paper is the application of the cell methodology and the CTOA criterion to predict experimentally measured burst pressures for thin-walled gas pipeline containing longitudinal cracks. The experimental program includes precracked pipe specimens with 508 mm (20 inches) O.D. and 219 mm (8 5/8 inches) O.D. with varying crack depth to thickness ratios (at). Plane-strain and full 3D computations are conducted on detailed finite element models for the pipe specimens to describe crack extension with increased pressure. The numerical simulations demonstrate the effectiveness and limitations of both approaches to describe crack growth response and to predict the burst pressure for the tested pipes. While the CTOA criterion still appears to have limited applicability to predict ductile cracking behavior for the pipe specimens, the cell model predictions of the ductile response for the precracked pipes show good agreement with experimentally measured burst pressures.
467

Compressão de dados ambientais em redes de sensores sem fio usando código de Huffman

Maciel, Marcos Costa 21 February 2013 (has links)
Fundação do Amparo à Pesquisa do Estado do Amazonas (FAPEAM) / Nesta dissertação de mestrado é apresentada uma proposta de um método simples de compressão de dados sem perda para Redes de Sensores sem Fio (RSSF). Este método é baseado numa codificação Huffman convencional aplicada a um conjunto de amostras de parâmetros monitorados que possuam uma forte correlação temporal, fazendo com que seja gerado um dicionário Huffman a partir dessas probabilidades e que possam ser utilizadas em outros conjuntos de parâmetros de mesma característica. Os resultados de simulação usando temperatura e umidade relativa mostram que este método supera alguns dos mais populares mecanismos de compressão projetados especificamente para RSSF. / In this masters thesis we present a lightweight lossless data compression method for wireless sensor networks(WSN). This method is based on a conventional Huffman coding applied to a sample set of monitored parameters that have a strong temporal correlation, so that a Huffman dictionary is generated from these probabilities, and which may be used in other sets of parameters with same characteristic. Simulations results using temperature and relative humidity measurements show that the proposed method outperforms popular compression mechanisms designed specifically for wireless sensor networks.
468

Sistema de plataformas de força e identificação de movimentos por processamento de imagem para aplicação em treinamento do equilíbrio baseado em biofeedback / A system based on force platforms and body movements detection by image processing for application in balance training with biofeedback

Lavarda, Marcos Dinís 28 March 2016 (has links)
Parte da população mundial sofre com distúrbios relacionados ao controle muscular de membros superiores e inferiores que, em muitos casos, podem ter sua origem devido a interrupção da comunicação sensório-motora entre o cérebro e os grupos musculares. Estes fatores podem estar relacionados à idade, doenças neuro-degenerativas ou acidentes vasculares cerebrais (AVC). Dessa forma, devido ao gradativo envelhecimento da população, em função do aumento da expectativa de vida e consequentemente da demanda por tratamentos de reabilitação, diversos estudos da literatura utilizam equipamentos de biofeedback na reabilitação do controle muscular, não havendo, porém, uma ferramenta simples e unificada que permita a elaboração de protocolos motores para diversas patologias em uma única plataforma. Sendo assim, o objetivo deste trabalho é apresentar o desenvolvimento de uma ferramenta de biofeedback visual, baseada em plataformas de força para membros inferiores e aquisição de imagem para membros superiores. Este sistema conta com duas interfaces: a primeira, programável em alto nível, é destinada ao profissional da saúde para elaboração do treino motor conforme a necessidade do paciente; a segunda é a interface do jogo, ou serious game, com o qual o paciente interage realizando a série de atividades programadas em um jogo de exercícios, ou exergames. A proposta deste estudo é fornecer uma plataforma de reabilitação programável de acordo com a necessidade específica de cada paciente, mantendo características motivacionais e de interatividade, que proporcionem entretenimento associado às atividades, reduzindo assim a evasão dos tratamentos, que costumam ser realizados por longos períodos. Ainda, neste estudo foram apresentados alguns testes, aprovados pelo comitê de ética, com voluntários, em que é aplicado um protocolo motor a um grupo de jovens saudáveis e comparando os resultados com um grupo de voluntários idosos. Os resultados deste estudo foram obtidos a partir de duas análises: a primeira é interna à sessão, em tempo real, e diz respeito à pontuação dos voluntários no jogo; a segunda é externa à sessão, utiliza os dados armazenados ao longo de um teste estabilométrico e compara medidas posturográficas do grupo de jovens e idosos saudáveis. Ainda, para complementar a validação do equipamento desenvolvido, foi realizada uma comparação dos resultados das análises posturográficas obtidas, com os resultados obtidos a partir de um baropodômetro comercial. Os resultados demonstram que o sistema permite a obtenção da estimativa da estabilometria e atividades de serious games. / The cases of disorders related to upper and lower limbs control directly affect the population. These problems may have its origin due to interruption of sensorimotor communication between the brain and the muscle groups. These factors may be related to aging, neurodegenerative diseases or stroke. Thus, due to the gradual aging of the population, the increase in life expectancy and hence the demand for rehabilitation treatments, several studies in the literature are using biofeedback to rehabilitation of muscle control. However, there is no unified tool that allows the development of exercise protocols for several diseases in a single platform. The aim of this work is to present the development of a visual biofeedback tool, based on force platforms for lower limbs and image acquisition for upper limbs. This system has two interfaces: the first, programmable in high-level, is intended for health professionals to prepare the motor training as needed by the patient; the second is the serious game interface, with which the patient interacts performing the series of activities planned in an exercise games (exergames). The purpose of this study is to provide a programmable rehabilitation platform according to the specific needs of each patient, keeping motivational and interactive features that provide fun activities to reduce evasion of treatments, which are usually carried out for long periods. Moreover, this study shows some tests, approved by the Ethics Committee, with volunteers, applying an exercise protocol to a group of healthy young and comparing the results with a group of elderly volunteers. The results of this study are obtained from two experimental setups: the first is internal to the session in real time, and concerns the scores of volunteers in the game; the second is external to the session, uses the data stored over a stabilometry and compare posturographic data between control and study group. Furthermore, in order to complement the assessments of the developed system, the posturographic data is compared to those obtainded from a commercial baropodometer. Results show that the system is able to perform the estimative of the stabilometry and serious game activities.
469

Diferentes abordagens evolutivas aplicadas no processo de transcrição automática de partituras musicais em tablaturas / Different evolutionary approaches applied in the process of automatic transcription of music scores into tablatures

Ramos, João Víctor 11 December 2015 (has links)
A tablatura é um formato de notação musical alternativo para instrumentos de corda. Ela contém a posição exata (corda e casa) que necessita ser tocada para produzir um som desejado. A conversão da notação musical padrão (partitura) para uma tablatura de violão, também conhecida como transcrição, não é um processo simplificado. A razão é que cada nota da notação musical padrão pode ser tocada em diferentes posições no braço do violão. Desta forma este problema pode ser classificada como um problema de otimização combinatório. Neste trabalho, foi empregado um estudo comparativo de diferentes algoritmos: A*, algoritmos genéticos (AG), algoritmos genéticos com uso de subpopulações (AG-SP), otimização por colônia de formigas (ACO), e evolução diferencial (ED). Heurísticas baseadas nas buscas locais 2-opt e 3-opt para as abordagens AG, AG-SP e ED também foram inclusas. Os resultados experimentais com um conjunto de dados de 87 músicas monofônicas demonstraram que os algoritmos ACO, AG-SP 2-opt e AG 2-opt apresentaram os melhores resultados. Por fim, cada abordagem foi estatisticamente comparada utilizando o teste ANOVA em conjunto com o pós-teste de Tukey (Tukey post hoc), onde as análises demonstraram que há diferenças significativas entre os algoritmos avaliados. / A tablature is an alternative music notation format for string instruments. It contains the exact position (string and fret) witch needs to be played to produce the desired sound. The conversion of the musical staff notation (sheet music) to a guitar tablature, also known as transcription, is not a straightforward process. The reason is that each note on the music notation format can be played in different positions of the guitar fretboard. So this problem can be classified as a combinatorial optimization problem. In this work, we have employed a comparative study of different algorithms: A*, genetic algorithms (AG), genetic algorithms with use of subpopulations (AG-SP), ant colony optimization (ACO) and differential evolution (ED). I was also included heuristics based on local search 2-opt and 3-opt in the aproaches AG, AG-SP and ED. The experimental results with a dataset of 87 monophonic musics indicated that the approaches ACO, AG-SP 2-opt and AG 2-opt obtained the best results. Finally, each approach were statistically compared using the ANOVA with the Tukey post hoc, where the analysis indicated that there are significant differences between the evaluated algorithms.
470

Eleição de líder com qualidade de serviço para o modelo falha-e-recuperação / A leader election algorithm with quality of service for the crash-recovery failure model

Reis, Vinícius Angiolucci 05 May 2017 (has links)
Submitted by Milena Rubi (milenarubi@ufscar.br) on 2017-10-03T18:36:29Z No. of bitstreams: 1 REIS_Vinicius-2017.pdf: 1220818 bytes, checksum: 22e195232fbe4af89ae5ed34520da9b8 (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2017-10-03T18:36:40Z (GMT) No. of bitstreams: 1 REIS_Vinicius-2017.pdf: 1220818 bytes, checksum: 22e195232fbe4af89ae5ed34520da9b8 (MD5) / Approved for entry into archive by Milena Rubi (milenarubi@ufscar.br) on 2017-10-03T18:36:49Z (GMT) No. of bitstreams: 1 REIS_Vinicius-2017.pdf: 1220818 bytes, checksum: 22e195232fbe4af89ae5ed34520da9b8 (MD5) / Made available in DSpace on 2017-10-03T18:36:56Z (GMT). No. of bitstreams: 1 REIS_Vinicius-2017.pdf: 1220818 bytes, checksum: 22e195232fbe4af89ae5ed34520da9b8 (MD5) Previous issue date: 2017-05-05 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / A distributed system is a set of processes and links that is desgined to provide computing power and data persistency, even on the presence of failures. To encapsulate the abstraction of time and to determine which processes have currently failed, these distributed systems are based on unreliable failure detectors, which in its turn are used as a leader election service. Many works are dedicated to analyze the quality of service (QoS) of failure detectors, but a few of them has analyzed the QoS of a leader election algorithm. In this work, we present the NFD-L leader election algorithm, designed to work on crash-recovery distributed systems and to follow the QoS specification defined by Chen, Toueg e Aguilera (2002). We used NFD-L to elect Paxos coordinators for a replication framework and compared the observed QoS for NFD-L with the behavior of the framework native leader election algorithm that is not designed to explicitly meet any QoS requirement. / Um dos objetivos de um sistema distribuído é prover poder computacional e persistência de dados mesmo na presença de falhas de um subconjunto de enlaces e processos. Para determinar quais são os processos falhos deste sistema e abstrair o conceito de tempo, estes sistemas utilizam os serviços de um detector de falhas não confiável, encapsulado em um algoritmo de eleição de líder. Embora a literatura sobre a qualidade de serviço (QoS) oferecida por detectores de falhas seja abundante, ela é escassa quando se trata da QoS oferecida por algoritmos de eleição de líder. Neste trabalho propomos um algoritmo de eleição de líder para o modelo falha-e-recuperação denominado NFD-L, que segue as especificações de QoS originalmente apresentadas por Chen, Toueg e Aguilera (2002). Utilizamos NFD-L em uma aplicação para replicação, como mecanismo de eleição de coordenador para Paxos e apresentamos uma análise da QoS observada, comparando o seu comportamento com um algoritmo de eleição de líder que não foi projetado explicitamente para prover garantias de QoS.

Page generated in 0.6089 seconds