• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6983
  • 499
  • 318
  • 283
  • 283
  • 279
  • 194
  • 89
  • 78
  • 78
  • 76
  • 42
  • 6
  • 5
  • 2
  • Tagged with
  • 7637
  • 2223
  • 1814
  • 1759
  • 1289
  • 1076
  • 964
  • 962
  • 960
  • 895
  • 881
  • 870
  • 841
  • 799
  • 792
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
501

Sistema de monitoramento de qualidade em serviços de telefonia IP

Vetter, Murilo January 2015 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2015. / Made available in DSpace on 2015-11-03T03:05:45Z (GMT). No. of bitstreams: 1 335777.pdf: 1851498 bytes, checksum: 3ecf19dc2dd62ac90a00ce1e2d32bd76 (MD5) Previous issue date: 2015 / A telefonia IP é um serviço consolidado que tem crescido de forma constante, impulsionada por suas diversas vantagens, como redução de custos, facilidade de integração com outros serviços, dentre muitas outras. No entanto, manter a qualidade deste serviço ainda é um desafio principalmente em locais de redes congestionadas. Como a telefonia é um serviço essencial para várias organizações, é fundamental manter as chamadas em níveis razoáveis de qualidade. Para tal, a qualidade oferecida pela telefonia IP deve ser constantemente monitorada de maneira a orientar as ações de novos investimentos e manutenção. Nesta direção, a presente dissertação propõe um sistema de monitoramento da qualidade fim-a-fim para os serviços de telefonia IP com base no pacote de relatórios de qualidade RTCP XR (Real Time Control Protocol - Extended Reports) e no protocolo de sinalização SIP (Session Initiation Protocol). Um caso de uso do sistema proposto, em um serviço de produção de telefonia IP de uma universidade, utilizando métricas objetivas e metodologias de monitoramento não intrusivas, demonstrou a efetividade e versatilidade do sistema proposto.<br> / Abstract : IP telephony is a consolidated service that has been growing steadily, driven by its various advantages, such as cost reduction, ease of integration with other services, among many others. However, maintaining the quality of this service is still a challenge especially in places of congested networks. As the telephony is an essential service for various organizations, it is essential to maintain the call quality at reasonable levels. To this end, the quality offered by IP telephony should be constantly monitored in order to guide the actions of new investments and maintenance. In this direction, this thesis proposes a quality end-to-end monitoring system for IP telephony services based on quality reporting package RTCP XR (Real Time Control Protocol - Extended Reports) and SIP signaling protocol (Session Initiation Protocol). A use case of the proposed system in an IP telephony production service of a university, using objective metrics and non-intrusive monitoring methodologies, demonstrated the effectiveness and versatility of the proposed system.
502

Desenvolvimento e avaliação de software para uso no acolhimento com classificação de risco em pediatria / Development and evaluation of software for use in hosting with risk classification in pediatrics

Felipe, Gilvan Ferreira 28 December 2016 (has links)
FELIPE, G. F. Desenvolvimento e avaliação de software para uso no acolhimento com classificação de risco em pediatria. 2016. 152 f. Tese (Doutorado em Enfermagem) - Faculdade de Farmácia, Odontologia e Enfermagem, Universidade Federal do Ceará, Fortaleza, 2016. / Submitted by Erika Fernandes (erikaleitefernandes@gmail.com) on 2017-04-24T12:53:12Z No. of bitstreams: 1 2016_tese_gffelipe.pdf: 8720448 bytes, checksum: 1a6f261493852226fb512ec577354b99 (MD5) / Approved for entry into archive by Erika Fernandes (erikaleitefernandes@gmail.com) on 2017-04-24T12:53:45Z (GMT) No. of bitstreams: 1 2016_tese_gffelipe.pdf: 8720448 bytes, checksum: 1a6f261493852226fb512ec577354b99 (MD5) / Made available in DSpace on 2017-04-24T12:53:45Z (GMT). No. of bitstreams: 1 2016_tese_gffelipe.pdf: 8720448 bytes, checksum: 1a6f261493852226fb512ec577354b99 (MD5) Previous issue date: 2016-12-28 / Risk classification (RC) is a relevant strategy for assessing and stratifying the risk and vulnerabilities of patients treated at emergency and emergency units, enabling to identify which cases require immediate assistance and which can wait for safe care. In addition, the recognition of technological evolution, especially in the computational field, stimulates the idea that the use of such technologies in the daily life of health services can contribute to improving the quality and safety of the service provided. The objective was to develop and evaluate a software about the process of RC in pediatrics. Methodological study developed in three stages: Step 1 - Software development; Step 2 - Evaluation of the technical quality and functional performance of the software through the analysis of the characteristics covered by ISO / IEC 25010, carried out by eight specialists in the area of informatics and 13 in the area of nursing; and Step 3 - Evaluation of the agreement of the software in relation to the printed protocol, performed by three nurses with experience in RC. Data analysis was performed using descriptive statistics using absolute and relative frequencies and inferential statistics using the Kendall coefficient of agreement (W), with the aid of Microsoft Office software Excel®, Statistical Package for Social Sciences (SPSS) version 20.0 and R. The ethical aspects were respected and the study was approved by the Research Ethics Committee of the Federal University of Ceará and received approval on opinion nº 1,327,959 / 2015 . For the development of the proposed software, we used the prescriptive process model of software engineering called Incremental Model, the language used for the development was CSharp (C #) and the database chosen was Microsoft® SQL Server® 2008 R2. The results obtained from the evaluation of the software developed for this study reveal that it was adequate in all characteristics analyzed and was indicated as very appropriate and / or completely appropriate by more than 70.0% of the evaluations of the specialists in computer science, as follows: functional adequacy - 100.0%; Reliability - 82.6%; Usability - 84.9%; Performance efficiency - 93.4%; Compatibility - 85.0%; Security - 91.7%; Maintainability - 95.0%; and portability - 87.5%, as well as by the nursing specialists: functional adequacy - 96.2%; Reliability - 88.5%; Usability - 98.7%; Performance efficiency - 96.2%; Compatibility - 98.1%; Security - 100.0%. The results of the risk classification generated by the use of the software, when compared to those generated from the use of the printed protocol, indicated a total agreement by two judges (W = 1,000; p <0.001) and very high agreement by another one (W = 0.992, p <0.001). The results allowed to conclude that the Software for ACCR in Pediatrics, developed in this study, was considered adequate in relation to technical quality and functional performance. In addition, the software presented high agreement in comparison with the printed protocol, currently used to perform the ACCR in the city of Fortaleza, evidencing its potential safety for the assistance of the nurses involved in conducting the RC in pediatrics. / O Acolhimento com Classificação de Risco (ACCR) é uma relevante estratégia para a avaliação e estratificação do risco e das vulnerabilidades de pacientes atendidos em unidades de urgência e emergência, possibilitando identificar quais casos necessitam de assistência imediata e quais podem aguardar atendimento com segurança. Além disso, o reconhecimento da evolução tecnológica, sobretudo em âmbito computacional, estimula a ideia de que o uso de tais tecnologias no cotidiano dos serviços de saúde pode contribuir para melhoria da qualidade e da segurança do serviço prestado. Objetivou-se desenvolver e avaliar um software acerca do processo de ACCR em pediatria. Estudo metodológico desenvolvido em três etapas: Etapa 1 – Desenvolvimento do software; Etapa 2 – Avaliação da qualidade técnica e do desempenho funcional do software por meio da análise das características abordadas pela ISO/IEC 25010, realizada por oito especialistas da área de informática e 13 da área de enfermagem; e Etapa 3 – Avaliação da concordância do software em relação ao protocolo impresso, realizada por três enfermeiros com experiência em ACCR. A análise dos dados obtidos foi realizada por meio de estatística descritiva, utilizando-se os valores de frequência absoluta e frequência relativa, e de estatística inferencial, por meio do uso do coeficiente de concordância de Kendall (W), com auxílio dos softwares Microsoft Office Excel®, Statistical Package for the Social Sciences (SPSS) versão 20.0 e R. Os aspectos éticos foram respeitados e o estudo foi aprovado pelo Comitê de Ética em Pesquisa da Universidade Federal do Ceará, tendo recebido aprovação no parecer nº 1.327.959/2015. Para desenvolvimento do software proposto, utilizou-se o modelo de processo prescritivo da engenharia de software chamado Modelo Incremental, a linguagem utilizada para o desenvolvimento foi a CSharp (C#) e o banco de dados escolhido para ser utilizado foi o Microsoft® SQL Server® 2008 R2. Os resultados alcançados a partir da avaliação do software desenvolvido para este estudo revelam que ele se mostrou adequado em todas as características analisadas, tendo sido indicado como muito apropriado e/ou completamente apropriado por mais de 70,0% das avaliações dos especialistas em informática, conforme segue: adequação funcional – 100,0%; confiabilidade – 82,6%; usabilidade – 84,9%; eficiência de desempenho – 93,4%; compatibilidade – 85,0%; segurança – 91,7%; manutenibilidade – 95.0%; e portabilidade – 87,5%, bem como pelos especialistas em enfermagem: adequação funcional – 96,2%; confiabilidade – 88,5%; usabilidade – 98,7%; eficiência de desempenho – 96,2%; compatibilidade – 98,1%; segurança – 100,0%. Os resultados da classificação de risco gerados com o uso do software, ao serem comparados com os gerados a partir do uso do protocolo impresso, indicaram concordância total em dois juízes (W=1,000; p<0,001) e concordância muito alta em outro (W=0,992; p<0,001). Os resultados permitiram concluir que o Software para ACCR em Pediatria, desenvolvido neste estudo, foi considerado adequado em relação à qualidade técnica e ao desempenho funcional. Além disso, o referido software apresentou elevada concordância em comparação com o Protocolo impresso, atualmente utilizado para a realização do ACCR no município de Fortaleza, evidenciando sua potencial segurança para o auxílio dos enfermeiros envolvidos na condução da classificação de risco em pediatria.
503

Códigos de barra e criptografia / Bar codes and cryptography

Lima, Aurélio Eugênio Aguiar de January 2014 (has links)
LIMA, Aurélio Eugênio Aguiar de. Códigos de barra e criptografia. 2014. 77 f. Dissertação (Mestrado em Matemática em Rede Nacional) - Centro de Ciências, Universidade Federal do Ceará, Fortaleza, 2014. / Submitted by Erivan Almeida (eneiro@bol.com.br) on 2014-08-22T17:58:12Z No. of bitstreams: 1 2014_dis_aealima.pdf: 17295382 bytes, checksum: 9384cff0c345b5378d38313001ecbbbe (MD5) / Approved for entry into archive by Rocilda Sales(rocilda@ufc.br) on 2014-08-27T13:51:46Z (GMT) No. of bitstreams: 1 2014_dis_aealima.pdf: 17295382 bytes, checksum: 9384cff0c345b5378d38313001ecbbbe (MD5) / Made available in DSpace on 2014-08-27T13:51:46Z (GMT). No. of bitstreams: 1 2014_dis_aealima.pdf: 17295382 bytes, checksum: 9384cff0c345b5378d38313001ecbbbe (MD5) Previous issue date: 2014 / WE will describe the emergence and development of the barcodes. We’ll explain how the UPC, EAN, ISBN and QR codes work. We will emphasize the EAN-13 – the most currently used-showing where and how this code can detect errors committed by human error. In addition, we make a study of cryptography, quoting the code of Caesar and the code block. We will also do a more detailed study of RSA encryption, exemplifying encoding and decoding. / Descreveremos o surgimento e o desenvolvimento dos códigos de barra. Explicaremos como funcionam os códigos UPC, EAN, ISBN e o QR Code. Enfatizaremos o EAN – 13 – o mais usado atualmente -, mostrando em que casos e como esse código consegue detectar erros cometidos por falha humana. Além disso, faremos um estudo da criptografia, citando o código de César e o código de blocos. Faremos também um estudo mais detalhado da criptografia RSA, exemplificando a codificação e a decodificação.
504

Uso de redes neurais artificiais como metamodelo na otimização por algoritmo PSO (particle swarm optimization') em problemas de mapeamento eletromagnético de ambientes

Travessa, Sheila Santisi January 2017 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Elétrica, Florianópolis, 2017. / Made available in DSpace on 2018-02-06T03:17:27Z (GMT). No. of bitstreams: 1 349767.pdf: 27218763 bytes, checksum: fcc7989ddd92ec48364937bfe9a83086 (MD5) Previous issue date: 2017 / Este trabalho se propõe a fazer uma análise de ferramentas de otimização e custo computacional através de um estudo de caso proposto por Grubisic (2012), que trata da otimização do posicionamento de antenas em sistemas de comunicação sem fio para ambientes interiores (indoor) por meio de meta-heurísticas populacionais associadas à Técnica de Traçado de Raios, em que algoritmos Genéticos (GA) e Otimizadores por Enxames de Partículas (PSO) foram as duas modalidades de meta-heurísticas utilizadas como ferramentas de otimização. A proposta desta tese baseou-se na utilização da técnica de traçado de raios quase 3D (RTQ3D) para produzir o valor dos campos eletromagnéticos iniciais e calcular a função de mérito (fitness) para 160 receptores de acordo com os possíveis posicionamentos de duas antenas a serem distribuídas no ambiente em questão. As variáveis do problema são compostas pelos valores dos campos magnéticos para os 160 receptores em função das posições das antenas das estações radiobase, que servem como dados de entrada para o algoritmo da Rede Neural Artificial, Perceptron multicamadas, com algoritmo de aprendizado backpropagation Real. Os valores dos campos magnéticos associados às posições das antenas por sua vez entram como valores a serem aprendidos pela rede, ou seja, o professor da RMLP. Após o aprendizado da Rede Neural Artificial, que é o metamodelo utilizado com o objetivo de realizar eficientemente os cálculos do otimizador, entra o otimizador por enxame de partículas (PSO) para efetuar o posicionamento ótimo das antenas com uma redução significativa no custo computacional. Por fim, um dos exemplos propostos por Grubisic (2012) foi implementado como estudo de caso desta pesquisa, utilizando essa nova estrutura de análise, PSO com RMLP, como metamodelo. Essa estrutura é bem recomendada para projetos eletromagnéticos, entretanto ainda não foi aplicada para esse tipo de análise. O objetivo principal seria a diminuição do custo computacional, que no caso em questão é bem significativo. Portanto, essa tese tem um caráter inédito em relação às ferramentas usadas e ao objetivo principal (redução do custo computacional). / Abstract : This research has proposed to do an analysis of optimization tools and computational cost using a case study proposed by Grubisic (2012), which addressed optimization of the antennas positioning in wireless communication systems for indoor environments through meta-population heuristics associated with ray tracing technique, in which algorithms Genetic (GA) and Optimizers for Swarms of particles (PSO) were the two types of meta-heuristics used as optimization tools. The purpose of this thesis was based on the use of almost 3D ray tracing technique (RTQ3D) to produce the value of the initial electromagnetic fields and calculating the merit function (fitness) to 160 receivers according to the possible placements of two antennas which are distributed in the environment in a matter. The problem variables consist of the values of the magnetic fields to the 160 receivers depending on the positions of the antennas of the access points, which serve as input data for the algorithm of Artificial Neural Network, multilayer perceptron with Real backpropagation learning algorithm. The problem variables consist of the values of 160 magnetic fields to 160 receivers on the basis of the positions of the antennas of the access points, which serve as input data for the algorithm of Artificial Neural Network, multilayer perceptron with backpropagation real learning algorithm. The values of the magnetic fields associated with the positions of the antennas in turn to input values to be learned by the network, or the teacher RMLP. After learning of Artificial Neural Network, which is the metamodel used in order to enable the calculation of the optimizer, with a lower computational cost, the optimizer particle swarm enters (PSO) to make the optimum positioning of the antennas with a significant reduction the computational cost. Finally, one of the examples proposed by Grubisic (2012) is implemented as a case study of this research using this new analysis structure, PSO using RMLP as metamodel. This structure is well recommended for electromagnetic designs, but has not been applied to this type of analysis. The main objective would be to reduce the computational cost, which in this case is significant. Therefore, this thesis has a unique character in relation to the tools used and the main objective (reducing the computational cost).
505

Uma estratégia para assegurar a confidencialidade de dados armazenados em nuvem / A Strategy to ensure confidentiality of data stores into cloud computing

Castelo Branco Júnior, Eliseu January 2017 (has links)
CASTELO BRANCO JÚNIOR, Eliseu. Uma estratégia para assegurar a confidencialidade de dados armazenados em nuvem. 2017. 210 f. Tese (Doutorado em Computação)- Universidade Federal do Ceará, Fortaleza, 2017. / Submitted by Weslayne Nunes de Sales (weslaynesales@ufc.br) on 2017-07-10T12:02:36Z No. of bitstreams: 1 2017_tese_ecastelobrancojunior.pdf: 3907960 bytes, checksum: 9f433822be136d071b072b730e8b7860 (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2017-07-10T12:39:03Z (GMT) No. of bitstreams: 1 2017_tese_ecastelobrancojunior.pdf: 3907960 bytes, checksum: 9f433822be136d071b072b730e8b7860 (MD5) / Made available in DSpace on 2017-07-10T12:39:03Z (GMT). No. of bitstreams: 1 2017_tese_ecastelobrancojunior.pdf: 3907960 bytes, checksum: 9f433822be136d071b072b730e8b7860 (MD5) Previous issue date: 2017 / Large amounts of confidential data stored on servers in the cloud is a trend for companies looking for opportunities to reduce costs and increase the availability of their digital services. However, in cloud computing environments data control is no longer belongs to the data owner and the control belongs to the service provider, which provides new challenges related to privacy, security, and confidentiality. In this context, privacy and security solutions for data stored in the cloud using encryption, data fragmentation or a combination of both have been proposed as best existing techniques in the scientific literature. Despite this, problems related to the effectiveness of these techniques in relation to the attacks, loss or theft of data have occurred in recent years, causing millions of dollars of damages to companies and clients. In this thesis, we present a new approach, called QSM-EXTRACTION, to ensure the confidentiality of data in cloud storage services. The science behind this approach uses concepts from Hegel’s Doctrine of Being. The QSM-EXTRACTION strategy is based on the fragmentation of a digital file into fragments called information objects, on the decomposition of these objects through the extraction of their characteristics (Quality, Quantity and Measure) and the dispersion of these characteristics in different storage services in Cloud, allowing the later retrieval of this data without loss of information. In order to demonstrate the efficiency of the ideas that guide the strategy proposed in this thesis, several experiments were carried out. To perform these experiments, a private cloud infrastructure managed by OpenStack (Openstack Cloud Operating System) was used. The algorithms that compose the QSM-EXTRACTION strategy were implemented in C++ language. In order implement the evaluation of the efficiency of the QSM-EXTRACTION strategy, a collection of syntactically created documents of different sizes was used. The results of the experiments proved the feasibility of using the proposed approach in scenarios typical of cloud / O armazenamento de grandes quantidades de dados confidenciais em servidores na nuvem é uma tendência para as empresas que buscam oportunidades de reduzir custos e aumentar a disponibilidade de seus serviços digitais. Contudo, nos ambientes de computação em nuvem o controle do dado deixa de ser do seu proprietário e passa a ser do provedor do serviço, o que proporciona novos desafios relacionados à privacidade, segurança e confidencialidade. Neste contexto, diferentes soluções para assegurar a confidencialidade dos dados armazenados na nuvem foram propostas. Em geral, tais soluções utilizam criptografia, fragmentação de dados ou uma combinação dessas duas abordagens. Apesar disto, problemas relacionados à eficácia destas técnicas em relação à ataques, perda ou roubo de dados têm ocorrido nos últimos anos, causando prejuízos de milhões de dólares para empresas e clientes. Esta tese apresenta uma nova estratégia, denominada QSM-EXTRACTION, para assegurar a confidencialidade de dados em serviços de armazenamento em nuvem. A ciência por trás dessa abordagem utiliza conceitos da Doutrina do Ser de Hegel. A estratégia QSM-EXTRACTION baseia-se na fragmentação de um arquivo digital em fragmentos denominados objetos de informação, na decomposição desses objetos por meio da extração de suas características (Qualidade, Quantidade e Medida) e na dispersão dessas características em diferentes serviços de armazenamento em nuvem, permitindo a posterior recuperação desses dados sem perda de informação. A finalidade da estratégia proposta é inviabilizar a reconstrução do arquivo original por parte de um provedor de nuvem que possui apenas parte das características dos objetos de informações que compõem este arquivo. Desta forma, assegura-se a confidencialidade dos dados armazenados em nuvem e, por conseguinte, a privacidade dos proprietários desses dados. O trabalho aqui proposto apresenta uma nova forma de ocultar o significado dos dados armazenados na nuvem, a qual baseia-se na extração e armazenamento das características desses dados, e não nos dados em si. Com a finalidade de demonstrar a eficiência das ideias que norteiam a estratégia proposta nesta tese, diversos experimentos foram realizados. Para executar estes experimentos, foi utilizada uma infraestrutura de nuvem privada gerida pelo OpenStack (Openstack Cloud Operating System). Os algoritmos que compõem a estratégia QSM-EXTRACTION foram implementados em linguagem C++. Para realizar a avaliação da eficiência da estratégia QSM-EXTRACTION, foi utilizado uma coleção de documentos criados sinteticamente, com diferentes tamanhos. Os resultados dos experimentos comprovaram a viabilidade de utilizar a abordagem proposta em cenários típicos da computação em nuvem, nos quais a quantidade de leituras é maior que a de escritas. Adicionalmente, os experimentos mostraram que a estratégia QSM-EXTRACTION é bastante flexível, podendo ser utilizada em conjunto com as principais abordagens para confidencialidade de dados: criptografia, fragmentação e criptografia/fragmentação.
506

ANAC : uma ferramenta para a automatização da análise da complexidade de algoritmos

Barbosa, Marco Antonio de Castro January 2001 (has links)
A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.
507

Tolerância a faltas bizantinas através de hibridização do sistema distribuído

Silva, Marcelo Ribeiro Xavier da January 2013 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2013. / Made available in DSpace on 2014-08-06T17:42:31Z (GMT). No. of bitstreams: 1 322028.pdf: 1354690 bytes, checksum: c2a2cb36693b941c7a191340c76e307e (MD5) Previous issue date: 2013 / A ocorrência de faltas e falhas nos sistemas computacionais pode levar a catástrofes e prejuízos humanos, estruturais e financeiros. Recentemente, as faltas em sistemas computacionais têm aparecido mais frequentemente sob a forma de intrusões, que são o resultado de um ataque que obtém sucesso ao explorar uma ou mais vulnerabilidades. Uma questão recorrente é a discussão de quanto podemos confiar no funcionamento destes sistemas, demonstrando a necessidade de uma melhor aplicação de conceitos como dependabilidade, onde é esperado que o sistema funcione conforme suas especificações, ainda que alguns componentes apresentem problemas. Replicação de Máquina de Estados é uma técnica comumente utilizada na implementação de serviços distribuídos que toleram faltas e intrusões. Originalmente as abordagens baseadas nesta técnica necessitavam 3f + 1 servidores para tolerar f faltas. Recentemente, através do uso de modelos híbridos, que possuem componentes confiáveis, algumas abordagens conseguiram reduzir este número para 2f + 1. Para construir estes componentes confiáveis é necessário fazer algumas modificações complexas nos servidores, tanto do ponto de vista de software quanto de hardware. A arquitetura de sistema proposta neste trabalho é baseada em um modelo, chamado de modelo híbrido, em que as suposições de sincronismo, presença e severidade de faltas e falhas variam de componente para componente. O modelo aqui proposto utiliza uma abstração de compartilhamento de dados - os Registradores Compartilhados Distribuídos - e explora o uso de tecnologias de virtualização para simplificar a criação da componente inviolável de tolerância a faltas. Com esta arquitetura é possível diminuir a quantidade de recursos computacionais necessários de 3f + 1 para 2f + 1, além de alcançar uma latência (em números de passos para comunicação) comparável apenas com algoritmos especulativos.<br> / Abstract : The occurrence of faults and failures in computer systems can lead to disastersand damages in human, structural and financial meanings. Recently,faults in computer systems have appeared most often in the form of intrusions,which are the result of an attack that succeeds by exploiting one ormore vulnerabilities. A recurrent issue is the discussion of how much we cantrust in the execution of these systems, demonstrating the need for better implementationof concepts such as dependability, where it is expected that thesystem works according to their specifications, although some componentshave problems. State Machine Replication is a technique commonly usedin the implementation of distributed services that tolerate faults and intrusions.Originally approaches based on this technique needed 3 f +1 servers totolerate f faults. Recently, through the use of hybrid models that have reliablecomponents, some approaches have succeeded in reducing this numberto 2 f +1. To build these reliable components is necessary to make somecomplex modifications in the servers, in meanings of software and hardware.The system architecture proposed in this work is based on a hybrid model, inwhich the assumptions of timing, presence and severity of faults and failuresvary from component to component. The proposed model uses an abstractionof data sharing - Distributed Shared Registers - and explores the use of virtualizationtechnologies to simplify the creation of the fault tolerant tamperproofcomponent. With this architecture it is possible to reduce the amount of computationalresources needed from 3 f +1 to 2 f+ 1, and achieve a latency(in terms of number of communication steps) comparable only to speculativealgorithms.
508

Método de discretização de variáveis para redes bayesianas utilizando algoritmos genéticos

Lima, Mariana Dehon Costa e January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014. / Made available in DSpace on 2014-08-06T18:04:53Z (GMT). No. of bitstreams: 1 327126.pdf: 885886 bytes, checksum: 75231cd2c02dd6ae8e60fb0d058ec67d (MD5) Previous issue date: 2014 / Rede Bayesiana é uma técnica de classificação vastamente utilizada na área de Inteligência Artificial. Sua estrutura é composta por um grafo acíclico direcionado usado para modelar a associação de variáveis categóricas (qualitativas). Entretanto, em casos onde existem variáveis numéricas no domínio, uma pré discretização é geralmente necessária. Nesta dissertação, é apresentada uma discretização heurística para Redes Bayesianas que procura padrões nos dados e os divide de acordo com os padrões encontrados. Esses padrões são identificados por dois eventos que são otimizados por uma busca através do Algoritmo Genético. Esses dois eventos mudam de acordo com a base de dados, tornando a discretização proposta mais flexível para lidar com diferentes domínios de aplicação. O método de discretizaçãao proposto foi testado em duas situações distintas: quando a variável de saída é qualitativa (classificação) e também quando a variável de saída é quantitativa e é necessário estimar o seu valor médio e desvio-padrão. Para casos em que a saída é qualitativa foram utilizados duas bases de dados: Iris Flower e Wine. Em ambas as bases de dados a acurácia do método proposto foi superior quando comparada com outros dois métodos da literatura: um que discretiza as variáveis por frequência e outro por tamanho de classes. Para representar os casos em que variável de saída é quantitativa, foi utilizada uma base de dados real com dados de perfuração de poços de petróleo com o objetivo de estimar a taxa média de perfuração de broca. Nesses casos, é feito a estimação do valor de saída através da média da distribuição de probabilidade. O método proposto obteve um erro inferior na estimação quando comparado tanto com o método que discretiza por frequência quanto com o método que discretiza por tamanho. Com os resultados, a conclusão é que o método pode discretizar as variáveis quantitativas através das identificações dos eventos que desviam de um intervalo intermediário nos dados, seja para cima (pico) ou para baixo (vale). Também foi observado que o método está ligado a um problema de otimização global quando todas as variáveis quantitativas são discretizadas ao mesmo tempo.<br> / Abstract : Bayesian Network (BN) is a classification technique widely used in Artificial Intelligence. Its structure is a DAG (direct acyclic graph) used to model the association of categorical variables. However, in cases where the variables are numerical, a previous discretization is usually necessary. In this dissertation, we show a heuristic discretization for Bayesian Networks that search for data patterns and divide the data according to them. These patterns are identified by two events: peak and valley being optimized by a search through the Genetic Algorithm. These two events change according to the database, making the proposed method a exible discretization to handle difierent application domains. The Peak-Valley Discretization Method proposed was tested two different situations: only classification when the output variable is qualitative and also estimating the mean value and the standard deviation when the output variable is quantitative. Considering the cases where the output is quantitative, two databases where used: Iris Flower and Wine. The accuracy in both of them was superior with the proposed method when compared with two other methods from the literature: one that discretizes the variable by frequency and one that does that by class' size. To represent the cases where the output variable is quantitative, was used a real data of oil wells perforation with the objective of estimating the average perforation rate. In such cases, the estimation is done by the average of the output value distribution of probability. The proposed method achieved a lower error in the estimation when compared with the method of frequency discretization and with the method that discretizes by size. With the results, the conclusion is that the method can properly discretize the quantitative variables by identifying events that deviate from expected results within the knowledge domain, whether up (peak) or down (valley). It was also observed that the method brings a problem of global optimization when discretizing all quantitative variables simultaneously. The problem of global optimization was treated by a Genetic Algorithm.
509

Um algoritmo de alocação para bancos de dados biológicos distribuídos

Tonini, Gustavo Alexssandro January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014 / Made available in DSpace on 2015-02-05T20:28:22Z (GMT). No. of bitstreams: 1 331443.pdf: 1788516 bytes, checksum: f0f3608dbed78c3559ca285e874e1844 (MD5) Previous issue date: 2014 / O presente trabalho propõe um algoritmo de alocação de dados distribuídos baseado na anidade de dados e perfis de uso com foco em bancos de dados (BD) relacionais biológicos. A proposta visa instruir os administradores de banco de dados (DBAs) sobre como alocar os dados nos nós de um cluster visando obter o melhor desempenho possível nas consultas e demais requisições dos usuários. O esquema e verificado através de testes em laboratório. Os experimentos são realizados sobre o sistema data warehouse (DW) Intermine (SMITH et al., 2012) utilizando o pgGrid, que adiciona funções de reaplicação e fragmentação no PostgreSQL e o HadoopDB (implementação do modelo Map-Reduce para bancos de dados relacionais). O algoritmo e comparado com outras propostas de alocação geradas por algoritmos desenvolvidos em pesquisas recentes.<br> / Abstract: This work proposes a data allocation algorithm based on distributed data affinity and query profile with focus on biological relational databases.The proposal aims to help database administrators (DBAs) about how to allocate the data across nodes in a cluster in order to obtain the maximum performance improvements on query time and executing other user requests. The allocation schema is verified in laboratory tests. The Intermine datawarehouse (DW) system (SMITH et al., 2012) was chosen as subject of this evaluation. The experiments were executed on distributed database platforms such as pgGrid, which adds replication and fragmentation functions to PostgreSQL and HadoopDB(implementation of Map-Reduce model for relational databases). Finally, the algorithm is compared with other allocation methods developed in recent researches.
510

Comunicação em tempo real para plataforma multimídia colaborativa baseada em web

Puel, André January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014. / Made available in DSpace on 2015-02-05T20:59:10Z (GMT). No. of bitstreams: 1 331970.pdf: 11289401 bytes, checksum: 89bf5f77456b2c5d4c5b5c9eeb4a68ce (MD5) Previous issue date: 2014 / Este trabalho apresenta uma ferramenta que integra funcionalidadesde visualização de imagens médicas de forma colaborativa com comunicaçãomultimídia, vídeo chamadas, completamente baseada empadrões web (sem uso de plugin auxiliar). O objetivo deste trabalhoé o desenvolvimento de uma plataforma web com usabilidade correspondentea plataformas desktop tradicionais. Os componentes necessáriossão discutidos individualmente e também os problemas de integraçãocom a plataforma web. É utilizada uma estratégia para comparara qualidade da plataforma apresentada com softwares baseadosem desktop, a validação de usabilidade com usuários através da Escalade Usabilidade de Sistema (do inglês, System Usability Scale, SUS).Através desta validação é possível inferir que a plataforma web-basedconsegue cumprir os mesmos objetivos que uma versão do softwareem desktop.<br> / Abstract : This work presents a tool that integrates collaborative medical imagesvisualization functionalities with multimedia communication, videocalls, fully based on web standards (without the use of auxiliaryplugins). The objective of this project is the development of a webplatform with usability matching traditional desktop?s. The requiredcomponents are discussed individually and also the the problems thatarise with the integration in the web platform. A strategy to comparethe quality of the presented platform with desktop based softwares ispresented, the evaluation with users through System Usability Scale(SUS). Through this evaluation it is possible to infer that the webbasedplatform can achieve the same objectives than a dekstop versionof the software.

Page generated in 0.0963 seconds