• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 167
  • 5
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 175
  • 121
  • 69
  • 59
  • 58
  • 56
  • 55
  • 46
  • 46
  • 46
  • 46
  • 41
  • 41
  • 40
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Desenvolvimento e implementação de um modelo Coarse-Grained para predição de estruturas de proteínas / Development and implementation of a coarse-grained model for protein structure prediction

Goliatt, Priscila Vanessa Zabala Capriles 27 June 2011 (has links)
Made available in DSpace on 2015-03-04T18:57:49Z (GMT). No. of bitstreams: 1 GOLIATT_PVZC_thesis.pdf: 13370494 bytes, checksum: 2621901d59798613ae8fdb2d938dda20 (MD5) Previous issue date: 2011-06-27 / The knowledge of the three-dimensional (3D) conformation of the native structure of proteins has assisted biotechnological researches as those focused on protein design and structure based drug design. As an alternative to the techniques of experimental prediction and theoretical prediction via comparative modeling, the theoretical prediction via ab initio technique has been increasingly exploited. In the ab initio technique, the 3D protein structure prediction (PSP) is performed based only on its amino acid sequence and in their physicochemical properties. However, to obtain solutions that represent native structures, methods of ab initio PSP require a large number of function evaluations which limits their use in studies of more complex proteins. In the CG model, the representation of each amino acid is reduced to a set of few interaction sites, significantly reducing the number of degrees of freedom to be treated, and thus reducing the computational cost needed to evaluate each structure during the optimization process. In this work, we developed and implemented a CG model applied to the PSP problem, including the ability to simulate the presence of disulfide bonds. This model was adapted to the GAPF program (Genetic Algorithm for Protein Folding), previously developed by the "Grupo de Modelagem Molecular de Sistemas Biológicos" (GMMSB/ LNCC) and originally implemented for the PSP via ab initio technique using an all-atom model representation. The CG model has been tested on a set of 36 structures with sizes ranging from 18 to 106 amino acid residues, and covering the different classes of proteins (i.e. mainly alpha, alpha+beta and mainly beta). The results showed that the CG model proposed promoted improvements in predictive ability of GAPF program, now being able to predict β-sheet structures, and a decrease of approximately 80% of computational time. / O conhecimento da conformação tridimensional (3D) da estrutura nativa de uma proteína tem auxiliado pesquisas biotecnológicas como as voltadas à engenharia de proteínas e ao desenho racional de fármacos. Como alternativa às técnicas de predição experimental e à técnica de predição teórica via modelagem comparativa, a técnica de predição teórica via ab initio tem sido cada vez mais explorada. Na técnica ab initio, a predição da estrutura 3D de uma proteína (PSP) é feita baseando-se apenas na sua sequência de resíduos de aminoácidos e nas propriedades físico-químicas dos mesmos. Entretanto, os métodos de PSP ab initio, para chegarem à soluções que representem estruturas nativas, requerem um grande número de avaliações de função o que limita suas aplicações em estudos de proteínas mais complexas. Uma possível solução para este problema é o uso de uma representação simplificada do sistema (modelo coarse-grained - CG). No modelo CG, a representação de cada aminoácido é reduzida a um conjunto de poucos sítios de interação, diminuindo significativamente o número de graus de liberdade a serem tratados e, portanto, reduzindo o custo computacional necessário na avaliação de cada estrutura durante o processo de otimização. Neste trabalho, foi desenvolvido e implementado um modelo CG aplicado ao problema de predição de estruturas 3D de proteínas, incluindo-se a possibilidade de simular a presença de ligações dissulfídicas. Este modelo foi adaptado ao programa GAPF (Genetic Algorithm for Protein Folding), previamente desenvolvido no Grupo de Modelagem Molecular de Sistemas Biológicos (GMMSB/ LNCC) e originalmente implementado para a PSP via técnica ab initio usando um modelo de representação de todos os átomos do sistema. O modelo CG desenvolvido foi testado em um conjunto de 36 estruturas, de tamanhos variando entre 18 e 106 resíduos de aminoácidos, e abrangendo as distintas classes de proteínas (i.e. preferencialmente alfa, alfa+beta e preferencialmente beta). Os resultados obtidos mostraram que o modelo CG proposto resultou em melhorias na capacidade preditiva do programa GAPF, sendo agora capaz de predizer conformações em folha-β, e na redução de aproximadamente 80% do tempo computacional.
32

Predição de estruturas de proteínas utilizando restrições de RMN e um modelo coarse grained / Prediction of protein structures using NMR restraints and a coarse grained model

Werdt, Paulo Roberto Teixeira 28 April 2014 (has links)
Made available in DSpace on 2015-03-04T18:58:04Z (GMT). No. of bitstreams: 1 DISSERTACAO_PAULO_WERDT.pdf: 21786566 bytes, checksum: 03a53ac9704356741edfa085dc1c0f81 (MD5) Previous issue date: 2014-04-28 / The prediction of the three-dimensional structure of proteins (PSP) has been one of the most challenging fields of computational biology, both for its applicability in the field of medicine and drug design, as for its high complexity and computational cost. The main objective of this work was to implement and investigate the predictive potential in the context of the program GAPF (Genetic Algorithm for Protein Folding), the use of a Coarse Grained (CG) model, coupled with a genetic algorithm of multiple minimum, designed specifically to predict protein structures, using restraints of distance and angles obtained from experiments of Nuclear Magnetic Resonance (NMR). A second objective was, using structures determined by NMR and deposited in the Protein Data Bank (PDB), to identify, classify and generate statistics of those NMR restraints that might be more relevant in a process of predicting protein structures. In this sense, programs were developed, in C++ language, to read, interpret, analyze and engage the NMR information contained in the PDB files, making it possible to use the restraints contained in these files, by the program GAPF. A visualization program was also developed, using the OpenGL library, which allows the observation of protein structures with their respective NMR restraints. Simulations were performed on a test group of ten proteins with known structure, and the results were compared with those obtained using an all atom model. The results obtained with the use of the CG model were equivalent or, in most cases, exceeded the results achieved with the all atom force field. Besides allowing a significant reduction in computational cost, the use of the CG model enabled a significant reduction of the number of NMR restraints necessary for the prediction of a structure with a folding considered correct or satisfactory. / A predição da estrutura tridimensional de proteínas (PSP) tem se mostrado um dos campos mais desafiadores da biologia computacional, tanto pela sua aplicabilidade no campo da medicina e no desenho de fármacos, quanto pela sua alta complexidade e custo computacionais. O objetivo principal deste trabalho foi implementar e investigar o potencial preditivo, no contexto do programa GAPF (Genetic Algorithm for Protein Folding), do uso de um modelo Coarse Grained (CG) acoplado com um algoritmo genético de múltiplos mínimos desenvolvido especificamente para predizer estruturas de proteínas, utilizando restrições de distância e de ângulos advindas de experimentos de Ressonância Magnética Nuclear (RMN). Um segundo objetivo foi, utilizando estruturas determinadas por RMN depositadas no Protein Data Bank (PDB), identificar, classificar e gerar estatísticas sobre as restrições de RMN que possam ser mais relevantes em um processo de predição de estruturas de proteínas. Neste sentido, foram desenvolvidos programas, na linguagem C++, para ler, interpretar, analisar e acoplar as informações de RMN contidas nos arquivos do PDB, tornando possível a utilização das restrições, contidas nestes arquivos, pelo programa GAPF. Também foi desenvolvido um programa de visualização que, utilizando a biblioteca OpenGL, permite a observação das estruturas de proteínas com as suas respectivas restrições de RMN. Foram realizadas simulações em um grupo teste de dez proteínas, de estrutura já conhecida, e os resultados foram comparados com aqueles obtidos com o uso do modelo all-atom. Os resultados obtidos com o uso do modelo CG conseguiram ser equivalentes ou, na maioria dos casos, superar os resultados obtidos com o modelo all-atom. Além de permitir uma redução significativa no custo computacional, o uso do modelo CG possibilitou uma redução significativa do número de restrições de RMN necessárias para a predição de uma estrutura com um enovelamento considerado correto ou satisfatório.
33

Otimização com restrições lineares e pre-condicionamento periódico: teoria e experimentos

GOMES, Hermínio Simões 18 September 1987 (has links)
Submitted by Edisangela Bastos (edisangela@ufpa.br) on 2018-03-22T18:19:13Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Tese_OtimizacaoRestricoesLineares.pdf: 2100092 bytes, checksum: 17dbf2fc2263d9dfd1044290efe95364 (MD5) / Approved for entry into archive by Edisangela Bastos (edisangela@ufpa.br) on 2018-03-22T18:29:18Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Tese_OtimizacaoRestricoesLineares.pdf: 2100092 bytes, checksum: 17dbf2fc2263d9dfd1044290efe95364 (MD5) / Made available in DSpace on 2018-03-22T18:29:18Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Tese_OtimizacaoRestricoesLineares.pdf: 2100092 bytes, checksum: 17dbf2fc2263d9dfd1044290efe95364 (MD5) Previous issue date: 1987-09-18 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Propõe-se um algoritmo para otimização com restrições lineares e variáveis canalizadas que usa precondicionamento periódico para solução dos sistemas lineares. O algoritmo é do tipo gradientes conjugados com projeção e faz uso de fatorações ortogonais esparsas para o precondicionamento. Uma coleção de testes é apresentada. É feita uma comparacão, no caso de problemas lineares, com resultados obtidos pelo sistema MINOS.
34

Penalização e lagrangeano aumentado

GOMES, Hermínio Simões 03 April 1981 (has links)
Submitted by Edisangela Bastos (edisangela@ufpa.br) on 2018-04-12T18:38:12Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_PenalizacaoLagrangeanoAumentado.pdf: 3622644 bytes, checksum: 0a2519b79178cebba8a3c88caa6a1b07 (MD5) / Approved for entry into archive by Edisangela Bastos (edisangela@ufpa.br) on 2018-05-04T14:12:45Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_PenalizacaoLagrangeanoAumentado.pdf: 3622644 bytes, checksum: 0a2519b79178cebba8a3c88caa6a1b07 (MD5) / Made available in DSpace on 2018-05-04T14:12:45Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_PenalizacaoLagrangeanoAumentado.pdf: 3622644 bytes, checksum: 0a2519b79178cebba8a3c88caa6a1b07 (MD5) Previous issue date: 1981-04-03 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Na resolução de problemas de programação não-linear, a dimensão do problema ou sua estrutura pode, em certos casos, se constituir em um obstáculo difícil de ser transposto. Muitos algoritmos foram desenvolvidos para programação não-linear e, na sua maioria, procuram usar a informação das derivadas segundas (matrizes hessianas), e devido a isso, as suas aplicabilidades são, em geral, limitadas a problemas de médio porte. Devido a problema de memória ou dificuldade de se codificar os hessianos, a necessidade de se desenvolver algoritmos que não usam matrizes se evidenciou. Certos problemas não apresentam estruturas particulares que possam ser aproveitadas para facilitarem as suas resoluções, ou,se apresentam, estas são difíceis ou até impossíveis de serem aproveitadas. Algoritmos que usam basicamente a informação de derivadas primeiras(gradientes), são, em geral, mais fáceis de serem implementados e reduzem consideravelmente a necessidade de memória. Os algoritmos que usam Penalização e Lagrangeano Aumentado se enquadram dentro das necessidades expostas. Em problemas de grande porte, o lagrangeano aumentado,é particularmente bom, e pode ser empregado com êxito em problemas que não necessitam de uma precisão elevada. Nosso trabalho se propõe a fornecer uma base sobre a teoria da função Penalidade e Lagrangeano Aumentado, e também, poder fornecer a interessados, programas com os métodos e suas aplicações. Uma comparação entre os métodos Penalidade e Lagrangeano Aumentado é fornecida, e diversos aspectos sobre a aplicação dos algoritmos são evidendiados. Um número satisfatório de problemas testes mostra o desempenho dos algoritmos. Uma aplicação a um problema de grande porte é feita utilizando o lagrangeano aumentado. Não nos detivemos nos diversos tipos de funções Penalidade ou funções aumentadas; tratamos das formas que achamos mais importantes.
35

Paralelização do algoritmo DIANA com OpenMP e MPI /

Ribeiro, Hethini do Nascimento. January 2018 (has links)
Orientador: Roberta Spolon / Banca: Kelton Augusto Pontara da Costa / Banca: Anderson Francisco Talon / Resumo: No início desta década havia cerca de 5 bilhões de telefones em uso gerando dados. Essa produção global aumentou aproximadamente 40% ao ano no início da década passada. Esses grandes conjuntos de dados que podem ser capturados, comunicados, agregados, armazenados e analisados, também chamados de Big Data, estão colocando desafios inevitáveis em muitas áreas e, em particular, no campo Machine Learning. Algoritmos de Machine Learning são capazes de extrair informações úteis desses grandes repositórios de dados e por este motivo está se tornando cada vez mais importante o seu estudo. Os programas aptos a realizarem essa tarefa podem ser chamados de algoritmos de classificação e clusterização. Essas aplicações são dispendiosas computacionalmente. Para citar alguns exemplos desse custo, o algoritmo Quality Threshold Clustering tem, no pior caso, complexidade O(�����������������5). Os algoritmos hierárquicos AGNES e DIANA, por sua vez, possuem O(n²) e O(2n) respectivamente. Sendo assim, existe um grande desafio, que consiste em processar grandes quantidades de dados em um período de tempo realista, encorajando o desenvolvimento de algoritmos paralelos que se adequam ao volume de dados. O objetivo deste trabalho é apresentar a paralelização do algoritmo de hierárquico divisivo DIANA. O desenvolvimento do algoritmo foi realizado em MPI e OpenMP, chegando a ser três vezes mais rápido que a versão monoprocessada, evidenciando que embora em ambientes de memória distribuídas necessite de... / Abstract: Earlier in this decade there were about 5 billion phones in use generating data. This global production increased approximately 40% per year at the beginning of the last decade. These large datasets that can be captured, communicated, aggregated, stored and analyzed, also called Big Data, are posing inevitable challenges in many areas, and in particular in the Machine Learning field. Machine Learning algorithms are able to extract useful information from these large data repositories and for this reason their study is becoming increasingly important. The programs that can perform this task can be called classification and clustering algorithms. These applications are computationally expensive. To cite some examples of this cost, the Quality Threshold Clustering algorithm has, in the worst case, complexity O (n5). The hierarchical algorithms AGNES and DIANA, in turn, have O (n²) and O (2n) respectively. Thus, there is a great challenge, which is to process large amounts of data in a realistic period of time, encouraging the development of parallel algorithms that fit the volume of data. The objective of this work is to present the parallelization of the DIANA divisive hierarchical algorithm. The development of the algorithm was performed in MPI and OpenMP, reaching three times faster than the monoprocessed version, evidencing that although in distributed memory environments need synchronization and exchange of messages, for a certain degree of parallelism it is advantageous ... / Mestre
36

Algoritmos imunológicos aplicados na detecção de intrusões com dinâmica da digitação

Pisani, Paulo Henrique January 2012 (has links)
Orientadora: Ana Carolina Lorena / Dissertação (mestrado) - Universidade Federal do ABC. Programa de Programa de Pós-Graduação em Engenharia da Informação, 2012
37

Correção de heterogeneidades para feixes de fótons de 6 MeV: comparações entre algoritmos de cálculo e medidas com TLD

Baptista, Cláudia Gonçalves 25 September 2009 (has links)
O presente trabalho mostra as diferenças de dose encontradas em meios de diferentes densidades eletrônicas, simulando tecido adiposo, muscular, ósseo e cavidade aérea, comparando medidas experimentais com feixe de fótons de 6 MeV e valores resultantes de algoritmos de cálculo existentes em um sistema de planejamento radioterápico. Para isso foram utilizados dosímetros termoluminescentes posicionados acima, dentro e abaixo de cada objeto simulador e medidos os perfis de dose ao longo do eixo longitudinal e do eixo transversal. As simulações computacionais foram realizadas com dois algoritmos de cálculo presentes na versão 8.5 do sistema de planejamento Eclipse: o Pencil Beam Convolution e o Analytical Anisotropic Algorithm. Comparando doses em um mesmo ponto, com e sem heterogeneidades, foram encontradas diferenças percentuais de até 12%, quando os algoritmos de correção de heterogeneidades não foram aplicados. Analisando essas comparações, pode-se observar também qual dos algoritmos de cálculo mais se aproxima dos valores experimentais, propondo ser o algoritmo de maior confiabilidade. / This work presents the dose variations obtained when phantoms of different electronic densities were used, simulating fat tissue, muscle, bones and air cavities, comparing experimental data with a 6 MeV photon beams and the values calculated by the treatment planning system algorithms. Thermoluminescent dosimeters were positioned above, inside and below each phantom measuring the dose along the depth and along a profile. The computational simulation was done by two algorithms that are part of Eclipse version 8.5: Pencil Beam Convolution and Analytical Anisotropic Algorithm. Comparing doses at the same point, with and without heterogeneities, percentages of 12% were found when heterogeneity correction was not used. These results also show which of the algorithms approaches better to the experimental values, becoming more reliable.
38

Um novo escalonador com controle de admissão de conexão para o padrão IEEE 802.16 com garantia de limite de atraso

Dosciatti, Eden Ricardo 20 April 2010 (has links)
O grupo de trabalho do IEEE 802.16 está desenvolvendo um padrão para redes de acesso banda larga sem fio em redes metropolitanas, também conhecido como WiMAX. Uma das características da camada MAC (Media Access Control) desse padrão, é que ela foi projetada para diferenciar o serviço entre as categorias de tráfego com diferentes requisitos de multimídia. Com base nessa premissa e considerando que a norma não especifica um algoritmo de escalonamento, um novo escalonador com controle de admissão de conexão foi proposto com base na teoria do servidor Latency-Rate (LR) e características do sistema especificadas pela norma para sistemas utilizando a interface aérea WirelessMAN-OFDM (Orthogonal Frequency Division Multiplexing). O algoritmo de escalonamento proposto calcula o tempo do quadro (TF - Time Frame) com o objetivo de maximizar o número de estações alocadas no sistema e ao mesmo tempo garantir o atraso solicitado para cada usuário. Propriedades desta proposta foram investigadas teoricamente e através de simulações. Um conjunto de simulações é apresentado com fluxos de taxa de bits constante (CBR - Constant Bit Rate) e taxa de bits variável (VBR - Variable Bit Rate) e as comparações de desempenho com diferentes atrasos (delay) e diferentes TFs. Os resultados mostraram que o limite de atraso superior pode ser alcançado por uma grande variedade de cargas na rede, com otimização da largura de banda. / The IEEE 802.16 Working Group on Broadband Wireless Access is developing a standard for broadband wireless access networks in Metropolitan Area Network (MAN), also know as WiMAX. One of the features of the MAC (Media Access Control) layer is that it was designed to differentiate service among traffic categories with different multimedia requirements. Based on these assumptions and considering that the standard does not specify a scheduling algorithm, a new scheduler with admission control connection has been proposed based on Latency-Rate (LR) server theory and system characteristics specified by the standard for systems using the WirelessMAN-OFDM (Orthogonal Frequency Division Multiplexing) air interface. The proposed scheduling algorithm calculates the Time Frame (TF) in order to maximize the number of stations allocated in the system while guarantee the delay required for each user. Properties of this proposal have been investigated theoretically and through simulations. A set of simulations is presented with streams of Constant Bit Rate (CBR) and Variable Bit Rate (VBR) and performance comparisons with different delays and different TFs. The results showed that the upper limit of delay can be achieved by a variety of loads in the network, optimizing the bandwidth.
39

Complexidade e algoritmos de jogos de blocos / Complexity and blocks games algorithms

Ramos, André Castro January 2014 (has links)
RAMOS, André Castro Ramos. Complexidade e algoritmos de jogos de blocos. 2014. 52 f. Dissertação (Mestrado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2014. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-08T18:23:46Z No. of bitstreams: 1 2014_dis_acramos.pdf: 3052850 bytes, checksum: 1e69aab4f7c65fe5b1dee291b5fa129d (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-13T12:37:09Z (GMT) No. of bitstreams: 1 2014_dis_acramos.pdf: 3052850 bytes, checksum: 1e69aab4f7c65fe5b1dee291b5fa129d (MD5) / Made available in DSpace on 2016-07-13T12:37:09Z (GMT). No. of bitstreams: 1 2014_dis_acramos.pdf: 3052850 bytes, checksum: 1e69aab4f7c65fe5b1dee291b5fa129d (MD5) Previous issue date: 2014 / The electronic game concept refers to reserved entertainment to spare time , but in addition to a billion dollar industry , is also potential source of several research topics , both directed to their respective areas of interest as own gaming industry . In this context, in recent decades, work has been done to deal with this type of product based on for problems to be addressed by the theory of algorithms. In this work we bring complexity results and algorithms related to three games with common characteristics , Bloxorz , On The Edge and Bobbin 3D. / A noção de jogo eletrônico remete a entretenimento reservado às horas vagas, mas, além de uma indústria bilionária, também é origem potencial de diversos temas de pesquisa, tanto voltados a suas respectivas áreas quanto de interesse da própria indústria de jogos. Nesse contexto, nas últimas décadas, foram produzidos trabalhos que lidam com esse tipo de produto como base para problemas a serem tratados pela teoria dos algoritmos. Neste trabalho trazemos resultados de complexidade e algoritmos relacionados a 3 jogos com características em comum, Bloxorz, On The Edge e Bobbin 3D.
40

Um algoritmos distribuído para escalonamento de sensores em RSSF / A distributed algorithms for scheduling sensors in RSSF

Matos, Daniel Ribeiro January 2013 (has links)
MATOS, D. R. Um algoritmos distribuído para escalonamento de sensores em RSSF. 2013. 59 f. Dissertação (Mestrado em Ciência da Computação) - Centro de Ciências, Universidade Federal do Ceará, Fortaleza, 2013. / Submitted by Daniel Eduardo Alencar da Silva (dealencar.silva@gmail.com) on 2015-01-23T18:29:56Z No. of bitstreams: 1 2013_dis_drmatos.pdf: 2537544 bytes, checksum: 870eae75ce068b1ef961e23307dda2a9 (MD5) / Approved for entry into archive by Rocilda Sales(rocilda@ufc.br) on 2015-09-23T16:27:30Z (GMT) No. of bitstreams: 1 2013_dis_drmatos.pdf: 2537544 bytes, checksum: 870eae75ce068b1ef961e23307dda2a9 (MD5) / Made available in DSpace on 2015-09-23T16:27:30Z (GMT). No. of bitstreams: 1 2013_dis_drmatos.pdf: 2537544 bytes, checksum: 870eae75ce068b1ef961e23307dda2a9 (MD5) Previous issue date: 2013 / Wireless Sensor Networks (WSNs) are used in a lot of applications: from smart homes to military enviromnets. In general, WSNs has severe energy restrictions - a sensor usualy has a limited batery and it’s not replaceable. Distributing the sensor in a random mander can lead to a redundancy of some areas and this is desirable to support fail of some sensors. In this work, we propose an distributed algorithm to schedule active sensors to reduce the redundancy of data obtainned by the network and prolong the network lifetime. / Redes de Sensores Sem Fio (RSSF) são utilizadas em diversos tipos de aplicações: desde casas inteligentes a aplicações militares. RSSF possuem, em geral, severas restrições energéticas - um sensor geralmente possui uma quantidade limitada de bateria e este não é substituível. Os sensores podem possuir uma certa redundância de uma área sensoreada, uma vez que, quando os sensores são distribuídos de forma aleatória, alguns sensores acabam ficando muito próximos, ou mesmo quando são depositados de maneira determinística, uma certa redundância é necessária para prever a falha de alguns destes sensores. Neste trabalho, propomos um algoritmo distribuído que faz um escalonamento de sensores ativos, de forma a reduzir a redundância dos dados coletados e aumentar o tempo de vida da rede de sensores.

Page generated in 0.0247 seconds