• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 507
  • 32
  • Tagged with
  • 539
  • 539
  • 149
  • 147
  • 133
  • 105
  • 103
  • 103
  • 98
  • 92
  • 88
  • 86
  • 77
  • 76
  • 71
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
421

Implementação de algoritmos genéticos paralelos em uma arquitetura MPSoC. / Implementation of parallel genetic algorithms in an architecture MPSoC.

Rubem Euzébio Ferreira 07 August 2009 (has links)
Essa dissertação apresenta a implementação de um algoritmo genético paralelo utilizando o modelo de granularidade grossa, também conhecido como modelo das ilhas, para sistemas embutidos multiprocessados. Os sistemas embutidos multiprocessados estão tornando-se cada vez mais complexos, pressionados pela demanda por maior poder computacional requerido pelas aplicações, principalmente de multimídia, Internet e comunicações sem fio, que são executadas nesses sistemas. Algumas das referidas aplicações estão começando a utilizar algoritmos genéticos, que podem ser beneficiados pelas vantagens proporcionadas pelo processamento paralelo disponível em sistemas embutidos multiprocessados. No algoritmo genético paralelo do modelo das ilhas, cada processador do sistema embutido é responsável pela evolução de uma população de forma independente dos demais. A fim de acelerar o processo evolutivo, o operador de migração é executado em intervalos definidos para realizar a migração dos melhores indivíduos entre as ilhas. Diferentes topologias lógicas, tais como anel, vizinhança e broadcast, são analisadas na fase de migração de indivíduos. Resultados experimentais são gerados para a otimização de três funções encontradas na literatura. / This dissertation presents an implementation of a parallel genetic algorithm using the coarse grained model, also known as the islands model, targeted to MPSoCs systems. MPSoC systems are becoming more and more complex, due to the greater computational power demanded by applications, mainly those that deal with multimedia, Internet and wireless communications, which are executed within these systems. Some of these applications are starting to use genetic algorithms, that can benefit from the parallel processing offered by MPSoC. In the island model for parallel genetic algorithm, each processor is responsible for evolving the corresponding population independently from the others. Aiming at accelerating the evolutionary process, the migration operator is executed periodically in order to migrate the best individuals among islands. Different logic topologies, such as ring, neighborhood and broadcast, are analyzed during the migration step. Experimental results are generated for the optimization of three functions found in the literature.
422

Análise de desempenho do protocolo TCP em Redes LTE. / Performance evaluation of TCP protocol in LTE Networks.

Carlos Alberto Leite Bello Filho 26 February 2014 (has links)
O crescimento dos serviços de banda-larga em redes de comunicações móveis tem provocado uma demanda por dados cada vez mais rápidos e de qualidade. A tecnologia de redes móveis chamada LTE (Long Term Evolution) ou quarta geração (4G) surgiu com o objetivo de atender esta demanda por acesso sem fio a serviços, como acesso à Internet, jogos online, VoIP e vídeo conferência. O LTE faz parte das especificações do 3GPP releases 8 e 9, operando numa rede totalmente IP, provendo taxas de transmissão superiores a 100 Mbps (DL), 50 Mbps (UL), baixa latência (10 ms) e compatibilidade com as versões anteriores de redes móveis, 2G (GSM/EDGE) e 3G (UMTS/HSPA). O protocolo TCP desenvolvido para operar em redes cabeadas, apresenta baixo desempenho sobre canais sem fio, como redes móveis celulares, devido principalmente às características de desvanecimento seletivo, sombreamento e às altas taxas de erros provenientes da interface aérea. Como todas as perdas são interpretadas como causadas por congestionamento, o desempenho do protocolo é ruim. O objetivo desta dissertação é avaliar o desempenho de vários tipos de protocolo TCP através de simulações, sob a influência de interferência nos canais entre o terminal móvel (UE User Equipment) e um servidor remoto. Para isto utilizou-se o software NS3 (Network Simulator versão 3) e os protocolos TCP Westwood Plus, New Reno, Reno e Tahoe. Os resultados obtidos nos testes mostram que o protocolo TCP Westwood Plus possui um desempenho melhor que os outros. Os protocolos TCP New Reno e Reno tiveram desempenho muito semelhante devido ao modelo de interferência utilizada ter uma distribuição uniforme e, com isso, a possibilidade de perdas de bits consecutivos é baixa em uma mesma janela de transmissão. O TCP Tahoe, como era de se esperar, apresentou o pior desempenho dentre todos, pois o mesmo não possui o mecanismo de fast recovery e sua janela de congestionamento volta sempre para um segmento após o timeout. Observou-se ainda que o atraso tem grande importância no desempenho dos protocolos TCP, mas até do que a largura de banda dos links de acesso e de backbone, uma vez que, no cenário testado, o gargalo estava presente na interface aérea. As simulações com erros na interface aérea, introduzido com o script de fading (desvanecimento) do NS3, mostraram que o modo RLC AM (com reconhecimento) tem um desempenho melhor para aplicações de transferência de arquivos em ambientes ruidosos do que o modo RLC UM sem reconhecimento. / The growth of broadband services in mobile networks has led to a demand for data with faster and better quality transmissions. The mobile network technology called LTE (Long Term Evolution) or fourth generation (4G) came up with the objective of attending this demand for wireless access to services such as Internet access, online games, VoIP and video conferencing. LTE is part of the specifications of 3GPP Releases 8 and 9 operating in all-IP networks and providing transmission rates above 100 Mbps (DL), 50 Mbps (UL), low latency (10 ms) and compatibility with previous versions of mobile networks, 2G (GSM / EDGE) and 3G (UMTS / HSPA). The TCP protocol designed to operate in wired networks presents poor performance over wireless channels such as mobile cellular networks, due mainly to the characteristics of selective fading, shadowing and high error rates coming from the air interface. As all losses are interpreted as caused by congestion the protocol performance is bad. The objective of this dissertation is to evaluate the performance of several types of the TCP protocols through simulations, under the influence of channel interference between the mobile terminal (UE - User Equipment) and a remote server. For this, the NS3 (Network Simulator version 3) software and the protocols TCP Westwood Plus, New Reno, Reno and Tahoe were used. Results have shown that the TCP Westwood Plus protocol has a better performance than others. The New Reno and Reno TCP protocols had similar performance due to the proposed interference model, which has a uniform distribution and so the possibility of loss of consecutive bits is low on the same transmission window. TCP Tahoe, as expected has shown the worst performance among all because it does not have the fast recovery mechanism and its congestion window keeps coming back to one segment after a timeout. It was also observed that the delay has a greater importance in the performance of TCP when comparing with the bandwidth of the access and backbone links importance, once in the tested scenario the bottleneck was present in the air interface. The simulation performed with noise in the Air Interface, introduced by the NS3 fading script, showed that the RLC AM (acknowledged mode) had a better performance than the RLM UM (Unacknowledged mode).
423

DistributedCL: middleware de processamento distribuído em GPU com interface da API OpenCL. / DistributedCL: middleware de processamento distribuído em GPU com interface da API OpenCL.

Andre Luiz Rocha Tupinamba 10 July 2013 (has links)
Este trabalho apresenta a proposta de um middleware, chamado DistributedCL, que torna transparente o processamento paralelo em GPUs distribuídas. Com o suporte do middleware DistributedCL uma aplicação, preparada para utilizar a API OpenCL, pode executar de forma distribuída, utilizando GPUs remotas, de forma transparente e sem necessidade de alteração ou nova compilação do seu código. A arquitetura proposta para o middleware DistributedCL é modular, com camadas bem definidas e um protótipo foi construído de acordo com a arquitetura, onde foram empregados vários pontos de otimização, incluindo o envio de dados em lotes, comunicação assíncrona via rede e chamada assíncrona da API OpenCL. O protótipo do middleware DistributedCL foi avaliado com o uso de benchmarks disponíveis e também foi desenvolvido o benchmark CLBench, para avaliação de acordo com a quantidade dos dados. O desempenho do protótipo se mostrou bom, superior às propostas semelhantes, tendo alguns resultados próximos do ideal, sendo o tamanho dos dados para transmissão através da rede o maior fator limitante. / This work proposes a middleware, called DistributedCL, which makes parallel processing on distributed GPUs transparent. With DistributedCL middleware support, an OpenCL enabled application can run in a distributed manner, using remote GPUs, transparently and without alteration to the code or recompilation. The proposed architecture for the DistributedCL middleware is modular, with well-defined layers. A prototype was built according to the architecture, into which were introduced multiple optimization features, including batch data transfer, asynchronous network communication and asynchronous OpenCL API invocation. The prototype was evaluated using available benchmarks and a specific benchmark, the CLBench, was developed to facilitate evaluations according to the amount of processed data. The prototype presented good performance, higher compared to similar proposals. The size of data for transmission over the network showed to be the biggest limiting factor.
424

Implementação de verificações biométricas processadas em cartões inteligentes a multi-aplicações. / Implementation of biometric verifications on multi-application smart cards.

Rafael Soares Wyant 28 November 2013 (has links)
Conselho Nacional de Desenvolvimento Científico e Tecnológico / As biometrias vêm sendo utilizadas como solução de controle de acesso a diversos sistemas há anos, mas o simples uso da biometria não pode ser considerado como solução final e perfeita. Muitos riscos existem e não devem ser ignorados. A maioria dos problemas está relacionada ao caminho de transmissão entre o local onde os usuários requerem seus acessos e os servidores onde são guardados os dados biométricos capturados em seu cadastro. Vários tipos de ataques podem ser efetuados por impostores que desejam usar o sistema indevidamente. Além dos aspectos técnicos, existe o aspecto social. É crescente a preocupação do usuário tanto com o armazenamento quanto o uso indevido de suas biometrias, pois é um identificador único e, por ser invariável no tempo, pode ser perdido para sempre caso seja comprometido. O fato de que várias empresas com seus diferentes servidores guardarem as biometrias está causando incomodo aos usuários, pois as torna mais suscetíveis à ataques. Nesta dissertação, o uso de cartões inteligentes é adotado como possível solução para os problemas supracitados. Os cartões inteligentes preparados para multi-aplicações são usados para realizar as comparações biométricas internamente. Dessa forma, não seria mais necessário utilizar diversos servidores, pois as características biométricas estarão sempre em um único cartão em posse do dono. Foram desenvolvidas e implementadas três diferentes algoritmos de identificação biométrica utilizando diferentes características: impressão digital, impressão da palma da mão e íris. Considerando a memória utilizada, tempo médio de execução e acurácia, a biometria da impressão da palma da mão obteve os melhores resultados, alcançando taxas de erro mínimas e tempos de execução inferiores a meio segundo. / The biometrics have been used as a solution for access control systems for many years, but the simple use of biometrics can not be considered as final and perfect solution. There are many risks that should not be ignored. Most problems are related to the transmission path between the system where the users require access and the servers where the captured biometric data is stored. Various types of attacks can be made by impostors who want to use the system improperly. Besides the technical aspects, there is the social aspect. There is a growing concern of users about both data storage and the misuse of their biometrics, which is an unique identifier and, being invariant in time, may be lost forever if compromised. The fact that several companies keep their biometric data in different servers is causing discomfort to users because it makes their biometric data more susceptible to attacks. In this dissertation, the use of smart cards is adopted as a possible solution to the above problems. Smart cards prepared for multi-applications are used to perform biometric comparisons internally. Thus, it would not be necessary to use different servers as the biometric features will always be kept on a single card in the possession of the owner. In this work, three different algorithms using different biometric identification characteristics are developed and implemented: fingerprint, palmprint and iris. Considering the used memory, average execution time and accuracy, the implementation of palmprint verification achieved the best results, allowing minimum error rates and processing time of at most 0.5s.
425

Sistemas inteligentes adaptativos aplicados a um robô auto-equilibrante de duas rodas. / Adaptive Intelligent Systems applied to one twowheeled robot.

Sender Rocha dos Santos 25 February 2015 (has links)
The advances and the development of vehicles and autobalance robots make necessary the investigation of controllers able to meet the various challenges related to the use of these systems. The focus of this work is to study the equilibrium and position control of one two-wheeled robot. The particular interest in this application comes from its structure and its rich physical dynamics. Since this is a complex and non trivial problem, there is great interest in to analyze intelligent controllers. The first part of this dissertation discusses the development of a classic PID controller. Then it is compared with two types of intelligent controllers: On-line Neural Fuzzy Control (ONFC) and Proportional-Integral-Derivative Neural-Network (PID-NN). Also it is presented the implementation of controllers in a hadware plataform using the LEGO Mindstorm kit and in a simulation plataform using the MATLAB-Simulink. Two case studies are developed. The first one investigates the control of equilibrium and position of two-wheeled robot on a flat terrain to observe the intrinsec performance in lack of external factors. The second case studies the equilibrium and position control of the robot in irregular terrains to investigate the system response under influence of hard conditions in its environment. Finally, the performance of each controller developed is discussed and competitive results in the control of two-wheeled robot are achieved. / Com o avanço no desenvolvimento e utilização de veículos e robôs autoequilibrantes, faz-se necessário a investigação de controladores capazes de atender os diversos desafios relacionados à utilização desses sistemas. Neste trabalho foi estudado o controle de equilíbrio e posição de um robô auto-equilibrante de duas rodas. O interesse particular nesta aplicação vem da sua estrutura e da riqueza de sua dinâmica física. Por ser um problema complexo e não trivial há grande interesse em avaliar os controladores inteligentes. A primeira parte da dissertação aborda o desenvolvimento de um controle clássico do tipo PID, para em seguida ser comparado com a implementação de dois tipos de controladores inteligentes: On-line Neuro Fuzzy Control (ONFC) e Proportional-Integral-Derivative Neural-Network (PIDNN). Também é apresentada a implementação dos controladores em uma plataforma de hardware, utilizando o kit LEGO Mindstorm, e numa plataforma de simulação utilizando o MATLAB-Simulink. Em seguida, dois estudos de casos são desenvolvidos visando comparar o desempenho dos controladores. O primeiro caso avalia o controle de equilíbrio e posição do robô auto-equilibrante de duas rodas sobre um terreno plano tendo como interesse observar o desempenho intrínseco do sistema sob ausência de fatores externos. O segundo caso estuda o controle de equilíbrio e posição do robô em terrenos irregulares visando investigar a resposta do sistema sob influência de condições adversas em seu ambiente. Finalmente, o desempenho de cada um dos controladores desenvolvidos é discutido, verificando-se resultados competitivos no controle do robô auto-equilibrante de duas rodas.
426

Análise de desempenho de um protocolo BitTorrent ciente de localização em redes corporativas. / Performance Analysis of a locality-aware BitTorrent protocol in enterprise networks.

Marco Antonio D'Alessandro Costa 23 July 2015 (has links)
Hoje em dia, distribuições de grandes volumes de dados por redes TCP/IP corporativas trazem problemas como a alta utilização da rede e de servidores, longos períodos para conclusão e maior sensibilidade a falhas na infraestrutura de rede. Estes problemas podem ser reduzidos com utilização de redes par-a-par (P2P). O objetivo desta dissertação é analisar o desempenho do protocolo BitTorrent padrão em redes corporativas e também realizar a análise após uma modificação no comportamento padrão do protocolo BitTorrent. Nesta modificação, o rastreador identifica o endereço IP do par que está solicitando a lista de endereços IP do enxame e envia somente aqueles pertencentes à mesma rede local e ao semeador original, com o objetivo de reduzir o tráfego em redes de longa distância. Em cenários corporativos típicos, as simulações mostraram que a alteração é capaz de reduzir o consumo médio de banda e o tempo médio dos downloads, quando comparados ao BitTorrent padrão, além de conferir maior robustez à distribuição em casos de falhas em enlaces de longa distância. As simulações mostraram também que em ambientes mais complexos, com muitos clientes, e onde a restrição de banda em enlaces de longa distância provoca congestionamento e descartes, o desempenho do protocolo BitTorrent padrão pode ser semelhante a uma distribuição em arquitetura cliente-servidor. Neste último caso, a modificação proposta mostrou resultados consistentes de melhoria do desempenho da distribuição. / Nowadays, distributions of large volumes of data over enterprise TCP/IP networks bring problems such as high network and server utilizations, long periods for completion, and greater sensitivity to flaws in network infrastructure. These problems can be reduced with the use of Peer-to-Peer networks (P2P). The aim of this work is to analyze the performance of the standard BitTorrent protocol in corporate networks and also perform the analysis after a change in the default behavior of the BitTorrent protocol. In this modification, the tracker identifies the peer IP address requesting the list of IP addresses of the swarm and sends only those belonging to the same LAN and to the original seeder, with the aim of reducing traffic on WAN links. In typical enterprise scenarios, the simulations showed that the change is able to reduce the average bandwidth consumption and the average time of downloads compared with standard BitTorrent, and give greater robustness to the distribution in case of failure of WAN links. The simulations also showed that in more complex network environments, with many clients, and where the bandwidth restriction on long distance links causes congestion and packet drops, the performance of standard BitTorrent protocol can be similar than a distribution in client-server architecture. In the latter case, the proposed change showed consistent results in improving distribution performance.
427

Caracterização de nódulos pulmonares em imagens de tomografia computadorizada para fins de auxílio ao diagnóstico

Froner, Ana Paula Pastre January 2015 (has links)
Made available in DSpace on 2015-11-13T01:05:20Z (GMT). No. of bitstreams: 1 000476008-Texto+Completo-0.pdf: 3175485 bytes, checksum: c834edcf4b177f48ac857f5651107461 (MD5) Previous issue date: 2015 / Morphological attributes, intensity and texture, are essential to aid the diagnosis of pulmonary nodules. To improve the accuracy of diagnosis, as well as the interpretation of radiological imaging, computer-aided diagnostic systems are used, which help to reduce the interpretation variability. The aim of this study was to evaluate the use of patient data and quantitative attributes of pulmonary nodules in lung computed tomography to build a classification model in terms of malignancy. The study was based on the analysis of 51 patients computed tomography images of lung, 33 patients diagnosed with malignant lesions and 18 patients with benign lesions, all confirmed through anatomo-pathological report of lung tissue. The study included a diagnostic interpretation stage made from a blind study with radiologists and the use of logistic regression to analyze the predictive power of qualitative and quantitative variables extracted from computed tomography lung images. The quantitative attributes of the nodules consisted of twelve morphological attributes (volume, area, perimeter, compactness, roughness and invariant moments of order 1 to 7), five intensity attributes (mass, density, CT number average, fat and calcification indexes) and three texture attributes (homogeneity, entropy and variance).The results showed that in the visual interpretation of radiologists, only the most experienced doctor showed a correlation with the pathology report (64. 5%), when excluding the hits due to chance. The model which better predicts the nodules malignancy included a quantitative attribute of localization, the intensity attribute ‘calcification index’ developed in this work, and the compactness, a morphological attribute related to the nodule form. The predictive value of the classification model (86. 3%) was much higher than the predictive value based on the visual assessment of the most experienced doctor (65. 3%), regardless of the chance, being close to the accuracy of the same doctor (85. 1%). This emphasizes the importance of this type of research in the search for a quantitative model that allows the classification of pulmonary nodules. / Atributos morfológicos, de intensidade e textura são essenciais para o auxilio ao diagnóstico de nódulos em imagens de tomografia computadorizada de pulmão. Para melhorar a acurácia do diagnóstico, assim como a interpretação da imagem radiológica, são utilizados sistemas de diagnóstico auxiliado por computador, que ajudam a diminuir a variabilidade de interpretação. O objetivo geral deste estudo foi avaliar a utilização de dados de pacientes e atributos quantitativos de nódulos pulmonares em imagens de tomografia computadorizada de pulmão para a construção de um modelo de classificação em termos de malignidade. O estudo foi baseado em uma análise das imagens de tomografia computadorizada de pulmão de 51 pacientes, sendo 33 pacientes diagnosticados com lesões malignas e 18 pacientes com lesões benignas, todos confirmados por meio do laudo anatomopatológico do tecido pulmonar. O estudo contou com uma etapa de interpretação diagnóstica realizada a partir de um estudo cego com médicos radiologistas e a utilização da regressão logística para análise do poder preditivo de variáveis qualitativas e quantitativas extraídas das imagens de tomografia computadorizada de pulmão. Os atributos quantitativos dos nódulos foram constituídos de: doze atributos morfológicos (volume, área, perímetro, compacidade, irregularidade e os momentos invariantes de ordem 1 a 7), cinco atributos de intensidade (massa, densidade, média do número TC, índice de gordura e índice de calcificação) e três atributos de textura (homogeneidade, entropia e variância).Os resultados mostraram que na interpretação visual dos radiologistas, apenas o médico com maior experiência apresentou uma concordância com o laudo anatomopatológico (64,5%), quando se excluem os acertos devido ao acaso. Concluiu-se que o modelo que melhor classifica a malignidade dos nódulos incluiu um atributo qualitativo de localização, um atributo de intensidade relacionado ao índice de calcificação, desenvolvido neste trabalho, e um atributo morfológico relacionado à compacidade do nódulo. O valor preditivo do modelo (86,3%) foi muito maior do que o valor preditivo baseado na avaliação visual do médico mais experiente (65,3%), sem considerar o acaso, estando próximo da acurácia desse mesmo médico (85,1%), incluído o acerto devido ao acaso. Este fato revela a importância deste tipo de pesquisa na busca de um modelo quantitativo, baseado em imagens de tomografia computadorizada, que permita a classificação dos nódulos pulmonares.
428

Análise de desempenho do protocolo TCP em Redes LTE. / Performance evaluation of TCP protocol in LTE Networks.

Carlos Alberto Leite Bello Filho 26 February 2014 (has links)
O crescimento dos serviços de banda-larga em redes de comunicações móveis tem provocado uma demanda por dados cada vez mais rápidos e de qualidade. A tecnologia de redes móveis chamada LTE (Long Term Evolution) ou quarta geração (4G) surgiu com o objetivo de atender esta demanda por acesso sem fio a serviços, como acesso à Internet, jogos online, VoIP e vídeo conferência. O LTE faz parte das especificações do 3GPP releases 8 e 9, operando numa rede totalmente IP, provendo taxas de transmissão superiores a 100 Mbps (DL), 50 Mbps (UL), baixa latência (10 ms) e compatibilidade com as versões anteriores de redes móveis, 2G (GSM/EDGE) e 3G (UMTS/HSPA). O protocolo TCP desenvolvido para operar em redes cabeadas, apresenta baixo desempenho sobre canais sem fio, como redes móveis celulares, devido principalmente às características de desvanecimento seletivo, sombreamento e às altas taxas de erros provenientes da interface aérea. Como todas as perdas são interpretadas como causadas por congestionamento, o desempenho do protocolo é ruim. O objetivo desta dissertação é avaliar o desempenho de vários tipos de protocolo TCP através de simulações, sob a influência de interferência nos canais entre o terminal móvel (UE User Equipment) e um servidor remoto. Para isto utilizou-se o software NS3 (Network Simulator versão 3) e os protocolos TCP Westwood Plus, New Reno, Reno e Tahoe. Os resultados obtidos nos testes mostram que o protocolo TCP Westwood Plus possui um desempenho melhor que os outros. Os protocolos TCP New Reno e Reno tiveram desempenho muito semelhante devido ao modelo de interferência utilizada ter uma distribuição uniforme e, com isso, a possibilidade de perdas de bits consecutivos é baixa em uma mesma janela de transmissão. O TCP Tahoe, como era de se esperar, apresentou o pior desempenho dentre todos, pois o mesmo não possui o mecanismo de fast recovery e sua janela de congestionamento volta sempre para um segmento após o timeout. Observou-se ainda que o atraso tem grande importância no desempenho dos protocolos TCP, mas até do que a largura de banda dos links de acesso e de backbone, uma vez que, no cenário testado, o gargalo estava presente na interface aérea. As simulações com erros na interface aérea, introduzido com o script de fading (desvanecimento) do NS3, mostraram que o modo RLC AM (com reconhecimento) tem um desempenho melhor para aplicações de transferência de arquivos em ambientes ruidosos do que o modo RLC UM sem reconhecimento. / The growth of broadband services in mobile networks has led to a demand for data with faster and better quality transmissions. The mobile network technology called LTE (Long Term Evolution) or fourth generation (4G) came up with the objective of attending this demand for wireless access to services such as Internet access, online games, VoIP and video conferencing. LTE is part of the specifications of 3GPP Releases 8 and 9 operating in all-IP networks and providing transmission rates above 100 Mbps (DL), 50 Mbps (UL), low latency (10 ms) and compatibility with previous versions of mobile networks, 2G (GSM / EDGE) and 3G (UMTS / HSPA). The TCP protocol designed to operate in wired networks presents poor performance over wireless channels such as mobile cellular networks, due mainly to the characteristics of selective fading, shadowing and high error rates coming from the air interface. As all losses are interpreted as caused by congestion the protocol performance is bad. The objective of this dissertation is to evaluate the performance of several types of the TCP protocols through simulations, under the influence of channel interference between the mobile terminal (UE - User Equipment) and a remote server. For this, the NS3 (Network Simulator version 3) software and the protocols TCP Westwood Plus, New Reno, Reno and Tahoe were used. Results have shown that the TCP Westwood Plus protocol has a better performance than others. The New Reno and Reno TCP protocols had similar performance due to the proposed interference model, which has a uniform distribution and so the possibility of loss of consecutive bits is low on the same transmission window. TCP Tahoe, as expected has shown the worst performance among all because it does not have the fast recovery mechanism and its congestion window keeps coming back to one segment after a timeout. It was also observed that the delay has a greater importance in the performance of TCP when comparing with the bandwidth of the access and backbone links importance, once in the tested scenario the bottleneck was present in the air interface. The simulation performed with noise in the Air Interface, introduced by the NS3 fading script, showed that the RLC AM (acknowledged mode) had a better performance than the RLM UM (Unacknowledged mode).
429

DistributedCL: middleware de processamento distribuído em GPU com interface da API OpenCL. / DistributedCL: middleware de processamento distribuído em GPU com interface da API OpenCL.

Andre Luiz Rocha Tupinamba 10 July 2013 (has links)
Este trabalho apresenta a proposta de um middleware, chamado DistributedCL, que torna transparente o processamento paralelo em GPUs distribuídas. Com o suporte do middleware DistributedCL uma aplicação, preparada para utilizar a API OpenCL, pode executar de forma distribuída, utilizando GPUs remotas, de forma transparente e sem necessidade de alteração ou nova compilação do seu código. A arquitetura proposta para o middleware DistributedCL é modular, com camadas bem definidas e um protótipo foi construído de acordo com a arquitetura, onde foram empregados vários pontos de otimização, incluindo o envio de dados em lotes, comunicação assíncrona via rede e chamada assíncrona da API OpenCL. O protótipo do middleware DistributedCL foi avaliado com o uso de benchmarks disponíveis e também foi desenvolvido o benchmark CLBench, para avaliação de acordo com a quantidade dos dados. O desempenho do protótipo se mostrou bom, superior às propostas semelhantes, tendo alguns resultados próximos do ideal, sendo o tamanho dos dados para transmissão através da rede o maior fator limitante. / This work proposes a middleware, called DistributedCL, which makes parallel processing on distributed GPUs transparent. With DistributedCL middleware support, an OpenCL enabled application can run in a distributed manner, using remote GPUs, transparently and without alteration to the code or recompilation. The proposed architecture for the DistributedCL middleware is modular, with well-defined layers. A prototype was built according to the architecture, into which were introduced multiple optimization features, including batch data transfer, asynchronous network communication and asynchronous OpenCL API invocation. The prototype was evaluated using available benchmarks and a specific benchmark, the CLBench, was developed to facilitate evaluations according to the amount of processed data. The prototype presented good performance, higher compared to similar proposals. The size of data for transmission over the network showed to be the biggest limiting factor.
430

Implementação de verificações biométricas processadas em cartões inteligentes a multi-aplicações. / Implementation of biometric verifications on multi-application smart cards.

Rafael Soares Wyant 28 November 2013 (has links)
Conselho Nacional de Desenvolvimento Científico e Tecnológico / As biometrias vêm sendo utilizadas como solução de controle de acesso a diversos sistemas há anos, mas o simples uso da biometria não pode ser considerado como solução final e perfeita. Muitos riscos existem e não devem ser ignorados. A maioria dos problemas está relacionada ao caminho de transmissão entre o local onde os usuários requerem seus acessos e os servidores onde são guardados os dados biométricos capturados em seu cadastro. Vários tipos de ataques podem ser efetuados por impostores que desejam usar o sistema indevidamente. Além dos aspectos técnicos, existe o aspecto social. É crescente a preocupação do usuário tanto com o armazenamento quanto o uso indevido de suas biometrias, pois é um identificador único e, por ser invariável no tempo, pode ser perdido para sempre caso seja comprometido. O fato de que várias empresas com seus diferentes servidores guardarem as biometrias está causando incomodo aos usuários, pois as torna mais suscetíveis à ataques. Nesta dissertação, o uso de cartões inteligentes é adotado como possível solução para os problemas supracitados. Os cartões inteligentes preparados para multi-aplicações são usados para realizar as comparações biométricas internamente. Dessa forma, não seria mais necessário utilizar diversos servidores, pois as características biométricas estarão sempre em um único cartão em posse do dono. Foram desenvolvidas e implementadas três diferentes algoritmos de identificação biométrica utilizando diferentes características: impressão digital, impressão da palma da mão e íris. Considerando a memória utilizada, tempo médio de execução e acurácia, a biometria da impressão da palma da mão obteve os melhores resultados, alcançando taxas de erro mínimas e tempos de execução inferiores a meio segundo. / The biometrics have been used as a solution for access control systems for many years, but the simple use of biometrics can not be considered as final and perfect solution. There are many risks that should not be ignored. Most problems are related to the transmission path between the system where the users require access and the servers where the captured biometric data is stored. Various types of attacks can be made by impostors who want to use the system improperly. Besides the technical aspects, there is the social aspect. There is a growing concern of users about both data storage and the misuse of their biometrics, which is an unique identifier and, being invariant in time, may be lost forever if compromised. The fact that several companies keep their biometric data in different servers is causing discomfort to users because it makes their biometric data more susceptible to attacks. In this dissertation, the use of smart cards is adopted as a possible solution to the above problems. Smart cards prepared for multi-applications are used to perform biometric comparisons internally. Thus, it would not be necessary to use different servers as the biometric features will always be kept on a single card in the possession of the owner. In this work, three different algorithms using different biometric identification characteristics are developed and implemented: fingerprint, palmprint and iris. Considering the used memory, average execution time and accuracy, the implementation of palmprint verification achieved the best results, allowing minimum error rates and processing time of at most 0.5s.

Page generated in 0.0588 seconds