• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6983
  • 497
  • 318
  • 283
  • 283
  • 279
  • 194
  • 89
  • 78
  • 78
  • 76
  • 42
  • 6
  • 5
  • 2
  • Tagged with
  • 7635
  • 2223
  • 1814
  • 1759
  • 1287
  • 1076
  • 964
  • 962
  • 960
  • 895
  • 881
  • 870
  • 841
  • 799
  • 792
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
471

Trex cloud framework : uma abordagem para a automação da implantação de sistemas web JEE em ambientes de computação em nuvem / TREX Cloud Framework: An Approach for Deployment Automation of Web JEE Aplications in Cloud Computing Environments (Inglês)

Lima Júnior, Roberto Ribeiro Costa 22 October 2012 (has links)
Made available in DSpace on 2019-03-29T23:33:36Z (GMT). No. of bitstreams: 0 Previous issue date: 2012-10-22 / Cloud computing is a recent paradigm that is transforming the way software is developed, managed and scaled. Based on a flexible pay per use pricing model cloud providers offer a range of virtualized resources (e.g., computing, storage, networks, frameworks, applications) as a service that can be flexibly scaled to adjust to varying workloads. As Cloud computing becomes mainstream in software development many organizations are now considering to migrate their applications to the cloud. However, the task of deploying Java Enterprise Edition (JEE) applications in infrastructure-as-a-service (IaaS) clouds is generally daunting due to a number of manual steps necessary to configure all application components as a set of virtual machine images. This work presents a tool, TRexCloud, which supports the task of deploying a fully functional JEE application in IaaS clouds with a few clicks. An empirical study shows how TRexCloud enables users, independently of their level of expertise, to quickly deploy a complete JEE application in the Amazon cloud much faster than other deployment approaches commonly used. / A computação em nuvem é um paradigma recente que está transformando a forma como software é desenvolvido, gerenciado e escalado. Baseado em um modelo de precificação em que se paga pelo uso, provedores de nuvem oferecem recursos virtualizados (ex: computação, armazenamento, redes, frameworks, aplicações) como um serviço que pode ser facilmente ajustado para variadas cargas de trabalhos. À medida que a computação em nuvem torna-se um modelo popular para o desenvolvimento de software, muitas organizações estão considerando migrar suas aplicações para nuvens. No entanto, a tarefa de implantar aplicações do tipo Enterpise Java EE em nuvens de infra-estrutura (IaaS) é geralmente uma tarefa árdua devido a um grande número de procedimentos manuais que precisam ser realizados para configurar todos os componentes da aplicação como um conjunto de máquinas virtuais. Este trabalho apresenta a ferramenta TREXCLOUD que provê suporte para a tarefa de implantar aplicações Enterprise Java EE completamente funcionais em apenas poucos cliques. Um estudo empírico mostra como TREXCLOUD possibilita que usuários, independentemente do seu nível de experiência, consigam rapidamente implantar uma aplicação JavaEE completamente funcional na nuvem da Amazon de forma muito mais rápida do que usando duas outras abordagens de implantação populares.
472

Um modelo de custo para comercialização de software como serviço da nuvem / A Cost Model to Software-as-a-Service Commercialization in the Cloud (Inglês)

Camara, Alessandro Chagas 29 December 2015 (has links)
Made available in DSpace on 2019-03-29T23:52:56Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-12-29 / The competition among software vendors is rapidly increasing and crossing geographical borders, due to technologies such as cloud computing. In this scenario, companies that commercialize legacy software following a tradicional commercialization model are in clear disadvantage when compared to companies which commercialize their software applications as services in the cloud. For reasons of competitiveness and business survival, those companies too might need to consider migrating their software commercialization model to the cloud. This can be a problem since, most of the times, migrating a legacy software application to the cloud implies a high up-front investment from the part of the software vendor. Moreover, migration of the software commercialization model can be done according to multiple strategies, with each one leading to a different financial result. This work proposes a cost model that allows the analysis of the financial impact of different cloud migration strategies, in comparison with the traditional software commercialization strategy. That analysis takes into account the financial impact to both software vendors and their clients. As part of the work, a tool was also developed to automate and support the use of the proposed model. Keywords: software commercialization; cloud computing; software-as-a-service / A concorrência entre empresas desenvolvedoras de software é cada vez maior e sem fronteiras geográficas, graças a tecnologias como computação em nuvem. Nesse cenário, empresas que comercializam softwares legados, utilizando modelos tradicionais de comercialização, estão em desvantagem quando comparadas a empresas que comercializam seus aplicativos como serviço na nuvem. Por uma questão de competitividade e sobrevivência a longo prazo, essas empresas também podem ter que migrar seus modelos de comercialização de software para nuvem. Isso pode ser um problema porque, na maioria das vezes, migrar uma aplicação legada para um ambiente de nuvem implica em alto investimento para a empresa desenvolvedora da aplicação. Além disso, a migração do modelo de comercialização pode seguir diversas estratégias, cada uma apresentando um resultado financeiro diferente. Este trabalho propõe um modelo de custo que permite a análise do impacto financeiro de diferentes estratégias de migração de software para a nuvem, comparadas com a estratégia de comercialização adotada tradicionalmente. Essa análise leva em consideração o impacto financeiro tanto para o desenvolvedor do software quanto para seus clientes. Como parte do trabalho, também foi desenvolvida uma ferramenta que automatiza e dá suporte à utilização do modelo proposto. Palavras-chave: comercialização de software; computação em nuvem; software como serviço
473

Novas soluções para o planejamento de capacidade de aplicações em nuvens de infraestrutra-como-serviço

Cunha, Matheus Ciriaco Cerqueira 23 February 2017 (has links)
Made available in DSpace on 2019-03-29T23:56:49Z (GMT). No. of bitstreams: 0 Previous issue date: 2017-02-23 / One of the main challenges faced by users of infrastructure-as-a-service (IaaS) clouds is to correctly plan the resource capacity required for their applications¿ needs. This thesis proposes a new approach to support application capacity planning in IaaS clouds, called performance inference. This new approach is based on the definition of a capacity relation between different resource configurations offered by a cloud provider which enables to predict (or ¿infer¿), with a high level of accuracy, the expected performance of an application for certain resource configurations. The prediction is made based upon the observed performance for other resource configurations within the same provider. The approach significantly reduces the total number of configurations effectively tested in the cloud, resulting in lower costs and time for the capacity planning process. The performance inference approach has been evaluated empirically, as a solution to support capacity planning of two open source applications of distinct domains (WordPress and TeraSort), which were systematically tested in a public IaaS cloud (Amazon EC2), considering different resource configurations and different demand levels. The results obtained show that the approach achieves both high efficiency and high accuracy, being a promising alternative to an exhaustive capacity planning process as well as to other related solutions recently proposed in the literature. Key-words: Cloud Computing. Capacity Planning. Performance Inference. / Um dos principais desafios enfrentados pelos usuários de nuvens que oferecem infraestruturacomo-serviço (IaaS) é planejar adequadamente a capacidade dos recursos da nuvem necessários às suas aplicações. Esta tese propõe uma nova abordagem para apoiar o planejamento da capacidade de aplicações em nuvens IaaS, denominada inferência de desempenho. A nova abordagem tem como premissa a definição de uma relação de capacidade entre as diferentes configurações de recursos oferecidas por um provedor de nuvem, com a qual é possível prever (ou ¿inferir¿), com alto grau de precisão, o desempenho esperado de uma aplicação para determinadas configurações de recursos. A predição é realizada com base no desempenho observado para outras configurações de recursos do mesmo provedor. Dessa forma, a abordagem consegue reduzir, de forma significativa, o número total de configurações que precisam ser de fato testadas na nuvem,implicando em menores custo e tempo para o processo de planejamento. A abordagem de inferência de desempenho foi avaliada empiricamente, como solução para apoiar o planejamento da capacidade de duas aplicações de código aberto de domínios distintos (WordPress e TeraSort), as quais foram sistematicamente testadas em uma nuvem IaaS pública (Amazon EC2), considerando diferentes configurações de máquinas virtuais e diferentes níveis de demanda. Os resultados obtidos mostram que a nova abordagem consegue oferecer ao mesmo tempo alta eficiência e alta acurácia, sendo uma promissora alternativa ao planejamento de capacidade realizado de forma exaustiva bem como a outras soluções relacionadas recentemente propostas na literatura. Palavras-chaves: Computação em Nuvem. Planejamento de Capacidade. Inferência de Desempenho.
474

J-ortho : um ambiente gráfico interativo para simulação de tratamento ortodôntico

Barbosa Neto, Milton Escossia 09 December 2005 (has links)
Made available in DSpace on 2019-04-05T23:03:23Z (GMT). No. of bitstreams: 0 Previous issue date: 2005-12-09 / This dissertation presents J-Ortho, an open-source and interactive 3D graphical environment for the simulation of orthodontic treatment. J-Ortho is composed of three basic modules: Geometric Mapping, 3D Mesh Generation and Orthodontic Treatment Simulation. Initial experience proved that J-Ortho is easy to handle and the results showed in this work demonstrate a good degree of fit between experimental orthodontic treatments and simulated case studies. We hope that this work can further be used for teaching and training in Orthodontics. / Essa dissertação apresenta o J-Ortho, um ambiente gráfico interativo 3D de código aberto para simulação de tratamento ortodôntico. J-Ortho é composto de três módulos básicos: Mapeamento Geométrico, Geração da Malha 3D e Simulação do Tratamento Ortodôntico. Experiências iniciais provaram que J-Ortho é fácil de ser utilizado e os resultados mostrados neste trabalho demonstram um bom grau de ajuste entre tratamentos ortodônticos experimentais e estudos de casos simulados. Esperamos que este trabalho possa ser usado para ensino e treinamento em Ortodontia.
475

Implementação de duas arquiteturas microcontroladas tolerantes a falhas para controle da temperatura /

Botta, Gilson Fernando. January 2002 (has links)
Orientador: Deisy Piedade Munhoz Lopes / Banca: Gerson Antonio Santarine / Banca: Ronaldo Guimaraes Correa / Resumo: Os microcontroladores são empregados com freqüência crescente na automação e controle de processos. É fato, que em certos processos, a falha no sistema de controle é inadmissível. Nestes casos, é necessário o emprego de técnicas de tolerância à falhas. Diante disso, duas arquiteturas com base em microcontroladores, foram projetadas, construídas e submetidas a testes. Tanto a Arquitetura em Anel como a Arquitetura TMR implementadas, podem suportar falhas tanto nos nodos da estrutura, como nos arcos, que representam as ligações entre microcontroladores. Os nodos são controlados por protocolos implementados por programação, sem a necessidade de um circuito votante comum, presente na arquitetura TMR clássica, ou de qualquer outro circuito especial, para o controle da redundância dos circuitos. Os sistemas são modulares e podem operar sem um dos módulos ativado. Isso permite que um determinado módulo seja retirado para manutenção e posteriormente reinstalado, de maneira transparente a aplicação. Foram realizados testes nas arquiteturas desenvolvidas, com injeção de falhas físicas e lógicas. Ambas as arquiteturas responderam conforme o desejado, ou seja, detectaram e toleraram as falhas. As duas arquiteturas agregam características de confiabilidade e disponibilidade a sistemas de controle e apresentam-se como opções promissoras para a gestão de processos em tempo real. / Abstract: The microcontrollers are frequently used in automation and process control. It's a fact that in certain processes the failure in the control system it is inadmissible. In these cases it is necessary to make use of the fault-tolerance techniques. Within this context two fault-tolerant architecture based in microcontrollers were project, built and submitted to extensive tests. The implemented Ring Architecture on the TMR Architecture can endure failure, either in the structure nodes (in the microcontrollers) or in the arches, which represent the connections between the microcontrollers. The nodes are controlled by protocols implemented by a program without the need of a common voting circuit, which is present in the classic TMR Architecture, on any other special circuit to control the redundancy of the circuits. Both system are modules and can operate without one been activated. These allow one module to be removed for maintenance and be reinstalled after words. In tests of physics fault and logic were made in the enveloped architecture and both reacted as expected such as detected and endure fault. Both architecture congregated characteristics of reliability and availability to the control systems. / Mestre
476

Análise da influência de características visuais na detecção automática de foco ocular humano/

Nascimento, Danilo Oliveira January 2015 (has links) (PDF)
Dissertação (Mestrado em Engenharia Elétrica) - Centro Universitário da FEI, São Bernardo do Campo, 2015.
477

Computação ubíqua para aplicações em saúde

Santos, Filipe Coelho dos January 2009 (has links)
Tese de mestrado integrado. Engenharia Electrotécnica e de Computadores (Major Telecomunicações). Faculdade de Engenharia. Universidade do Porto. 2009
478

Arquitetura GALS pipeline para criptografia robusta a ataques DPA e DEMA

Soares, Rafael Iankowski January 2010 (has links)
Made available in DSpace on 2013-08-07T18:42:32Z (GMT). No. of bitstreams: 1 000427630-Texto+Completo-0.pdf: 18134696 bytes, checksum: 015c9036f900684ae6a3ea0f2d593c32 (MD5) Previous issue date: 2010 / The last decades have witnessed the growth of the need for secure computing systems for either stocking or processing sensitive information. Currently, the Internet is a primary medium for performing numerous activities such as shopping, banking, stocking personal information, ticket reservation among others. The use of open networks to keep and process such information requires computing systems that may securely deal with confidential information. The design of Systems on Chip (SoCs) that fulfill security requirements requires special communication protocols and the use of cryptography, the science based on arithmetic to hide information. In general, SoCs that use cryptography employ a relatively short text, named cryptographic key, whose secrecy determines the efficiency of the information hiding process. In any cryptosystem, knowing the cryptographic key enables any operation on any information belonging to a given user in a given system. The design of cryptographic algorithms deems to resist to cryptanalysis, the science of breaking encrypted information by exploiting the vulnerabilities of the information hiding process. Although most current cryptographic algorithms are robust to attacks based on the mathematics of cryptography, a new class of cryptanalysis techniques, called Side Channel Attacks (SCAs) allows correlating sensitive information such as cryptographic keys with the physical properties, such as processing time, power consumption and electromagnetic radiation, of the electronic devices supporting such applications. The traditional design flow that uses the synchronous paradigm and CMOS technology favors the leak of information through side channels. The literature abounds with proposals to make cryptosystems robust against SCA attacks. Among the alternatives available to obtain secure cryptographic systems stand out paradigms such as the Globally Asynchronous Locally Synchronous (GALS) and the use of fully asynchronous systems. This thesis proposes a new GALS architecture to enhance the robustness of cryptographic algorithms. It assumes the use of pipelining and asynchronous communication between each pair of neighbor stages. The approach achieves robustness through a combination of hardware replication into pipeline stages, asynchronous communication between such stages and independent variation of operating frequencies at each stage of the pipeline. The results show increased robustness against power consumption and electromagnetic radiation analysis. Moreover, the proposed and prototyped architectures display a significant data throughput improvement, at the cost of increased latency and area, the later caused by the hardware replication strategy. Compared to state-of-art asynchronous logic secure cryptography, the area costs achieved in this thesis are smaller than, or in the worst case compatible to the best proposals, proving that this is an interesting alternative against SCA attacks. / As últimas décadas presenciam uma necessidade crescente por sistemas computacionais que garantam o sigilo de informações, seja durante o processamento ou armazenamento destas. Hoje são comuns atividades como compras, transações bancárias, consulta a informações pessoais e reserva de passagens usando a Internet. O uso de redes abertas exige a transmissão protegida de dados confidenciais. O projeto de sistemas integrados em um único chip (em inglês, SoCs) que atendam a restrições de segurança requer protocolos especiais de comunicação e o emprego de criptografia, a ciência que se baseia na aritmética para ocultar informações. Em geral, SoCs que usam criptografia utilizam um texto relativamente curto, denominado chave criptográfica, cujo segredo condiciona a eficiência do processo de esconder informações. Em todo sistema criptográfico moderno, conhecer a chave criptográfica equivale a ser capaz de efetuar qualquer operação sobre o conjunto de informações de um dado usuário em um dado sistema. Algoritmos de criptografia são desenvolvidos para resistir à criptoanálise, a ciência de violar textos encriptados explorando vulnerabilidades do processo de ocultação de informação. Embora a maioria dos algoritmos atuais seja robusta a ataques baseados na matemática da criptografia empregada, uma nova classe de técnicas de criptoanálise pode ser usada contra suas implementações. Estes são os chamados Ataques por Canais Escondidos ou Laterais (do inglês, Side Channel Attacks, ou SCA), que permitem correlacionar informações sigilosas tal como uma chave criptográfica com propriedades físicas tais como tempo de processamento, consumo de potência e radiação eletromagnética de dispositivos eletrônicos. O fluxo tradicional de projeto que usa o paradigma síncrono e a tecnologia CMOS favorece a fuga de informações por canais escondidos.Várias propostas para imunizar sistemas criptográficos contra ataques SCA existem na literatura. Dentre as alternativas para a obtenção de sistemas criptográficos seguros, destacam-se paradigmas de projeto específicos tais como o Globalmente Assíncrono e Localmente Síncrono (GALS) e o completamente assíncrono. Esta tese propõe uma nova arquitetura GALS para melhorar a robustez de algoritmos criptográficos. Pressupõe-se o emprego de técnicas pipeline e de comunicação assíncrona entre estágios. A robustez é obtida através da combinação de replicação de hardware em estágios pipeline, comunicação assíncrona entre estes estágios e variação independente da freqüência de operação em cada estágio. Os resultados obtidos demonstram um aumento da robustez contra análises de consumo de potência e de radiação eletromagnética nas arquiteturas propostas. Além disso, as arquiteturas apresentam um aumento significativo da vazão de dados, ao custo de um aumento da latência de processamento e da área do circuito, este último provocado pela replicação de hardware. Comparado com o estado da arte em propostas de lógica assíncrona segura, o custo em área mostra-se inferior ou no pior caso compatível, demonstrando que a proposta é uma alternativa interessante de solução para neutralizar ataques SCA.
479

Introduzindo localização na plataforma SemantiCore para a criação de aplicações pervasivas baseadas em agentes de software

Wolski, Luciano Zamperetti January 2009 (has links)
Made available in DSpace on 2013-08-07T18:43:24Z (GMT). No. of bitstreams: 1 000423297-Texto+Completo-0.pdf: 2125541 bytes, checksum: b720e373e04149e2df5133a9d6b6bb4e (MD5) Previous issue date: 2009 / This work presents two emergent technologies in the computational area: software agents and pervasive computing. Pervasive computing proposes that the computation is always available, at any place, at any time, and that the user could use any device to have access to his computational environment. The growing interest of the scientific community in the use of software agents for application development pervasive environments is related to the agent properties such as: autonomy, mobility and pro-activity. There are several platforms for the development of multiagents systems (MAS) such as JADE [BEL07], Jason [BOR07] and SemantiCore [RIB04], but none of them provides the necessary infrastructure for pervasive agent-based application development, none of them has characteristics for generation of pervasive applications orientated to agents. In this sense, it is necessary to integrate pervasive characteristics in the agent platforms used nowadays. In this work, we propose the adaptation of a MAS environment order to create pervasive applications. / Este trabalho aborda duas tecnologias emergentes na área computacional: agentes de software e computação pervasiva. A computação pervasiva prevê que a computação esteja sempre disponível, em qualquer lugar, a qualquer tempo, e que o usuário possa usar qualquer dispositivo para ter acesso ao seu ambiente computacional. O crescente interesse da comunidade científica no uso da tecnologia de agentes para o desenvolvimento de aplicações para ambientes pervasivos é motivado por algumas propriedades dos agentes como autonomia, mobilidade e pró-atividade. Existem várias plataformas para o desenvolvimento de sistemas multiagentes (SMAs) como JADE [BEL07], Jason [BOR07] e SemantiCore [RIB04] e, nenhuma delas possui características para geração de aplicações pervasivas orientadas a agentes. A partir disso, faz sentido estendermos as plataformas para que incorporem características pervasivas as plataformas multiagentes usadas hoje em dia. Neste trabalho, veremos uma proposta de como tornar um ambiente de desenvolvimento multiagentes apto a criar aplicações pervasivas.
480

Fiscalização da neutralidade da rede e seu impacto na evolução da internet

Setenareski, Ligia Eliana January 2017 (has links)
Orientador : Prof. Dr. Elias P. Duarte Jr. / Coorientadora : Profa. Dra. Leticia Mara Peres / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 15/12/2017 / Inclui referências : f. 174-202 / Área de concentração : Ciência da computação / Resumo: Desde 2002 temos presenciado um longo e controverso debate mundial sobre a Neutralidade da Rede, tema que envolve aspectos políticos, legais, econômicos, sociais, éticos, técnicos e de competitividade e inovação. A diversidade de aspectos considerados em torno deste tema leva a pontos de convergência e de divergência de opiniões, de acordo com os interesses dos agentes envolvidos. A Neutralidade da Rede refere-se à Internet aberta, na qual os usuários podem transitar de acordo com a sua liberdade de escolha. Em linhas gerais, a Neutralidade da Rede significa que os provedores de Internet, denominados ISPs (Internet Service Providers) não podem bloquear, estrangular, ou priorizar o conteúdo que trafega em suas redes. E, ainda, a Neutralidade da Rede significa que o ISP só pode cobrar do usuário final uma única vez pelo acesso à sua rede, e não pode cobrar dos provedores de conteúdo pelo conteúdo que trafega na sua rede. Nesta mesma senda, encontra-se o problema da violação ou da quebra da Neutralidade da Rede. Em traços largos, pode-se afirmar que ao longo deste tempo em que perdura o debate, os ISPs têm apresentado as mais diversas formas de violar a Neutralidade da Rede. Estas violações são detectadas e relatadas por usuários finais, ou por organizações, ou por membros da comunidade técnico-científica. Esta comunidade tem criado e utilizado mecanismos computacionais para monitorar o tráfego da Internet. Estes mecanismos computacionais têm por finalidade detectar alguma violação ou inconformidade com os preceitos da Neutralidade da Rede. Dentre as violações efetuadas pelos ISPs encontram-se os bloqueios de acesso a conteúdos, aplicações e portas; o estrangulamento e a diferenciação de tráfego; a velocidade ofertada abaixo da velocidade mínima contratada; a degradação do desempenho da rede; a oferta do serviço chamado de taxa zero, que discrimina e prioriza o tráfego; além de outras. Os ISPs, notadamente opositores à Neutralidade da Rede, continuam exercendo pressão junto às agências reguladoras e junto a políticos, a fim de impedir, retardar ou, até mesmo, modificar normatizações já instituídas. Isto comprova a permanência do debate, sem qualquer demonstração de previsão temporal em curto prazo para solucioná-lo. Como resultado de pesquisa, esta tese contribui para os avanços na área com a descrição de esforços mundiais de normatização bem como com o relato de diversos estudos de caso de violações nos cinco continentes. Esta tese também descreve ferramentas e estratégias desenvolvidas para detectar algum tipo de violação à Neutralidade da Rede. Além disso, é apresentado um estudo preliminar sobre uma possível correlação entre a regulação da Neutralidade da Rede e a evolução da infraestrutura da Internet no mundo. E, ainda, com o objetivo de contribuir de forma específica com o avanço deste tema no Brasil, apresenta um panorama dos agentes envolvidos neste contexto e o papel de cada um. E, finalmente, foi criado o Observatório da Neutralidade da Rede como uma ferramenta de controle social, para todos os aspectos inerentes à Neutralidade da Rede, a ser utilizada pela sociedade brasileira. Palavras-chave: Detecção de Violação à Neutralidade da Rede; Regulação da Neutralidade da Rede; Observatório de Neutralidade da Rede; Ferramentas computacionais para a Neutralidade da Rede. / Abstract: Since 2002 we have witnessed a long and controversial debate around Net Neutrality, a subject that encompasses multiple aspects, not only technical but also political, legal, economic, social, ethical, and also those related to competitiveness and innovation. The diversity of aspects around this subject raises opinions that both converge and diverge, according to the interests of the parts involved. Net Neutrality refers to an Open Internet that does not restrict users, enforcing their free choice. According to Net Neutrality principles, Internet Service Providers (ISP) cannot block, throttle or create fast tracks for any kind of pick traffic on their network. Furthermore, Net Neutrality means that an ISP is only allowed to charge end users once for the access to its network, and cannot charge content providers for making their content available. The Net Neutrality debate involves not only what is required/wanted but also the issue of Net Neutrality violations. It is possible to say that since the debate has started, ISPs have been shown to violate multiple Net Neutrality principles. Violations have been detected and reported by end users, or by organizations or by the technical community. This community has also devised strategies to monitor Internet traffic with the purpose of detecting violations or any type of non-compliance with the basic Net Neutrality principles. The ISP violations that have been reported include: blocking access to specific content, applications or ports; throttling and traffic discrimination; offering a network speed that is lower than the minimum speed agreed with the user; delivering low network performance; offering zero-rate services which discriminate and prioritize the traffic; among many others. ISPs, notably Net Neutrality opponents, continue to exert pressure on regulators and politicians to prevent, delay or even modify existing regulations. This proves that the debate has continued, without any hint that it will be solved in the short term. One of the contributions of this thesis is a comprehensive description of global regulatory efforts including several case studies of Net Neutrality violations that have occurred across the five continents. This thesis also presents a comprehensive survey of tools and strategies developed to detect Net Neutrality violations. In addition, a preliminary study is presented on a possible correlation between the establishment of Net Neutrality regulations and the evolution of the Internet infrastructure worldwide. Another contribution that has the specific purpose of contributing to the advancement of this theme in Brazil is the description of the agents involved in enforcing Net Neutrality in the country. Finally, the Network Neutrality Observatory was created as a tool that can enable social control of all the aspects inherent to Network Neutrality in Brazil. Keywords: Detection of Net Neutrality violations; Net Neutrality Regulations; Net Neutrality Observatory; Net Neutrality Tools.

Page generated in 0.0432 seconds