• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 174
  • 4
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 181
  • 181
  • 181
  • 65
  • 55
  • 51
  • 39
  • 39
  • 37
  • 36
  • 35
  • 33
  • 23
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Roteamento de trafego adaptativo baseado em caminho minimo em redes MPLS

Resende, Raulison Alves, 1970- 29 July 2018 (has links)
Orientador: Akebo Yamakami / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-29T01:05:48Z (GMT). No. of bitstreams: 1 Resende_RaulisonAlves_M.pdf: 990363 bytes, checksum: bf2ec493ac86b8b1b4a349a58e460b6a (MD5) Previous issue date: 2001 / Mestrado
142

Capacidade e roteamento em redes metropolitanas sem fio hibridas / Capacity and routing in wireless metropolitan area networks

Figueiredo, Fabricio Lira 12 October 2008 (has links)
Orientador: Paulo Cardieri / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-13T00:30:17Z (GMT). No. of bitstreams: 1 Figueiredo_FabricioLira_D.pdf: 5083177 bytes, checksum: 498c831a8d9546502e8c14d3a4ac4ad4 (MD5) Previous issue date: 2008 / Resumo: As redes metropolitanas sem fio (Wireless Metropolitan Area Networks - WMAN) modernas representam uma tendência tecnológica que viabiliza a ampliação da disponibilidade de acesso a serviços banda larga em todo o mundo. Estas redes se baseiam principalmente nas tecnologias WiMAX e Wi-Fi ad hoc e mesh, que apresentam características complementares e ermitem, a partir de sua integração, construir uma rede metropolitana sem fio híbrida com suporte a múltiplos serviços, mais flexível e de custo otimizado. Esta é a solução de rede investigada nesta tese, que exige o tratamento de diversos desafios tecnológicos, principalmente com o intuito de maximizar cobertura e desempenho da rede. Para tanto, é proposta uma abordagem que consiste em adotar, ao mesmo tempo, metodologias de planejamento e protocolos eficientes para redes WMAN híbridas. Neste contexto, dois aspectos de grande relevância são tratados: esquemas de roteamento de pacotes eficientes para redes Wi-Fi ad hoc e mesh e o planejamento de redes WMAN híbridas. Os resultados obtidos nesta tese representam contribuições significativas para o tratamento destes aspectos, e podem ser adotados para aumentar a eficiência de soluções de redes WMAN híbridas. / Abstract: Modern wireless metropolitan area networks (WMAN) correspond to technological tendency that has contributed to the growth of broadband services availability all over the world. These networks are currently based on technologies WiMAX, Wi-Fi ad hoc e mesh, which support complimentary features, thus allowing the design of multi- service hybrid WMANs, which correspond to a more flexible and cost-effective solution. This approach is the key research subject of this thesis, which requires that several technological challenges are handled, aiming at maximizing network coverage and performance. In this thesis, this problem is addressed by adopting network planning techniques and protocols that jointly contribute to increase coverage and efficiency of hybrid WMAN. In this context, two major aspects are considered: routing in Wi-Fi ad hoc and mesh and planning of hybrid WMAN. The results from this work correspond to significant contributions for each subject and can be adopted for increasing efficiency of hybrid WMAN solutions. / Doutorado / Telecomunicações e Telemática / Doutor em Engenharia Elétrica
143

Gerencia de redes virtuais privadas de camada 1 / Layer 1 virtual private network management

Malheiros, Neumar Costa, 1981- 29 August 2006 (has links)
Orientador: Edmundo Roberto Mauro Madeira / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-08T13:56:53Z (GMT). No. of bitstreams: 1 Malheiros_NeumarCosta_M.pdf: 2725607 bytes, checksum: f54c00065fc570ea3f84ae73359abcf8 (MD5) Previous issue date: 2006 / Resumo: Um plano de controle distribuído, como a arquitetura GMPLS (Generalized Multiprotocol Label Switching), permite o aprovisionamento dinâmico de conexões em redes de transporte de camada 1, como redes ópticas ou redes TDM (Time Division Multiplexing). Dessa forma, essas redes podem oferecer serviços mais sofisticados como serviços VPN (Virtual Private Network). Esses serviçõs, então denominados VPN de camada 1 (L1VPN - Layer 1 VPN), permitem que a infra-estrutura de transporte do provedor seja compartilhada entre múltiplas redes clientes. Neste trabalho, é proposta uma arquitetura para gerência de serviços L1VPN. A abordagem foi utilizar o paradigma de Gerência Baseada em Políticas (PBM ? Policy-Based Management) para prover aos clientes um certo nível de controle e gerência sobre suas L1VPNs. Além disso, é apresentada a implementação de um protótipo da arquitetura proposta, assim como uma discussão das implicações de diferentes políticas para a gerência de configuração de serviços L1VPN, a partir de um estudo de caso / Abstract: A distributed control plane architecture as GMPLS enhances transport networks with dynamic connection control. As a result, it allows the provisioning of advanced connectivity services, like Virtual Private Networks (VPNs), on layer 1 switching networks as optical and TDM networks. Such Layer 1 VPN (L1VPN) services enable multiple customer networks to share a single transport network. In this work, an architecture for L1VPN management is proposed. The approach is based on Policy-Based Management (PBM) to provide customers with some level of control and management over their L1VPNs. Furthermore, a prototype implementation of the proposed architecture is presented and from a case study implications of different policies for L1VPN service configuration management are discussed. / Mestrado / Mestre em Ciência da Computação
144

Propostas e analise de estrategias de controle de erros para redes de sensores sem fio / Proposals and analysis of error control strategies for wireless sensor networks

Kleinschmidt, João Henrique 12 August 2018 (has links)
Orientador: Walter da Cunha Borelli / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-12T11:16:43Z (GMT). No. of bitstreams: 1 Kleinschmidt_JoaoHenrique_D.pdf: 1743623 bytes, checksum: dec2fe8a6e5fd8bbcf251d2e24690fa8 (MD5) Previous issue date: 2008 / Resumo: As redes ad hoc sem fio não necessitam de infra-estrutura fixa e utilizam ondas de rádio para transmissão de dados. Uma rede de sensores sem fio é um tipo especial de rede ad hoc composta por dispositivos sensores de baixo custo e baixa potência. Estas características fazem com que as redes ad hoc e de sensores tenham limitações de energia. Além disso, as informações transmitidas no canal sem fio têm taxas de erro altas. Para melhorar a confiabilidade dos dados enviados no canal sem fio, técnicas como retransmissão ou códigos corretores de erros podem ser usadas. Esta tese analisa e propõe diferentes estratégias de controle de erros para redes de sensores sem fio. São apresentados modelos analíticos e de simulação de técnicas de controle de erros para consumo eficiente de energia em redes de sensores. Estes modelos são adaptados aos padrões IEEE 802.15.1 (Bluetooth) e IEEE 802.15.4 (ZigBee) e são propostos novos esquemas de correção de erros personalizados e adaptativos para estes padrões. Também são propostas estratégias de controle de erros adaptativas usando valor de informação de mensagens baseadas na área de cobertura e entropia. Os resultados são obtidos para diferentes cenários de redes, condições de canal e número de saltos. A escolha do melhor esquema de controle de erros depende da qualidade do canal e da aplicação considerada. / Abstract: Wireless ad hoc networks do not necessitate fixed infrastructure and use radio waves for data transmission. A wireless sensor network is a kind of ad hoc network formed by low cost and low power sensor devices. These characteristics made ad hoc and sensor networks very energy limited. Besides, the information transmitted in the wireless channel has high error rates. In order to improve the reliability of the data sent in the channel, techniques such as retransmission and error correcting codes can be applied. This thesis analyzes and proposes different error control strategies for wireless sensor networks. It is presented an analytical and a simulation model of error control techniques for energy consumption and energy efficiency. These models are adapted to the IEEE 802.15.1 (Bluetooth) and IEEE 802.15.4 (ZigBee) standards and novel custom and adaptive error control schemes are proposed. This work also proposes adaptive error control strategies using messages informational value based on coverage area and entropy. The results are obtained for different network scenarios, channel conditions and number of hops. The choice of the best error control scheme depends on the channel quality and the application. / Doutorado / Telecomunicações e Telemática / Doutor em Engenharia Elétrica
145

Addressing human factors in the design of cryptographic solutions = a two-case study in item validation and authentication / Abordando fatores humanos no projeto de soluções criptográficas : dois estudos de caso em validação de itens e autenticação

Piva, Fabio Rogério, 1982- 25 August 2018 (has links)
Orientador: Ricardo Dahab / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-25T09:03:51Z (GMT). No. of bitstreams: 1 Piva_FabioRogerio_D.pdf: 7931626 bytes, checksum: 2a9d167e0a1fd625d636fd24d4c0028e (MD5) Previous issue date: 2014 / Resumo: O projeto de soluções criptográficas seguras a partir de uma perspectiva puramente teórica não é suficiente para garantir seu sucesso em cenários realistas. Diversas vezes, as premissas sob as quais estas soluções são propostas não poderiam estar mais longe das necessidades do mundo real. Um aspecto frequentemente esquecido, que pode influenciar em como a solução se sai ao ser integrada, é a forma como o usuário final interage com ela (i.e., fatores humanos). Neste trabalho, estudamos este problema através da análise de dois cenários de aplicação bem conhecidos da pesquisa em Segurança da Informação: O comércio eletrônico de itens digitais e Internet banking. Protocolos de trocas justas tem sido amplamente estudados, mas continuam não sendo implementados na maioria das transações de comércio eletrônico disponíveis. Para diversos tipos de itens digitais (e-goods), o modelo de negócios atual para comércio eletrônico falha em garantir justiça aos clientes. A validação de itens é um passo crítico em trocas justas, e recebeu pouca atenção dos pesquisadores. Nós acreditamos que estes problemas devam ser abordados de forma integrada, para que os protocolos de trocas justas possam ser efetivamente implementados no mercado. De forma geral, acreditamos também que isso seja um reflexo de paradigmas de projeto orientado a sistemas para soluções de segurança, que são centrados em dados em vez de usuários, o que resulta em métodos e técnicas que frequentemente desconsideram os requisitos de usuários. Contextualizamos como, ao subestimar as sutilezas do problema da validação de itens, o modelo atual para compra e venda de itens digitais falha em garantir sucesso, na perspectiva dos compradores, para as transações ¿ sendo, portanto, injusto por definição. Também introduzimos o conceito de Degradação Reversível, um método que inerentemente inclui o passo de validação de itens em transações de compra e venda com a finalidade de mitigar os problemas apresentados. Como prova-de-conceito, produzimos uma implementação de Degradação Reversível baseada em códigos corretores de erros sistemáticos (SECCs), destinada a conteúdo multimídia. Este método é também o subproduto de uma tentativa de incluir os requisitos do usuário no processo de construção de métodos criptográficos, uma abordagem que, em seguida, evoluímos para o denominado projeto de protocolos orientado a itens. De uma perspectiva semelhante, também propomos um método inovador para a autenticação de usuários e de transações para cenários de Internet Banking. O método proposto, baseado em Criptografia Visual, leva em conta tanto requisitos técnicos quanto de usuário, e cabe como um componente seguro ¿ e intuitivo ¿ para cenários práticos de autenticação de transações / Abstract: Designing secure cryptographic solutions from a purely theoretical perspective is not enough to guarantee their success in a realistic scenario. Many times, the assumptions under which these solutions are designed could not be further from real-world necessities. One particular, often-overlooked aspect that may impact how the solution performs after deployment is how the final user interacts with it (i.e., human factors). In this work, we take a deeper look into this issue by analyzing two well known application scenarios from Information Security research: The electronic commerce of digital items and Internet banking. Fair exchange protocols have been widely studied, but are still not implemented on most e-commerce transactions available. For several types of digital items (e-goods), the current e-commerce business model fails to provide fairness to customers. A critical step in fair exchange is item validation, which still lacks proper attention from researchers. We believe this issue should be addressed in a comprehensive and integrated fashion before fair exchange protocols can be effectively deployed in the marketplace. More generally, we also believe this to be the consequence of ongoing system-oriented security solution design paradigms that are data-centered, as opposed to user-centered, thus leading to methods and techniques that often disregard users¿ requirements. We contextualize how, by overlooking the subtleties of the item validation problem, the current model for buying and selling digital items fails to provide guarantees of a successful transaction outcome to customers, thus being unfair by design. We also introduce the concept of Reversible Degradation, a method for enhancing buy-sell transactions concerning digital items that inherently includes the item validation step in the purchase protocol in order to tackle the discussed problems. As a proof-of-concept, we produce a deliverable instantiation of Reversible Degradation based on systematic error correction codes (SECCs), suitable for multimedia content. This method is also the byproduct of an attempt to include users¿ requirements into the cryptographic method construction process, an approach that we further develop into a so-called item-aware protocol design. From a similar perspective, we also propose a novel method for user and transaction authentication for Internet Banking scenarios. The proposed method, which uses Visual Cryptography, takes both technical and user requirements into account, and is suitable as a secure ¿ yet intuitive ¿ component for practical transaction authentication scenarios / Doutorado / Ciência da Computação / Doutor em Ciência da Computação
146

Plano de segurança para autenticação de dados em redes orientadas à informação / Security plane for data authentication in information-centric networks

Wong, Walter 19 August 2018 (has links)
Orientadores: Maurício Ferreira Magalhães, Jussi Kangasharju / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-19T04:57:24Z (GMT). No. of bitstreams: 1 Wong_Walter_D.pdf: 8583260 bytes, checksum: d8d0b4860d62302e3b4d81e44323d66c (MD5) Previous issue date: 2011 / Resumo: A segurança da informação é responsável pela proteção das informações contra o acesso nãoautorizado, uso, modificação ou a sua destruição. Com o objetivo de proteger os dados contra esses ataques de segurança, vários protocolos foram desenvolvidos, tais como o Internet Protocol Security (IPSEC) e o Transport Layer Security (TLS), provendo mecanismos de autenticação, integridade e confidencialidade dos dados para os usuários. Esses protocolos utilizam o endereço IP como identificador de hosts na Internet, tornando-o referência e identificador no estabelecimento de conexões seguras para a troca de dados entre aplicações na rede. Com o advento da Web e o aumento exponencial do consumo de conteúdos, como vídeos e áudios, há indícios da migração gradual do uso predominante da Internet, passando da ênfase voltada para a conexão entre hosts para uma ênfase voltada para a obtenção de conteúdo da rede, paradigma esse conhecido como information-centric networking. Nesse paradigma, usuários buscam por documentos e recursos na Internet sem se importarem com o conhecimento explícito da localização do conteúdo. Como consequência, o endereço IP que previamente era utilizado como ponto de referência do provedor de dados, torna-se meramente um identificador efêmero do local onde o conteúdo está armazenado, resultando em implicações para a autenticação correta dos dados. Nesse contexto, a simples autenticação de um endereço IP não garante a autenticidade dos dados, uma vez que o servidor identificado por um dado endereço IP não é necessariamente o endereço do produtor do conteúdo. No contexto de redes orientadas à informação, existem propostas na literatura que possibilitam a autenticação dos dados utilizando somente o conteúdo propriamente dito, como a utilização de assinaturas digitais por bloco de dado e a construção de árvores de hash sobre os blocos de dados. A ideia principal dessas abordagens é atrelar uma informação do provedor original do conteúdo nos blocos de dados transportados, por exemplo, uma assinatura digital, possibilitando a autenticação direta dos dados com o provedor, independentemente do host onde o dado foi obtido. Apesar do mecanismo citado anteriormente possibilitar tal verificação, esse procedimento é muito oneroso do ponto de vista de processamento, especialmente quando o número de blocos é grande, tornando-o inviável de ser utilizado na prática. Este trabalho propõe um novo mecanismo de autenticação utilizando árvores de hash com o objetivo de prover a autenticação dos dados de forma eficiente e explícita com o provedor original e, também, de forma independente do host onde os dados foram obtidos. Nesta tese, propomos duas técnicas de autenticação de dados baseadas em árvores de hash, chamadas de skewed hash tree (SHT) e composite hash tree (CHT), para a autenticação de dados em redes orientadas à informação. Uma vez criadas, parte dos dados de autenticação é armazenada em um plano de segurança e uma outra parte permanece acoplada ao dado propriamente dito, possibilitando a verificação baseada no conteúdo e não no host de origem. Além disso, essa tese apresenta o modelo formal, a especificação e a implementação das duas técnicas de árvore de hash para autenticação dos dados em redes de conteúdo através de um plano de segurança. Por fim, esta tese detalha a instanciação do modelo de plano de segurança proposto em dois cenários de autenticação de dados: 1) redes Peer-to-Peer e 2) autenticação paralela de dados sobre o HTTP / Abstract: Information security is responsible for protecting information against unauthorized access, use, modification or destruction. In order to protect such data against security attacks, many security protocols have been developed, for example, Internet Protocol Security (IPSec) and Transport Layer Security (TLS), providing mechanisms for data authentication, integrity and confidentiality for users. These protocols use the IP address as host identifier on the Internet, making it as a reference and identifier during the establishment of secure connections for data exchange between applications on the network. With the advent of the Web and the exponential increase in content consumption (e.g., video and audio), there is an evidence of a gradual migration of the predominant usage of the Internet, moving the emphasis on the connection between hosts to the content retrieval from the network, which paradigm is known as information-centric networking. In this paradigm, users look for documents and resources on the Internet without caring about the explicit knowledge of the location of the content. As a result, the IP address that was used previously as a reference point of a data provider, becomes merely an ephemeral identifier of where the content is stored, resulting in implications for the correct authentication data. In this context, the simple authentication of an IP address does not guarantee the authenticity of the data, because a hosting server identified by a given IP address is not necessarily the same one that is producing the requested content. In the context of information-oriented networks, some proposals in the literature proposes authentication mechanisms based on the content itself, for example, digital signatures over a data block or the usage of hash trees over data blocks. The main idea of these approaches is to add some information from the original provider in the transported data blocks, for example, a digital signature, enabling data authentication directly with the original provider, regardless of the host where the data was obtained. Although the mechanism mentioned previously allows for such verification, this procedure is very costly in terms of processing, especially when the number of blocks is large, making it unfeasible in practice. This thesis proposes a new authentication mechanism using hash trees in order to provide efficient data authentication and explicitly with the original provider, and also independently of the host where the data were obtained. We propose two techniques for data authentication based on hash trees, called skewed hash tree (SHT) and composite hash tree (CHT), for data authentication in information-oriented networks. Once created, part of the authentication data is stored in a security plane and another part remains attached to the data itself, allowing for the verification based on content and not on the source host. In addition, this thesis presents the formal model, specification and implementation of two hash tree techniques for data authentication in information-centric networks through a security plane. Finally, this thesis details the instantiation of the security plane model in two scenarios of data authentication: 1) Peer-to-Peer and 2) parallel data authentication over HTTP / Doutorado / Engenharia de Computação / Doutor em Engenharia Elétrica
147

Software Switch 1.3 : an experimenter-friendly OpenFlow implementation = Software Switch 1.3 : implementação de um comutador OpenFlow para experimentação em Redes Definidas por Software / Software Switch 1.3 : implementação de um comutador OpenFlow para experimentação em Redes Definidas por Software

Fernandes, Eder Leão, 1987- 27 August 2018 (has links)
Orientador: Christian Rodolfo Esteve Rothenberg / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-27T04:14:12Z (GMT). No. of bitstreams: 1 Fernandes_EderLeao_M.pdf: 1013570 bytes, checksum: 6c396641a9ce6faceedd380180040736 (MD5) Previous issue date: 2015 / Resumo: OpenFlow é a mais proeminente tecnologia para a implementação de Redes Definidas por Software (RDS). Projetada como uma interface de controle entre switches e controladores, o protocolo pode ser visto como um conjunto de instruções para programar a lógica de encaminhamento em comutadores da rede. A primeira versão do OpenFlow atraiu a atenção de pesquisadores da indústria e universidades interessados nos potenciais benefícios prometidos por RDS. Rápidamente surgiram ferramentas para experimentação em OpenFlow 1.0, incluindo comutadores, controladores e software para testes e emulação. Após o início da padronização do protocolo pela OpenNetworkFoundation, o protocolo OpenFlow evoluiu rapidamente dando origem à novas especificações. As novas funcionalidades aumentaram as possibilidades de experimentos, gerando entusiasmo. Porém, o desenvolvimento das ferramentas de experimen- tação não acompanharam o mesmo rítmo do protocolo. Para preencher essa lacuna, nosso projeto desenvolveu um comutador em software com suporte a OpenFlow 1.3. Guiado pelo objetivo de ser simples e básicos requisitos de desempenho, a proposta da ferramenta é ser uma opção, fácil e funcional para desenvolvedores de aplicações RDS buscando utilizar as novas funcionalidades do OpenFlow 1.3. Em suma, o software desenvolvido nesse projeto foi o primeiro comutador OpenFlow 1.3 do mundo. Lançado como projeto de código aberto, possibilitou a pesquisadores de todo o mundo a prototipagem e demonstração de soluções não possíveis anteriormente / Abstract: OpenFlow is the most prominent technology to enable Software Defined Networking (SDN). Designed as a control interface between switches and controllers, the protocol can be considered an instruction set to program the network forwarding logic. The first OpenFlow version attracted attention from both the industry and academy researchers interested in SDN promised benefits. Quickly, a toolset for OpenFlow 1.0 was available, which included switches, controllers, test and emulation software. When the protocol standardization process started by the Open Network Foundation, OpenFlow evolved fast and new specifications emerged in the last years. New features empowered the protocol and created enthusiasm; however projects of experimentation tools did not followed the OpenFlow fast pace. This work addresses one of these gaps, implementing an experimenter friendly OpenFlow 1.3 software switch. Driven by simplicity and basic performance requirements, the tool purpose is to be a functional and easy option for SDN developers that want to take advantage of the benefits brought by more recent OpenFlow versions. Overall, this project resulted in the open source release of the first OpenFlow 1.3 switch, allowing researchers from all around the globe to prototype and demonstrate solutions not possible until this work. Keywords: Computer Networks; Software Defined / Mestrado / Engenharia de Computação / Mestre em Engenharia Elétrica
148

Control+c: autoria na rede

Costa, Maria Teresa Tavares 30 July 2007 (has links)
Made available in DSpace on 2016-04-26T18:16:20Z (GMT). No. of bitstreams: 1 Maria Teresa Tavares Costa.pdf: 8371940 bytes, checksum: c5b7d46b730f1b5eb97dc72ae4084cc0 (MD5) Previous issue date: 2007-07-30 / Ctrl+C Authorship on the Net studies the new formats of creation that emerged from the Internet. By aiming beyond the discussions around a legal point of view, this work focusses on asthetic and critical parameters of online art experiences, which point towards the redefinition of the concept of authorship in the realm of digital media e the very context of contemporary culture. In order to cruise this itinerary, the text starts from an understanding of the technical particularities of the network, related to the symbolic exchanges established in its environment. In a first phase, the research investigates the concept of Network Culture through the social-technical relations which are its components. On the discussion proposed by Alexander Galloway concerning the protocols that rule the communication flux on the Internet, the concepts of code and interface are articulated, aiming to define a language digital objects. The theories of Lev Manovich, Margot Lovejoy, Florian Cramer and Jay David Bolter & Richard Grusin are utilized in order to further develop these discussions. After defining the specifities of the Network Culture, it became possible, in a second instance, to analyze de development of what Lawrence Lessig denominates as Remix Culture, in other words, a social configuration marked by semiotic appropriation and recontextualization typical of those new digital technologies. About Lessig s concept are discussed the aesthetic parameters of the remix cultures on the terrain of network culture through Eduardo Nava s analysis in parallel with the concepts of modularity and remixability by Lev Manovich, digital aura in Michael Betancourt and remix as consumption from Nicolas Bourriard. From the methodological perspective, a mapping and analysis of Internet projects that discuss the concepts above referred and contribute for the reconfiguration of the contemporary notion of authorship is accomplished. Among them: AfterSherrieLevine.com/AfterWalkerEvans.com , by Michael Mandiberg, 2001, and Society of the Spectacle (A Digital Remix) by Mark Amerika, Trace Reddell and Rick Silva, 2004. Such an empirical corpus was split into two categories proposed by Eduardo Navas: Selective and Reflexive Remix. The typologies of agency suggested by these works bring up questions such as the production and consumption relations, interactivity, property, control and micropolitics, as well as pointing towards the definition of both to the very own aesthetics and politics of the intercrossing between network culture and remix culture / Ctrl+C - autoria na rede estuda os novos formatos de criação que emergiram na Internet. Para além das discussões do ponto de vista jurídico, o trabalho concentrase em parâmetros estéticos e críticos de experiências de arte em rede que apontam para a redefinição do conceito de autoria no âmbito das mídias digitais e no próprio contexto da cultura contemporânea. Para dar conta deste percurso, o texto parte de um entendimento das particularidades técnicas da rede relacionadas às trocas simbólicas que nela se estabelecem. Em uma primeira etapa, a pesquisa investiga o conceito de Cultura de Rede através das relações sócio-técnicas que a compõem. Sobre a discussão de Alexander Galloway em relação aos protocolos que governam o fluxo de comunicação na Internet, os conceitos de código e interface são articulados com o objetivo de definir uma linguagem própria dos objetos digitais. Para estas discussões são utilizadas as teorias de Lev Manovich, Margot Lovejoy, Florian Cramer e Jay David Bolter & Richard Grusin. Após a definição das especificidades da Cultura de Rede, tornou-se possível, em um segundo momento, analisar o desenvolvimento do que Lawrence Lessig denomina Cultura Remix, ou seja, uma configuração social marcada pela apropriação e recontextualização semiótica típica das novas tecnologias digitais. Sobre o conceito de Lessig, são discutidos os parâmetros estéticos das práticas de remix no âmbito da cultura de rede através da análise de Eduardo Navas em paralelo com os conceitos de modularidade e remixabilidade de Lev Manovich, aura digital em Michael Betancourt e remix como consumo a partir de Nicolas Bourriaud. Do ponto de vista metodológico, realizou-se um mapeamento e análise de projetos concebidos para a Internet que discutem os conceitos tratados acima e contribuem para a reconfiguração da noção de autoria na contemporaneidade. São eles: AfterSherrieLevine.com/AfterWalkerEvans.com , de Michael Mandiberg, 2001 e Society of the Spectacle (A Digital Remix) de Mark Amerika, Trace Reddell e Rick Silva, 2004. Tal corpus empírico dividiu-se entre duas categorias propostas por Eduardo Navas Remix: Seletivo e Remix Reflexivo. As tipologias de agenciamentos que estes trabalhos sugerem colocam em pauta questões como as relações de produção e consumo, interatividade, propriedade, controle e micropolítica das redes digitais, além de apontar para a definição de uma estética e política próprias do entrecruzamento entre cultura de rede e cultura remix
149

Realização da gerência distribuída de redes utilizando SNMP, Java, WWW e Corba /

Barotto, Andre Mello January 1998 (has links)
Dissertação (Mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. / Made available in DSpace on 2012-10-17T07:04:24Z (GMT). No. of bitstreams: 0Bitstream added on 2016-01-09T01:13:25Z : No. of bitstreams: 1 139130.pdf: 3494692 bytes, checksum: 725799939812cf779abd032146d85411 (MD5)
150

Segurança na avaliação de conhecimento em contexto não presencial

Scheffel, Glauco Vinicius January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência de Computação. / Made available in DSpace on 2012-10-20T06:52:52Z (GMT). No. of bitstreams: 1 188377.pdf: 1243865 bytes, checksum: bac87d4664883682d17e76b31f54ae5e (MD5) / Realizou-se um estudo sobre o uso da Internet para aplicação de avaliaçõeses de conhecimento onde os alunos encontram-se afastados das instituições e não são supervisionados por pessoas no momento da avaliação. O estudo é adequado aos seguintes tipos de avaliação: cursos a distância, certificação profissional, proficiência em idiomas e concursos públicos. O estudo focou-se em determinar a aplicabilidade do uso desta como canal para transmissão e aplicação de avaliações sob o ponto de vista dos problemas de segurança do canal e autenticidade dos documentos. Demonstra-se a import ância da etapa de avaliação dentro do processo de ensino a distância; enumeram-se o funcionamento e os problemas de segurança que se pode encontrar nos vários tipos de avaliação existentes; faz-se uma revisão de soluções encontradas na literatura; resumemse conceitos de criptografia e, por último, propõe-se uma nova arquitetura que permita o uso da Internet como meio seguro de realização de avaliações.

Page generated in 0.3076 seconds