• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1163
  • 33
  • 32
  • 29
  • 29
  • 29
  • 28
  • 17
  • 12
  • 8
  • 8
  • 8
  • 4
  • 3
  • Tagged with
  • 1252
  • 1252
  • 350
  • 319
  • 302
  • 246
  • 245
  • 236
  • 216
  • 192
  • 166
  • 162
  • 139
  • 132
  • 123
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Infra-estrutura para a computação multi-cluster em ambiente Grid

Serrano, Albano José Dias January 2006 (has links)
Tese de mestrado. Redes e Serviços de Comunicações (Área de especialização de Comunicações). 2006. Faculdade de Engenharia. Universidade do Porto
72

Qos routing component for emerging IP Network management systems

Oliveira, Rui Manuel da Fonseca Simões de Matos January 2004 (has links)
Tese de mestrado. Redes e Serviços de Comunicação. 2004. Faculdade de Engenharia. Universidade do Porto
73

Qualidade de serviço em redes intra-chip: implementação e avaliação sobre a rede Hermes

Mello, Aline Vieira de January 2006 (has links)
Made available in DSpace on 2013-08-07T18:42:38Z (GMT). No. of bitstreams: 1 000391995-Texto+Completo-0.pdf: 1694229 bytes, checksum: ee45120ceb9e6be4fdb62fcce97ad619 (MD5) Previous issue date: 2006 / The proposition of Networks-on-Chip (NoCs) for modern and future embedded systems capitalizes on the fact that busses present performance degradation when shared by a great number of cores. Even if NoC research is a relatively young field, the literature abounds with propositions of NoC architectures. Several of these propositions claim providing quality of service (QoS) guarantees, which is essential for e. g. real time and multimedia applications. The most widespread approach to attain some degree of QoS guarantee relies on a two-step process. The first step is to characterize application performance through traffic modeling and simulation. The second step consists in tuning a given network template to achieve some degree of QoS guarantee. These QoS targeted NoC templates usually provide specialized structures to allow either the creation of connections (circuit switching) or the assignment of priorities to connectionless flows. It is possible to identify three drawbacks in this two-step process approach. First, it is not possible to guarantee QoS for new applications expected to run on the system, if those are defined after the network design phase. Second, even with end-to-end delay guarantees, connectionless approaches may introduce jitter. Third, to model traffic precisely for a complex application is a very hard task. If this problem is tackled by oversimplifying the modeling phase, errors may arise, leading to NoC parameterization that is poorly adapted to achieve the required QoS. This work has two main objectives. The first one is to evaluate the area-performance trade-off and the limitations of circuit switching and priority scheduling to meet QoS. This evaluation shows where such implementations are really suited for achieving QoS guarantees, and when more elaborate mechanisms to meet QoS are needed. The second objective is to propose the use of a rate-based scheduling to achieve QoS requirements considering the execution time state of the NoC. The evaluation of circuit switching and priority scheduling show that: (i) circuit switching can guarantee QoS only to a small number of flows, this technique presents low scalability and can potentially waste significant bandwidth; (ii) priority-based approaches may display best-effort behavior and, in worst-case situations, may lead to unacceptable latency for low priority flows, besides being subject to jitter. In face of these limitations, rate-based scheduling arises as an option to improve the performance of QoS flows when varying traffic scenarios are used. / A proposição de redes intra-chip (NoCs) para futuros e modernos sistemas embarcados baseia-se no fato de que barramentos apresentam degradação do desempenho quando compartilhados por um grande número de núcleos. Mesmo a pesquisa de NoCs sendo um campo relativamente novo, a literatura possui muitas proposições de arquiteturas de tais redes. Muitas destas proposições objetivam prover garantias de qualidade de Serviço (QoS), o que é essencial para aplicações de tempo real e multimídia. O método mais amplamente usado para obter algum grau de garantia de QoS é dividido em duas etapas. A primeira etapa é caracterizar a aplicação através da modelagem de tráfego e simulação. A segunda etapa consiste em dimensionar uma determinada rede para alcançar garantias de QoS. Projetos de NoCs destinados a atender QoS usualmente provêem estruturas especializadas para permitir ou a criação de conexões (chaveamento por circuito) ou a definição de prioridades para fluxos sem conexão. É possível identificar três desvantagens neste método de duas etapas. Primeiro, não é possível garantir QoS para novas aplicações que venham a ser executadas no sistema, se estas são definidas depois da fase de projeto da rede. Segundo, mesmo com garantias de latência fim-a-fim, métodos sem o estabelecimento de conexão podem introduzir jitter. Terceiro, modelar tráfego precisamente para uma aplicação complexa é uma tarefa muito difícil. Se este problema é contornado pela simplificação da fase de modelagem, erros podem ser introduzidos, conduzindo a uma parametrização da NoC pobremente adaptada para atender à QoS requerida. Este documento tem dois principais objetivos. O primeiro é avaliar o compromisso área-desempenho e as limitações do chaveamento por circuito e do escalonamento baseado em prioridades para prover QoS. Esta avaliação mostra quando tais implementações são realmente apropriadas para atender requisitos de QoS, e quando mecanismos mais elaborados são necessários. O segundo objetivo é propor o uso de um escalonamento baseado em taxas para atender requisitos de QoS, considerando o estado da NoC em tempo de execução. A avaliação do chaveamento por circuito e do escalonamento baseado em prioridades mostra que: (i) chaveamento por circuito pode garantir QoS somente para um pequeno número de fluxos; esta técnica apresenta baixa escalabilidade e pode desperdiçar largura de banda; (ii) escalonamento baseado em prioridades pode apresentar comportamento melhor esforço e, em situações de pior caso, pode conduzir a uma latência inaceitável para fluxos de baixa prioridade, além de ser sujeito a jitter. Por estas limitações, o escalonamento baseado em taxas surge com uma opção para melhorar o desempenho de fluxos QoS quando cenários de tráfego variáveis são usados.
74

Estimativa e redução da dissipação de potência em redes intra-chip com chaveamento por pacotes

Guindani, Guilherme Montez January 2008 (has links)
Made available in DSpace on 2013-08-07T18:42:51Z (GMT). No. of bitstreams: 1 000411702-Texto+Completo-0.pdf: 1801479 bytes, checksum: 77884f26b3b3891c3df19805dedffc5e (MD5) Previous issue date: 2008 / The main cost functions in VLSI design during the 90’s were silicon area, performance, cost and reliability. Power dissipation and energy consumption were a secondary concern. For example, some Intel processors could dissipate more than 120 watts. Mobile computing changes this scenario, making energy consumption and battery life a primary concern. A first move to reduce power is to integrate most of the system functions together in a single integrated circuit, leading to the SoC concept. Due to number of functions integrated in modern SoCs, networks on chip (NoCs) are becoming the preferred communication infrastructure due to their scalability and communication parallelism. Current power estimation models for NoCs capitalize mostly in the volume of information transmitted through the network. This work proposes a more precise NoC power estimation model, based in the buffer reception rates, according to the traffic scenario applied to the network. Results show the accuracy of the model compared to industrial power estimation tools, with an error inferior to 10%, with reduced execution time. Compared to a volume based estimation method, it was possible to demonstrate the weakness of such methods, even if they are faster to generate results. The proposed model is integrated into the ATLAS framework, providing designers a path to evaluate power and energy of automatically generated NoCs. Additionally, this work evaluates the dissipation of each Hermes internal component, with and without power reduction techniques. / No passado, as maiores preocupações de um projetista VLSI compreendiam área de silício, desempenho, custo e confiabilidade. A dissipação de potência e a energia consumida pelo circuito ocupavam uma posição secundária no projeto do mesmo. A computação móvel mudou este cenário, trazendo a dissipação de potência e o consumo de energia de um circuito como preocupações primárias, visando principalmente aumentar a vida útil das baterias do dispositivo. A primeira medida para reduzir a potência do circuito é agregar diversas funções, que antes estariam em circuitos independentes, em um mesmo circuito, criando o conceito de SoC. Devido ao número de funções integradas nos SoCs modernos, as redes intra-chip (NoCs) estão sendo mais utilizadas devido a sua escalabilidade e paralelismo de comunicação. Os modelos atuais de estimativa da dissipação de potência nas NoCs utilizam como principal métrica o volume de dados transmitidos na rede. Este trabalho propõe um modelo para estimativa da dissipação de potência em uma rede intra-chip mais preciso, baseado nas taxas de recepção nos buffers de cada roteador da rede durante a transmissão do tráfego avaliado. Resultados mostram um erro de no máximo 10% em comparação com uma ferramenta comercial de estimativa de dissipação de potência, reduzindo o tempo de estimativa. Comparando o modelo proposto com modelos baseados em volume de dados, podemos verificar a imprecisão dos modelos de volume, mesmo que estes apresentem tempo de resposta melhores. O modelo proposto foi integrado ao framework ATLAS, permitindo que os projetistas avaliem a potência dissipada para as NoCs e tráfegos gerados neste framework. Além disto, este trabalho apresenta a avaliação da dissipação de potência da NoC Hermes, avaliando a aplicação de técnicas de redução de potência em circuitos CMOS sobre a rede.
75

Dynamic server consolidation with controlled reconfiguration delays

Ferreto, Tiago Coelho January 2010 (has links)
Made available in DSpace on 2013-08-07T18:43:26Z (GMT). No. of bitstreams: 1 000428410-Texto+Completo-0.pdf: 2193675 bytes, checksum: 06cb9b5c6f14683e31d929da16f6a1db (MD5) Previous issue date: 2010 / Virtualization has reemerged in the last years as a solution to minimize costs in data centers due to resources subutilization. The possibility of dynamically changing virtual machines capacities and live-migrate them between physical servers resulted in a higher flexibility to attend sudden changes in computing demand, minimizing the amount of physical resources required. This increase in flexibility derived novel computing models such as utility computing and cloud computing. One of the key mechanisms in these virtualized data centers is dynamic server consolidation. It performs periodically the mapping of virtual machines to physical servers in order to attend changes in demand, while using a minimal set of physical resources to restrain power consumption costs. However, redefining a new mapping can require migrating virtual machines between physical servers, which eventually delay the reconfiguration of virtual machines to a new capacity. This work presents traditional algorithms used for dynamic server consolidation and evaluate their impact on the reconfiguration delay metric using different types of real and synthetic workloads. An algorithm for dynamic server consolidation which controls the maximum reconfiguration delay incurred by a new mapping is proposed. The experiments performed using this algorithm show that it provides higher control over reconfiguration delays and has a small impact in the additional amount of resources required. / A virtualização reapareceu nos últimos anos como solução para minimizar custos em data centers decorrentes da subutilização de recursos. A possibilidade de dinamicamente alterar a capacidade de máquinas virtuais e migrá-las de forma transparente entre servidores físicos resultou em maior flexibilidade para atender mudanças repentinas em demanda computacional, minimizando a quantidade de recursos físicos necessários. Este aumento em flexibilidade derivou novos modelos de computação como utility computing e cloud computing. Um dos principais mecanismos nestes data centers virtualizados é a consolidação dinâmica de servidores. Ele realiza periodicamente o mapeamento de máquinas virtuais para servidores físicos de forma a atender mudanças de demanda, enquanto utiliza um conjunto mínimo de recursos físicos para reduzir custos em consumo de energia. No entanto, redefinir o mapeamento pode exigir migrar máquinas virtuais entre servidores físicos, o que pode acabar atrasando a reconfiguração das máquinas virtuais para a nova capacidade. Este trabalho apresenta algoritmos normalmente utilizados para consolidação dinâmica de servidores e avalia o seu impacto na métrica de atraso de reconfiguração usando diferentes tipos de workloads reais e sintéticos. Um algoritmo para consolidação dinâmica de servidores que controla o atraso máximo de reconfiguração decorrente de um novo mapeamento é proposto. Os experimentos realizados com esse algoritmo demonstram que ele provê maior controle sobre atrasos de reconfiguração e possui baixo impacto na quantidade adicional de recursos necessários.
76

Análise de um algoritmo de fluxo em redes com remoção de arcos

Araújo, Nelcy Dabrowski de January 1981 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção. / Made available in DSpace on 2012-10-16T21:50:35Z (GMT). No. of bitstreams: 0Bitstream added on 2013-07-16T16:54:33Z : No. of bitstreams: 1 261345.pdf: 1226019 bytes, checksum: b60cd4c3c536744cec299e87c56bc970 (MD5)
77

Proposta de um ambiente de gerência de redes de alta velocidade utilizando Corba, Java e HTML

Klauck, Hugo André January 2000 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. / Made available in DSpace on 2012-10-17T12:50:44Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-25T18:10:47Z : No. of bitstreams: 1 171566.pdf: 2453201 bytes, checksum: 1fe0fcddefec8082e822c67806360487 (MD5) / Atualmente os sistemas de gerência de redes são poderosos, porém possuem plataformas centralizadas e proprietárias, limitando com isso, o controle em decorrência do grande crescimento das redes de computadores. Este fator gera a necessidade de explorar-mos novas tecnologias que podem ser usadas para o projeto de um ambiente de gerência de redes.Os recentes avanços na área de objetos distribuídos utilizando o CORBA (Common Object Request Broker Architeture) e o grande crescimento da Internet e a grande utilização da linguagem de programação Java surgem como poderosos mecanismos para o desenvolvimento de aplicações distribuídas que podem ser utilizadas com grande sucesso neste projeto de gerência de redes. Este trabalho descreve a utilização dessas tecnologias para o projeto de um ambiente de gerência de redes de computadores distribuída, que é independente de plataforma e utiliza páginas Web para realizar a interface com o usuário final.
78

Web 2.0 e colaboração científica

Galdo, Alessandra Maria Ruiz 25 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro de Ciências da Educação, Programa de Pós-graduação em Ciência da Informação, Florianópolis, 2010 / Made available in DSpace on 2012-10-25T00:53:06Z (GMT). No. of bitstreams: 1 279590.pdf: 2862087 bytes, checksum: 131d80b87965f1b0028d2e4300235278 (MD5) / Este trabalho objetiva analisar a percepção e o uso científico-acadêmico de ferramentas Web 2.0 pelos docentes de Programas de pós-graduação stricto sensu em Ciência da Informação no Brasil. A ciência possibilita o desenvolvimento de novas tecnologias ao mesmo tempo em que é alavancada ou desafiada pelas ferramentas tecnológicas que desenvolve. A Internet se apresenta como mais um meio propício à comunicação entre cientistas e pesquisadores e a Web 2.0 representa um novo padrão, ao viabilizar a colaboração do tipo muitos-muitos, recurso que vem sendo utilizado pela comunidade científico-acadêmica. A fim de cumprir o primeiro objetivo específico de caracterizar o cenário de uso da Web 2.0 pela comunidade científica recorreu-se à pesquisa bibliográfica e investigação de natureza exploratória. Para cumprir o segundo e o terceiro objetivos específicos de identificar respectivamente uso e a percepção sobre ferramentas Web 2.0 pelos docentes, sujeitos da pesquisa, recorreu-se a instrumento de coleta de dados na forma de questionário on-line com perguntas fechadas, espaço para comentários opcionais e uma pergunta aberta. Os dados das perguntas fechadas foram analisados por meio de análise estatística simples seguida de análise qualitativa. Os comentários opcionais foram interpretados por meio de análise qualitativa. A pergunta aberta foi tratada pela técnica de análise de conteúdo. Os resultados da pesquisa mostraram que da amostra de 44 respondentes, 68% usam a Web 2.0 com finalidades científico-acadêmicas, 14% não usam a Web 2.0 com essa finalidade e 18% responderam não usar, mas ter interesse. Em síntese, 86% dos respondentes usam ou tem interesse no tema. Conclui-se que a Web 2.0 é percebida pelos respondentes da pesquisa, professores da Ciência da Informação como tendo potencial para a colaboração científica, para a internacionalização da ciência, para as atividades de ensino, entretanto a visibilidade para pesquisas de países periféricos e semiperiféricos não depende da tecnologia mais do que depende do idioma. A colaboração científica não depende apenas da tecnologia, mas é alavancada por esta. A confiabilidade da informação não é determinada pelo meio em si. A Web 2.0 tem o potencial de alavancar a colaboração entre pessoas motivadas por interesses diversos. A ciência é uma atividade social em rede e vem sendo beneficiada pelas ferramentas colaborativas da Web 2.0. Para a Ciência da Informação, a Web 2.0 traz desafios em função de a informação se apresentar não estruturada, em interação dinâmica em tempo real com o usuário/produtor. / The objective of this study is to investigate how lecturers of post-graduate courses in information science in Brazil perceive and use Web 2.0 tools. While science enables the development of new technologies, it is also leveraged or challenged by the technological tools it develops. The Internet has arrived as another suitable means of communication between researchers and Web 2.0 represents a new standard, supporting many-many type collaboration, a commonly used resource in the academic-scientific community. Bibliographical research and exploratory investigation techniques were employed to achieve the first specific objective of characterizing the use of Web 2.0 by the scientific-academic community. In order to achieve the second and third objectives, namely to identify the usage and perception of Web 2.0 tools by the lecturers, data collection was conducted by means of an on-line questionnaire comprised of closed questions, an optional comments box and one open question. The data from the closed questions were analyzed through simple statistical analysis followed by qualitative analysis. Qualitative analysis was also used to interpret the optional comments, while the answers to the open question were examined by means of content analysis. The survey results showed that of the sample of 44 respondents, 68% use Web 2.0 for academic-scientific purposes, 14% do not use Web 2.0 for that purpose and 18% do not use the tool at all, but are interested in using it. Overall, 86% of the respondents either use or are interested in using the tool. In conclusion, Web 2.0 is seen by the survey respondents, information science lecturers, as capable of providing the grounds for scientific collaboration, the internationalization of science and for educational activities, however increased exposure of research studies from fringe and semi-fringe countries depends more on the language than on the technology employed. Scientific collaboration does not rely solely on technology, but is leveraged by it. Moreover, the reliability of the information is not determined by the means itself. Web 2.0 has the potential to support collaboration between people driven by different interests, and science as an institution and networked social activity is being furthered by Web 2.0 collaborative tools. Web 2.0 has brought changes to the field of Information Science in virtue of the non-structured presentation of the information, in dynamic and real time interaction with the user/producer.
79

Representação e uso da internet por adolescentes

Mello, Horácio Dutra January 2007 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro de Ciências da Educação. Programa de Pós-graduação em Educação / Made available in DSpace on 2012-10-23T02:33:31Z (GMT). No. of bitstreams: 1 250669.pdf: 733794 bytes, checksum: 9492505cb01b4012676b1f3c7adbdb67 (MD5) / O trabalho objetiva analisar representações e usos dos adolescentes frente ao computador conectado à Internet, entendendo-os como receptores no contexto da comunicação mediada pelas tecnologias de informação e comunicação (TICs). Partindo do princípio que a Internet se constitui como uma das possibilidades de consumo dos adolescentes, o trabalho apresenta uma investigação realizada através de questionários aplicados a adolescentes em duas escolas da rede pública municipal da cidade de Florianópolis/SC. Entre os resultados obtidos ressaltamos o fascínio que a Internet exerce sobre os adolescentes investigados e ainda a facilidade deles em dominarem seus recursos. Observamos ainda que o acesso físico é solitário, mas virtualmente acompanhado. Para os adolescentes a Internet é essencialmente meio de comunicação e espaço de lazer, sendo muito pouco aproveitada para a produção e divulgação de conteúdos de sua comunidade, enfim de sua cultura. Considerando a realidade desses sujeitos como eminentemente comunicativa, buscou-se a aproximação com os referenciais dos Estudos Latino-Americanos de Recepção, salientando-os enquanto Estudos Culturais. Para realizar a investigação com os adolescentes, utilizou-se um modelo metodológico semelhante ao adotado pelo projeto "Mediappro" da Comunidade Européia, especificamente no trabalho intitulado "I Ragazzi del web" de Píer Cesare Rivoltella, da Universitá Cattolica del Sacro Cuore (Milão - Itália).
80

RPM

Costa, Robson January 2008 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Engenharia de Automação e Sistemas / Made available in DSpace on 2012-10-24T01:13:32Z (GMT). No. of bitstreams: 1 256920.pdf: 830860 bytes, checksum: f765edd72766a549358c3fb4e27af0bc (MD5) / O anonimato é um preocupação crescente nos atuais sistemas baseados na Internet. As redes de anonimato tradicionais, baseadas em misturadores ou multicast, possuem limitações de confiabilidade, confidencialidade e desempenho. A ampla escala de redes P2P pode ser usada para minimizar tais limitações, mas essas redes têm de lidar com o fenômeno do churn (entrada e saída de nós na rede) e a menor confiabilidade dos nós individuais (devido ao roteamento na camada de aplicação). Esta dissertação apresenta o RPM (Random Path + Multicast), um protocolo para comunicação anônima em sistemas P2P. Além do anonimato, o RPM tem por objetivo a resistência ao churn e a redução do custo computacional normalmente associado a sistemas de anonimato. Para o seu desenvolvimento, primeiramente foi realizada uma revisão bibliográfica de grande parte da literatura referente ao assunto abordado. Posteriormente foram definidos os objetivos gerais e específicos do projeto visando definir assim sua estrutura funcional. Ao final, foram realisados diversos testes através de simulações, os quais demonstraram que o RPM atinge eficazmente seus objetivos, especialmente com respeito à resistência ao churn.

Page generated in 0.9156 seconds