• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 2
  • Tagged with
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

[en] DEALING WITH DEVICE DATA OVERFLOW IN THE CLOUD / [pt] UTILIZANDO A NUVEM PARA LIDAR COM A SOBRECARGA DE DADOS EM DISPOSITIVOS FIXOS E MÓVEIS

18 January 2017 (has links)
[pt] A Computação em Nuvem torna-se a cada dia mais importante como plataforma para pesquisa na Engenharia de Software. Apesar da vasta literatura disponível para uso da Nuvem em ambientes comerciais, ainda há pouca pesquisa feita para que se modelem, desenhem e implementem novos aplicativos que façam uso inteligente da Nuvem. Nesta dissertação é proposta uma abstração que explora um aspecto fundamental dos sistemas em Nuvem - a elasticidade de dados. A abstração Container Database (CDB) provê uma solução baseada em Nuvem para a falta de espaço para armazenamento local de dados em dispositivos eletrônicos. Para demonstrar a viabilidade desta abordagem, é apresentada uma implementação da abstração CDB como uma API que funciona nos sistemas operacionais Windows 7 e Windows Mobile Phone 7. / [en] Cloud computing is rapidly becoming an important platform for research in Software Engineering. Despite the vibe and huge literature on commercial Cloud environments, there is, however, little research on how to capture, model, design and implement new software applications that can make intelligent use of the Cloud. In this paper we propose a new abstraction that explores a fundamental aspect of Cloud systems – data elasticity. The Container Database (CDB) abstraction provides a Cloud-based solution for scenarios where device local storage is not sufficient for manipulating data. To demonstrate the viability of the proposed approach we present an implementation of the CDB abstraction as an Object-Oriented API designed to work on Windows 7 and Windows Mobile Phone 7 Operation Systems.
2

[en] INTEGRATION OF A BATCH SUBMISSION SYSTEM WITH A CLOUD COMPUTING ENVIRONMENT / [pt] INTEGRAÇÃO DE UM SISTEMA DE SUBMISSÃO BATCH COM UM AMBIENTE DE COMPUTAÇÃO EM NUVEM

DALTRO SIMOES GAMA 20 July 2016 (has links)
[pt] A computação em nuvem, com sua promessa de redução de custos de manutenção e facilidades de configuração, está despertando cada vez mais o interesse da comunidade científica que depende de muitas máquinas para executar seus programas. Neste trabalho implementamos uma nova integração para o sistema CSGrid, do Tecgraf/PUC-Rio, que o torna apto a submeter programas para execução no ambiente de nuvem pública Microsoft Azure, usufruindo assim dos benefícios da elasticidade de recursos computacionais. Para tal, apresentamos algumas medidas de desempenho para o caso de uso da nuvem pública Microsoft Azure pelo sistema CSGrid, no que se refere a custos de transferência de dados e provisionamento de máquinas virtuais. O objetivo com essa integração é avaliar os benefícios e as dificuldades que envolvem o uso de um modelo de execução em nuvem por um sistema tipicamente voltado a execução de aplicações de alto desempenho em clusters. / [en] Cloud computing appeals to those who need many machines to run their programs, attracted by low maintenance costs and easy configuration. In this work we implemented a new integration for the CSGrid system, from Tecgraf/PUC-Rio, enabling it to submit workloads to Microsoft Azure public cloud, thus enjoying the benefits of elastic computing resources. For this purpose, we present related works and some performance measures in the case of CSGrid s use of Microsoft Azure public cloud, with regard to costs on data transfers and provisioning of virtual machines. With this integration, we could evaluate the benefits and difficulties involved in using cloud resources in a system designed for the submission of HPC applications to clusters.
3

[en] UBIQUITOUS COMPUTING AS A PROJECTUAL TOOL FOR DESIGN TEACHING / [pt] A UBIQUIDADE COMPUTACIONAL COMO FERRAMENTA DE ENSINO PROJETUAL EM DESIGN

MARCELO FERNANDES PEREIRA 03 May 2013 (has links)
[pt] Vivemos, atualmente, em um mundo onde as tecnologias de informação trazem inúmeras possibilidades para uma situação de conexão interpessoal permanente. Através das redes sociais, das ferramentas colaborativas de criação e da computação em nuvem, mantemos contato constante com uma gama crescente de dados gerados por todos aqueles com quem convivemos em nossos círculos sociais e profissionais. Os jovens universitários de hoje não percebem essas tecnologias como maravilhas de um mundo moderno. Membros da chamada Geração do Milênio, criados em um ambiente multimídia e interconectado, eles utilizam as ferramentas digitais de comunicação de um modo natural em seu cotidiano. Com a entrada no mercado de trabalho, essas tecnologias passam a fazer parte também de suas vidas profissionais, otimizando o trabalho em equipe e aumentando sua produtividade. Entretanto, é surpreendente como, em pleno século XXI, a maior parte destes recursos não são aproveitados em sala de aula. Observa-se um total descompasso entre o modo como os alunos pensam e trabalham fora da universidade e os métodos aplicados por seus professores. Ainda hoje, a grande maioria dos docentes, independentemente de seu nível de conhecimento técnico, inibem o uso de ferramentas digitais durante as aulas, solicitando que os alunos desliguem seus celulares e computadores portáteis e eliminando qualquer possibilidade de contato com fontes externas de informação. A utilidade desses equipamentos e tecnologias é subestimada de forma exagerada, ignorando-se o fato de que eles serão peças fundamentais durante a vida profissional dos alunos. Esta pesquisa teve por objetivo investigar o uso de métodos de trabalho colaborativo através do uso das tecnologias do cotidiano dos alunos para verificar o impacto em seu desempenho acadêmico. Para isso, foram realizados quatro experimentos controlados em turmas do curso de graduação em Design da PUC-Rio, onde a aplicação progressiva de ferramentas digitais específicas visaram uma proposta de atualização metodológica das disciplinas projetuais. Através dos experimentos, percebeu-se que os alunos são capazes de integrar as ferramentas colaborativas com facilidade em seu cotidiano acadêmico apresentando um considerável aumento na qualidade de sua produção. Concluiuse, portanto, que a introdução dessas ferramentas de um modo controlado no ambiente de ensino pode fornecer aos alunos subsídios importantes para que eles possam utilizá-las com eficiência em seu futuro profissional. / [en] We are now living in a world where information technologies give us many possibilities for permanent interpersonal connection. Through social networks, collaborative tools and cloud computing, we can keep in constant touch with a large amount of data generated by those who exist in our social and professional circles. Today’s university students don’t see those technologies as wonders from a modern world. As members of the Millennial Generation, raised in an interconnected multimedia environment, they use the digital communication tools in a very natural way in their daily lives. As they their professional lives begin, those technologies become part of their work toolset, optimizing teamwork and boosting their productivity. However, it is surprising that in the twenty-first century, most of those resources are not applied in class. There is a complete mismatch between the way the students think and work outside the university and the methods used by their tutors. It is still common to find teachers that, regardless of their technological knowledge level, inhibit the use of digital tools in class, asking their students to turn off their cellphones and portable computers and eliminating any contact with external sources of information. The usefulness of those tools are underestimated in an exaggerated way and teachers ignore the fact that they are fundamental for the students professional lives. This study was aimed at the investigation of digital collaborative methods through the use of everyday technologies as a means to verify the impact on the academic performance of the students. For this purpose, four controlled experiments were conducted in several Design classes at PUC-Rio, where the progressive implementation of digital tools led to the proposal for an update of the teaching methodologies. The experiments made it possible to verify that the students are able to integrate the collaborative tools in their academic lives with ease, demonstrating a visible improvement in their production quality. As a conclusion, the controlled introduction of those tools in the academic environment can offer important subsidies for their efficient use as the students enter their professional lives.
4

[en] AN OPTIMIZED PHOTOREALISTIC RENDERING METHOD WITH STATISTIC DISTRIBUTION AND AUTOMATIC RENDERING TECHNIQUE SELECTION / [pt] UM MÉTODO OTIMIZADO DE RENDERIZAÇÃO FOTOREALISTA COM DISTRIBUIÇÃO ESTATÍSTICA E SELEÇÃO AUTOMÁTICA DE TÉCNICAS

RODRIGO MARQUES ALMEIDA DA SILVA 22 February 2016 (has links)
[pt] O processo de renderização fotoreal para cinema e TV demanda, cada vez mais, poder de processamento, necessitando não só de algoritmos paralelos, bem como sistema de distribuição de tarefas. No entanto, mesmo em sistemas de produção, o tempo necessário para avaliar uma animação pode chegar a vários dias, dificultando a melhoria da qualidade artística e limitando alterações. Neste trabalho foca-se na otimização de três processos inerentes à renderização, a renderização local, na qual o sistema trabalha para renderizar um conjunto de pixels de forma otimizada, aproveitando os recursos de hardware disponíveis e aproveitando dados de renderizações previamente realizadas, pelo nó ou teste. O processo de gerenciamento, extremamente crítico para o resultado, é alterado para não só distribuir, mas analisar toda a infraestrutura de renderização, otimizando o processo de distribuição e permitindo o estabelecimento de metas como prazo e custo. Além disso, o modelo de gerenciamento é expandido para a nuvem, utilizando-a como transbordo de processamento. Ainda, um novo processo foi criado para avaliar a renderização de forma colaborativa, onde cada nó comunica resultados parciais e assim otimiza a renderização de outros. Por fim, diversas técnicas inovadoras foram criadas para melhorar o processo como um todo, removendo desperdícios e reaproveitando trabalho. / [en] The photorealistic rendering process for cinema and TV increasingly demands processing power, requiring fast parallel algorithms and effective task distribution systems. However, the processes currently used by the academia and by the industry still consume several days to evaluate an animation in super-resolution (typically 8K), what makes difficult the improvement of artistic quality and limits the number of experiments with scene parameters. In this work, we focus on the optimization of three processes involved in photorealistic rendering, reducing the total time of rendering substantially. Firstly, we optimize the local rendering, in which the system works to render a set of pixels optimally, taking advantage of the available hardware resources and using previous rendering data. Secondly, we optimize the management process, which is changed not only to distribute frames but also to analyze all the rendering infrastructure, optimizing the distribution process and allowing the establishment of goals as time and cost. Furthermore, the management model is expanded to the cloud, using the cloud as a processing overflow. Thirdly, we propose a new optimized process to evaluate the rendering task collaboratively, where each node communicates partial results to other nodes, allowing the optimization of the rendering process in all nodes. Altogether, this thesis is an innovative proposal to improve the whole process of high-performance rendering, removing waste of resources and reducing rework.
5

[en] A DISTRIBUTED REGION GROWING IMAGE SEGMENTATION BASED ON MAPREDUCE / [pt] SEGMENTAÇÃO DE IMAGENS DISTRIBUÍDA BASEADA EM MAPREDUCE

PATRICK NIGRI HAPP 29 August 2018 (has links)
[pt] A Segmentação de imagens representa uma etapa fundamental na análise de imagens e geralmente envolve um alto custo computacional, especialmente ao lidar com grandes volumes de dados. Devido ao significativo aumento nas resoluções espaciais, espectrais e temporais das imagens de sensoriamento remoto nos últimos anos, as soluções sequenciais e paralelas atualmente empregadas não conseguem alcançar os níveis de desempenho e escalabilidade esperados. Este trabalho propõe um método de segmentação de imagens distribuída capaz de lidar, de forma escalável e eficiente, com imagens grandes de altíssima resolução. A solução proposta é baseada no modelo MapReduce, que oferece uma estrutura altamente escalável e confiável para armazenar e processar dados muito grandes em ambientes de computação em clusters e, em particular, também para nuvens privadas e comerciais. O método proposto é extensível a qualquer algoritmo de crescimento de regiões podendo também ser adaptado para outros modelos. A solução foi implementada e validada usando a plataforma Hadoop. Os resultados experimentais comprovam a viabilidade de realizar a segmentação distribuída sobre o modelo MapReduce por intermédio da computação na nuvem. / [en] Image segmentation is a critical step in image analysis, and generally involves a high computational cost, especially when dealing with large volumes of data. Given the significant increase in the spatial, spectral and temporal resolutions of remote sensing imagery in the last years, current sequential and parallel solutions fail to deliver the expected performance and scalability. This work proposes a distributed image segmentation method, capable of handling very large high-resolution images in an efficient and scalable way. The proposed solution is based on the MapReduce model, which offers a highly scalable and reliable framework for storing and processing massive data in cluster environments and in private and public computing clouds. The proposed method is extendable to any region-growing algorithm and can be adapted to other models. The solution was implemented and validated using the Hadoop platform. Experimental results attest the viability of performing distributed segmentation over the MapReduce model through cloud computing.
6

[en] INTERIMAGE CLOUD PLATFORM: THE ARCHITECTURE OF A DISTRIBUTED PLATFORM FOR AUTOMATIC, OBJECT-BASED IMAGE INTERPRETATION / [pt] PLATAFORMA EM NUVEM INTERIMAGE: A ARQUITETURA DE UMA PLATAFORMA DISTRIBUÍDA PARA A INTERPRETAÇÃO AUTOMÁTICA DE IMAGENS BASEADA EM OBJETOS

RODRIGO DA SILVA FERREIRA 27 April 2016 (has links)
[pt] O objetivo genérico desta tese foi o desenvolvimento de uma arquitetura computacional distribuída para a interpretação automática, baseada em objetos, de grandes volumes de dados de imagem de sensoriamento remoto, com foco na distribuição de dados e processamento em um ambiente de computação em nuvem. Dois objetivos específicos foram perseguidos: (i) o desenvolvimento de uma nova arquitetura distribuída para análise de imagens que é capaz de lidar com vetores e imagens ao mesmo tempo; e (ii) a modelagem e implementação de uma plataforma distribuída para a interpretação de grandes volumes de dados de sensoriamento remoto. Para validar a nova arquitetura, foram realizados experimentos com dois modelos de classificação – um de cobertura da terra e outro de uso do solo – sobre uma imagem QuickBird de uma área do município de São Paulo. Os modelos de classificação, propostos por Novack (Novack09), foram recriados usando as estruturas de representação do conhecimento da nova plataforma. Nos experimentos executados, a plataforma foi capaz de processar todo o modelo de classificação de cobertura da terra para uma imagem de 32.000x32.000 pixels (aproximadamente 3,81 GB), com aproximadamente 8 milhões de objetos de imagem (aproximadamente 23,2 GB), em apenas 1 hora, utilizando 32 máquinas em um serviço de nuvem comercial. Resultados igualmente interessantes foram obtidos para o modelo de classificação de uso do solo. Outra possibilidade de paralelismo oferecida pelas estruturas de representação de conhecimento da plataforma também foi avaliada. / [en] The general objective of this thesis was the development of a distributed computational architecture for the automatic, object-based interpretation of large volumes of remote sensing image data, focusing on data and processing distribution in a cloud computing environment. Two specific objectives were pursued: (i) the development of a novel distributed architecture for image analysis that is able to deal with vectors and rasters at the same time; and (ii) the design and implementation of an open-source, distributed platform for the interpretation of very large volumes of remote sensing data. In order to validate the new architecture, experiments were carried out using two classification models – land cover and land use – on a QuickBird image of an area of the São Paulo municipality. The classification models, proposed by Novack (Novack09), were recreated using the knowledge representation structures available in the new platform. In the executed experiments, the platform was able to process the whole land cover classification model on a 32,000x32,000-pixel image (approximately 3.81 GB), with approximately 8 million image objects (approximately 23.2 GB), in just one hour, using 32 machines in a commercial cloud computing service. Equally interesting results were obtained for the land use classification model. Another possibility of parallelism provided by the platform s knowledge representation structures was also evaluated.

Page generated in 0.0433 seconds