Spelling suggestions: "subject:"computacao em devem"" "subject:"computacao em vivem""
1 |
[pt] A UBIQUIDADE COMPUTACIONAL COMO FERRAMENTA DE ENSINO PROJETUAL EM DESIGN / [en] UBIQUITOUS COMPUTING AS A PROJECTUAL TOOL FOR DESIGN TEACHINGMARCELO FERNANDES PEREIRA 03 May 2013 (has links)
[pt] Vivemos, atualmente, em um mundo onde as tecnologias de informação
trazem inúmeras possibilidades para uma situação de conexão interpessoal
permanente. Através das redes sociais, das ferramentas colaborativas de criação e
da computação em nuvem, mantemos contato constante com uma gama crescente
de dados gerados por todos aqueles com quem convivemos em nossos círculos
sociais e profissionais. Os jovens universitários de hoje não percebem essas
tecnologias como maravilhas de um mundo moderno. Membros da chamada
Geração do Milênio, criados em um ambiente multimídia e interconectado, eles
utilizam as ferramentas digitais de comunicação de um modo natural em seu
cotidiano. Com a entrada no mercado de trabalho, essas tecnologias passam a
fazer parte também de suas vidas profissionais, otimizando o trabalho em equipe e
aumentando sua produtividade. Entretanto, é surpreendente como, em pleno
século XXI, a maior parte destes recursos não são aproveitados em sala de aula.
Observa-se um total descompasso entre o modo como os alunos pensam e
trabalham fora da universidade e os métodos aplicados por seus professores.
Ainda hoje, a grande maioria dos docentes, independentemente de seu nível de
conhecimento técnico, inibem o uso de ferramentas digitais durante as aulas,
solicitando que os alunos desliguem seus celulares e computadores portáteis e
eliminando qualquer possibilidade de contato com fontes externas de informação.
A utilidade desses equipamentos e tecnologias é subestimada de forma exagerada,
ignorando-se o fato de que eles serão peças fundamentais durante a vida
profissional dos alunos. Esta pesquisa teve por objetivo investigar o uso de
métodos de trabalho colaborativo através do uso das tecnologias do cotidiano dos alunos para verificar o impacto em seu desempenho acadêmico. Para isso, foram
realizados quatro experimentos controlados em turmas do curso de graduação em
Design da PUC-Rio, onde a aplicação progressiva de ferramentas digitais
específicas visaram uma proposta de atualização metodológica das disciplinas
projetuais. Através dos experimentos, percebeu-se que os alunos são capazes de
integrar as ferramentas colaborativas com facilidade em seu cotidiano acadêmico
apresentando um considerável aumento na qualidade de sua produção. Concluiuse,
portanto, que a introdução dessas ferramentas de um modo controlado no
ambiente de ensino pode fornecer aos alunos subsídios importantes para que eles
possam utilizá-las com eficiência em seu futuro profissional. / [en] We are now living in a world where information technologies give us many
possibilities for permanent interpersonal connection. Through social networks,
collaborative tools and cloud computing, we can keep in constant touch with a
large amount of data generated by those who exist in our social and professional
circles. Today’s university students don’t see those technologies as wonders from
a modern world. As members of the Millennial Generation, raised in an
interconnected multimedia environment, they use the digital communication tools
in a very natural way in their daily lives. As they their professional lives begin,
those technologies become part of their work toolset, optimizing teamwork and
boosting their productivity. However, it is surprising that in the twenty-first
century, most of those resources are not applied in class. There is a complete
mismatch between the way the students think and work outside the university and
the methods used by their tutors. It is still common to find teachers that,
regardless of their technological knowledge level, inhibit the use of digital tools in
class, asking their students to turn off their cellphones and portable computers and
eliminating any contact with external sources of information. The usefulness of
those tools are underestimated in an exaggerated way and teachers ignore the fact
that they are fundamental for the students professional lives. This study was
aimed at the investigation of digital collaborative methods through the use of
everyday technologies as a means to verify the impact on the academic
performance of the students. For this purpose, four controlled experiments were
conducted in several Design classes at PUC-Rio, where the progressive
implementation of digital tools led to the proposal for an update of the teaching
methodologies. The experiments made it possible to verify that the students are able to integrate the collaborative tools in their academic lives with ease,
demonstrating a visible improvement in their production quality. As a conclusion,
the controlled introduction of those tools in the academic environment can offer
important subsidies for their efficient use as the students enter their professional
lives.
|
2 |
[en] INTEGRATION OF A BATCH SUBMISSION SYSTEM WITH A CLOUD COMPUTING ENVIRONMENT / [pt] INTEGRAÇÃO DE UM SISTEMA DE SUBMISSÃO BATCH COM UM AMBIENTE DE COMPUTAÇÃO EM NUVEMDALTRO SIMOES GAMA 20 July 2016 (has links)
[pt] A computação em nuvem, com sua promessa de redução de custos de manutenção e facilidades de configuração, está despertando cada vez mais o interesse da comunidade científica que depende de muitas máquinas para executar seus programas. Neste trabalho implementamos uma nova integração para o sistema CSGrid, do Tecgraf/PUC-Rio, que o torna apto a submeter programas para execução no ambiente de nuvem pública Microsoft Azure, usufruindo assim dos benefícios da elasticidade de recursos computacionais. Para tal, apresentamos algumas medidas de desempenho para o caso de uso da nuvem pública Microsoft Azure pelo sistema CSGrid, no que se refere a custos de transferência de dados e provisionamento de máquinas virtuais. O objetivo com essa integração é avaliar os benefícios e as dificuldades que envolvem o uso de um modelo de execução em nuvem por um sistema tipicamente voltado a execução de aplicações de alto desempenho em clusters. / [en] Cloud computing appeals to those who need many machines to run their programs, attracted by low maintenance costs and easy configuration. In this work we implemented a new integration for the CSGrid system, from Tecgraf/PUC-Rio, enabling it to submit workloads to Microsoft Azure public cloud, thus enjoying the benefits of elastic computing resources. For this purpose, we present related works and some performance measures in the case of CSGrid s use of Microsoft Azure public cloud, with regard to costs on data transfers and provisioning of virtual machines. With this integration, we could evaluate the benefits and difficulties involved in using cloud resources in a system designed for the submission of HPC applications to clusters.
|
3 |
[en] DEALING WITH DEVICE DATA OVERFLOW IN THE CLOUD / [pt] UTILIZANDO A NUVEM PARA LIDAR COM A SOBRECARGA DE DADOS EM DISPOSITIVOS FIXOS E MÓVEISJAUMIR VALENCA DA SILVEIRA JUNIOR 18 January 2017 (has links)
[pt] A Computação em Nuvem torna-se a cada dia mais importante como plataforma para pesquisa na Engenharia de Software. Apesar da vasta literatura disponível para uso da Nuvem em ambientes comerciais, ainda há pouca pesquisa feita para que se modelem, desenhem e implementem novos aplicativos que façam uso inteligente da Nuvem. Nesta dissertação é proposta uma abstração que explora um aspecto fundamental dos sistemas em Nuvem - a elasticidade de dados. A abstração Container Database (CDB) provê uma solução baseada em Nuvem para a falta de espaço para armazenamento local de dados em dispositivos eletrônicos. Para demonstrar a viabilidade desta abordagem, é apresentada uma implementação da abstração CDB como uma API que funciona nos sistemas operacionais Windows 7 e Windows Mobile Phone 7. / [en] Cloud computing is rapidly becoming an important platform for research in Software Engineering. Despite the vibe and huge literature on commercial Cloud environments, there is, however, little research on how to capture, model, design and implement new software applications that can make intelligent use of the Cloud. In this paper we propose a new abstraction that explores a fundamental aspect of Cloud systems – data elasticity. The Container Database (CDB) abstraction provides a Cloud-based solution for scenarios where device local storage is not sufficient for manipulating data. To demonstrate the viability of the proposed approach we present an implementation of the CDB abstraction as an Object-Oriented API designed to work on Windows 7 and Windows Mobile Phone 7 Operation Systems.
|
4 |
[en] AN OPTIMIZED PHOTOREALISTIC RENDERING METHOD WITH STATISTIC DISTRIBUTION AND AUTOMATIC RENDERING TECHNIQUE SELECTION / [pt] UM MÉTODO OTIMIZADO DE RENDERIZAÇÃO FOTOREALISTA COM DISTRIBUIÇÃO ESTATÍSTICA E SELEÇÃO AUTOMÁTICA DE TÉCNICASRODRIGO MARQUES ALMEIDA DA SILVA 22 February 2016 (has links)
[pt] O processo de renderização fotoreal para cinema e TV demanda, cada vez mais, poder de processamento, necessitando não só de algoritmos paralelos, bem como sistema de distribuição de tarefas. No entanto, mesmo em sistemas de produção, o tempo necessário para avaliar uma animação pode chegar a vários dias, dificultando a melhoria da qualidade artística e limitando alterações. Neste trabalho foca-se na otimização de três processos inerentes à renderização, a renderização local, na qual o sistema trabalha para renderizar um conjunto de pixels de forma otimizada, aproveitando os recursos de hardware disponíveis e aproveitando dados de renderizações previamente realizadas, pelo nó ou teste. O processo de gerenciamento, extremamente crítico para o resultado, é alterado para não só distribuir, mas analisar toda a infraestrutura de renderização, otimizando o processo de distribuição e permitindo o estabelecimento de metas como prazo e custo. Além disso, o modelo de gerenciamento é expandido para a nuvem, utilizando-a como transbordo de processamento. Ainda, um novo processo foi criado para avaliar a renderização de forma colaborativa, onde cada nó comunica resultados parciais e assim otimiza a renderização de outros. Por fim, diversas técnicas inovadoras foram criadas para melhorar o processo como um todo, removendo desperdícios e reaproveitando trabalho. / [en] The photorealistic rendering process for cinema and TV increasingly demands processing power, requiring fast parallel algorithms and effective task distribution systems. However, the processes currently used by the academia and by the industry still consume several days to evaluate an animation in super-resolution (typically 8K), what makes difficult the improvement of artistic quality and limits the number of experiments with scene parameters. In this work, we focus on the optimization of three processes involved in photorealistic rendering, reducing the total time of rendering substantially. Firstly, we optimize the local rendering, in which the system works to render a set of pixels optimally, taking advantage of the available hardware resources and using previous rendering data. Secondly, we optimize the management process, which is changed not only to distribute frames but also to analyze all the rendering infrastructure, optimizing the distribution process and allowing the establishment of goals as time and cost. Furthermore, the management model is expanded to the cloud, using the cloud as a processing overflow. Thirdly, we propose a new optimized process to evaluate the rendering task collaboratively, where each node communicates partial results to other nodes, allowing the optimization of the rendering process in all nodes. Altogether, this thesis is an innovative proposal to improve the whole process of high-performance rendering, removing waste of resources and reducing rework.
|
5 |
Grid computing e cloud computing: análise dos impactos sociais, ambientais e econômicos da colaboração por meio do compartilhamento de recursos computacionais / Grid Computing and Cloud Computing: analysis of the social,environmental and economic impacts of the collaboration through the resources sharing.Silva, Diogo Cortiz da 01 October 2009 (has links)
Made available in DSpace on 2016-04-29T14:23:52Z (GMT). No. of bitstreams: 1
Diogo Cortiz Silva.pdf: 1671903 bytes, checksum: ee5719b8fbbb5e1d9a7de4b35b463f43 (MD5)
Previous issue date: 2009-10-01 / This research debates the excess of worldwide available computational resources with
exceeded processing capacity and also how the utilization of the sharing and collaboration
concepts influence the integration of those devices to constitute an economic environment
with high processing capacity. Currently, it is possible to find a great amount of personal
computers, servers and others devices that show high level of idleness, while they could be
being used for another purpose, once there are many scientific researches, collaborative
projects and digital inclusion programs that are short of resources to reach theirs objectives.
The Grid Computing technology was conceived as an alternative to integrate geographically
distributed resources pertaining to different domains, enabling a decentralized computational
environment. The main objective of this research is to analyze how this technology can
generate benefits to the social, environment and economic contexts. In the social approach,
Grid Computing stimulates the collaboration and the sharing of computational resources and
applications, as well as providing features that are very useful for data transparency between
many domains. Those characteristics are also important for the scientific inclusion. The first
Case Study approaches the importance of Grid Computing for the collaborative tasks found in
the scientific project of the Large Hadron Collider (LHC), which allowed many research
institutions and universities around the world to build a shared computational environment of
large scale for processing the data generated by LHC. In the environment context, this
technology also presents some characteristics to make the computational resources more
energy efficient increasing the use of its computational capacities. The second Case Study
analyzes the data related to the amount of personal computers connected in the Internet and
how to implement Grid Computing based on the Volunteer Computing model to make those
computers more productive with no relevant impact in the energy consumption. This research
also highlights the synergy between Grid Computing and Cloud Computing, its financial
advantages and the generation of new business models based on the commercialization of
platform and software as a service in the Internet. The third Case Study analyzes a Cloud
Computing model that delivers computational resources (such as a whole server) as a service,
enabling a scenario where companies and people could contract a computational environment
with a quick provisioning with no need to purchase equipments and to invest in
implementation projects. Finally, it is possible to appoint both technologies as relevant trends
for the coming years, which can be an influence to generate new software models, platforms
and services focused in the Internet / Esta dissertação discute o excesso de recursos computacionais disponíveis mundialmente com
capacidade de processamento excedente e também debate como o emprego dos conceitos de
compartilhamento e colaboração influenciam a integração desses dispositivos para constituir
um ambiente econômico e com alta capacidade de processamento. Atualmente, é possível
encontrar uma grande quantidade de computadores pessoais, servidores, entre outros
dispositivos, que apresentam elevados níveis de ociosidade. Estes poderiam ser utilizados para
outra finalidade, haja vista pesquisas científicas, projetos colaborativos e programas de
inclusão digital carentes de recursos para atingirem seus objetivos. A tecnologia de Grid
Computing, também chamada de Computação em Grade, foi concebida como uma alternativa
para integrar recursos distribuídos geograficamente e pertencentes a diferentes domínios,
habilitando um ambiente computacional abrangente e descentralizado. O objetivo desta
dissertação é analisar como essa tecnologia, baseada no conceito de colaboração, pode gerar
benefícios no contexto social, ambiental e econômico. No âmbito social, Grid Computing
estimula o trabalho colaborativo e o compartilhamento de recursos computacionais e
aplicacões, além de prover funcionalidades que auxiliam na transparência de dados entre
diversos domínios. Essas características também são importantes para a inclusão científica. O
primeiro Estudo de Caso aborda a importância de Grid Computing para o projeto científico do
Superacelerador de Partículas (LHC). No contexto ambiental, essa tecnologia também
apresenta características para tornar os recursos computacionais mais eficientes em relação ao
consumo de energia através do aumento do uso de sua capacidade computacional. O segundo
Estudo de Caso aborda dados em relação à quantidade de máquinas conectadas à Internet e
como uma aplicação de Grid Computing, no modelo de Computação Voluntária, pode tornálas
mais produtivas e, consequentemente, mais eficientes no consumo de recursos energéticos.
Já no contexto econômico, é de importância destacar a sinergia existente entre Grid
Computing e Cloud Computing, as suas vantagens financeiras e a geração de novos modelos
de negócios através da comercialização de plataformas e softwares como serviços na Internet,
e não mais como produtos. O terceiro Estudo de Caso aborda um modelo de Cloud
Computing que disponibiliza recursos computacionais em forma de serviços, permitindo que
empresas e pessoas físicas possam contratar um ambiente computacional de rápido
provisionamento, sem a necessidade de adquirir equipamentos e investir em projetos de
implementação. Por fim, ambas as tecnologias são apontadas como grandes tendências para
os próximos anos, as quais influenciarão a geração de novos modelos de softwares,
plataformas e serviços voltados à Internet
|
6 |
[en] INTERIMAGE CLOUD PLATFORM: THE ARCHITECTURE OF A DISTRIBUTED PLATFORM FOR AUTOMATIC, OBJECT-BASED IMAGE INTERPRETATION / [pt] PLATAFORMA EM NUVEM INTERIMAGE: A ARQUITETURA DE UMA PLATAFORMA DISTRIBUÍDA PARA A INTERPRETAÇÃO AUTOMÁTICA DE IMAGENS BASEADA EM OBJETOSRODRIGO DA SILVA FERREIRA 27 April 2016 (has links)
[pt] O objetivo genérico desta tese foi o desenvolvimento de uma arquitetura computacional distribuída para a interpretação automática, baseada em objetos, de grandes volumes de dados de imagem de sensoriamento remoto, com foco na distribuição de dados e processamento em um ambiente de computação em nuvem. Dois objetivos específicos foram perseguidos: (i) o desenvolvimento de uma nova arquitetura distribuída para análise de imagens que é capaz de lidar com vetores e imagens ao mesmo tempo; e (ii) a modelagem e implementação de uma plataforma distribuída para a interpretação de grandes volumes de dados de sensoriamento remoto. Para validar a nova arquitetura, foram realizados experimentos com dois modelos de classificação – um de cobertura da terra e outro de uso do solo – sobre uma imagem QuickBird de uma área do município de São Paulo. Os modelos de classificação, propostos por Novack (Novack09), foram recriados usando as estruturas de representação do conhecimento da nova plataforma. Nos experimentos executados, a plataforma foi capaz de processar todo o modelo de classificação de cobertura da terra para uma imagem de 32.000x32.000 pixels (aproximadamente 3,81 GB), com aproximadamente 8 milhões de objetos de imagem (aproximadamente 23,2 GB), em apenas 1 hora, utilizando 32 máquinas em um serviço de nuvem comercial. Resultados igualmente interessantes foram obtidos para o modelo de classificação de uso do solo. Outra possibilidade de paralelismo oferecida pelas estruturas de representação de conhecimento da plataforma também foi avaliada. / [en] The general objective of this thesis was the development of a distributed computational architecture for the automatic, object-based interpretation of large volumes of remote sensing image data, focusing on data and processing distribution in a cloud computing environment. Two specific objectives were pursued: (i) the development of a novel distributed architecture for image analysis that is able to deal with vectors and rasters at the same time; and (ii) the design and implementation of an open-source, distributed platform for the interpretation of very large volumes of remote sensing data. In order to validate the new architecture, experiments were carried out using two classification models – land cover and land use – on a QuickBird image of an area of the São Paulo municipality. The classification models, proposed by Novack (Novack09), were recreated using the knowledge representation structures available in the new platform. In the executed experiments, the platform was able to process the whole land cover classification model on a 32,000x32,000-pixel image (approximately 3.81 GB), with approximately 8 million image objects (approximately 23.2 GB), in just one hour, using 32 machines in a commercial cloud computing service. Equally interesting results were obtained for the land use classification model. Another possibility of parallelism provided by the platform s knowledge representation structures was also evaluated.
|
7 |
[en] A DISTRIBUTED REGION GROWING IMAGE SEGMENTATION BASED ON MAPREDUCE / [pt] SEGMENTAÇÃO DE IMAGENS DISTRIBUÍDA BASEADA EM MAPREDUCEPATRICK NIGRI HAPP 29 August 2018 (has links)
[pt] A Segmentação de imagens representa uma etapa fundamental na análise de imagens e geralmente envolve um alto custo computacional, especialmente ao lidar com grandes volumes de dados. Devido ao significativo aumento nas resoluções espaciais, espectrais e temporais das imagens de sensoriamento remoto nos últimos anos, as soluções sequenciais e paralelas atualmente empregadas não conseguem alcançar os níveis de desempenho e escalabilidade esperados. Este trabalho propõe um método de segmentação de imagens distribuída capaz de lidar, de forma escalável e eficiente, com imagens grandes de altíssima resolução. A solução proposta é baseada no modelo MapReduce, que oferece uma estrutura
altamente escalável e confiável para armazenar e processar dados muito grandes em ambientes de computação em clusters e, em particular, também para nuvens privadas e comerciais. O método proposto é extensível a qualquer algoritmo de crescimento de regiões podendo também ser adaptado para outros modelos. A solução foi implementada e validada usando a plataforma Hadoop. Os resultados experimentais comprovam a viabilidade de realizar a segmentação distribuída sobre o modelo MapReduce por intermédio da computação na nuvem. / [en] Image segmentation is a critical step in image analysis, and generally involves a high computational cost, especially when dealing with large volumes of data. Given the significant increase in the spatial, spectral and temporal resolutions of remote sensing imagery in the last years, current sequential and parallel solutions fail to deliver the expected performance and scalability. This work proposes a distributed image segmentation method, capable of handling very large high-resolution images in an efficient and scalable way. The proposed solution is based on the MapReduce model, which offers a highly scalable and reliable framework for storing and processing massive data in cluster environments and in private and public computing clouds. The proposed method is extendable to any region-growing algorithm and can be adapted to other models. The solution was implemented and validated using the Hadoop platform. Experimental results attest the viability of performing distributed segmentation over the MapReduce model through cloud computing.
|
Page generated in 0.0699 seconds