• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 40
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 41
  • 41
  • 41
  • 18
  • 15
  • 12
  • 12
  • 11
  • 11
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Uma abordagem baseada em arquitetura de software para construção de objetos de aprendizagem / An approach based on software architecture for making learning objects

Borges, Katia Cristina Aparecida Damaceno 04 August 2015 (has links)
Submitted by Amauri Alves (amauri.alves@ufv.br) on 2015-12-16T16:42:40Z No. of bitstreams: 1 texto completo.pdf: 1915543 bytes, checksum: b014fb4ca68e675f61f01087bd01fdad (MD5) / Made available in DSpace on 2015-12-16T16:42:40Z (GMT). No. of bitstreams: 1 texto completo.pdf: 1915543 bytes, checksum: b014fb4ca68e675f61f01087bd01fdad (MD5) Previous issue date: 2015-08-04 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A inclusão da tecnologia dentro do contexto das salas de aulas é vista como uma ferramenta de grande utilidade. Uma das formas dessa inclusão é por meio dos Objetos de Aprendizagem, ou seja, qualquer recurso digital que possa ser reutilizado para apoio a transmissão do conhecimento (WILEY, 2001). O sucesso desses OAs deve-se à facilidade com que as novas gerações interagem com dispositivos eletrônicos, tais gerações são conhecidas como os nativos digitais. Prensky (2001) afirma que estes são os nascidos após a década de 80 e foram criados na cultura de jogos de computadores e, por isso, eles têm facilidades ao manipular ou interagir com as diversas fontes de informação apoiadas por tecnologia. Entretanto, a grande maioria dos docentes atuantes é composta por pessoas que nasceram antes da década de 80 e, portanto, são ditos imigrantes digitais (Prensky, 2001). Neste cenário surgem dificuldades em inserir e, principalmente, desenvolver OAs para o contexto de suas aulas. Uma dificuldade se dá devido a grande diversidade de materiais que podem ser ditos OAs e não existe um padrão para que os mesmo possam ser construídos. Além disso, uma equipe de criação de um OA é multidisciplinar, composta por pessoas da área pedagógica e tecnológica, dificultando desta forma a comunicação entre os membros de um mesmo projeto. Assim, o objetivo desta dissertação é propor uma arquitetura empresarial para descrever o cenário desde o escopo do negócio, modelo de negócio e modelo de sistema. Esta descrição foi amparada pelo Zachman Framework, um percursor em arquiteturas empresariais. Outra notável contribuição deste trabalho foi a escrita de padrões de criação de OAs. / The inclusion of the technology inside classrooms is seen as a tool of great usefulness. One way this is by inclusion of learning objects - LOs, in other words, any digital resource that can be reused for support the transmission of the knowledge (WILEY 2001). The success of those LOs is due to the easiness with that the new generations interact with electronic devices, such generations are known as digital natives. Prensky (2001) affirms that these are born after 1980s and they were created in the culture of games of computers and, therefore, they have facilities to manipulate or interact with the several leaning sources of information supported by technology. However, the vast majority of active teachers is composed by people that were born before of 1980s and, therefore, they are said immigrant digital (PRENSKY 2001).In this scenery there are difficulties appear in inserting and, mainly, to develop LOs for the context of their classrooms. A difficulty feels due to great diversity of materials that LOs can be said and it does not exist a pattern so that the same can be built. Besides, a team of creation of LO is multidisciplinary, composed by people of the pedagogic and technological field, thus hindering communication between members of a same project. Thus, the aim of this dissertation is to propose an enterprise architecture to describe the scenery from the scope of business, business model and system model. This description was supported by Zachman Framework, a precursor in enterprise architectures. Another notable contribution of this work was the writing of creating learning objects patterns.
2

Utilização de objetos de aprendizagem como auxílio no ensino de geometria analítica / Use of learning objects as an aid in teaching analytic geometry

Silva, Carlos Sérgio Rodrigues da January 2013 (has links)
SILVA, Carlos Sérgio Rodrigues da. Utilização de objetos de aprendizagem como auxílio no ensino de geometria analítica. 2013. 57 f. Dissertação (Mestrado em Matemática em Rede Nacional) – Centro de Ciências, Universidade Federal do Ceará, Fortaleza, 2013. / Submitted by Rocilda Sales (rocilda@ufc.br) on 2013-09-13T14:43:55Z No. of bitstreams: 1 2013_dis_csrdasilva.pdf: 1310012 bytes, checksum: c136a9b2210034376c999b94e5c274b9 (MD5) / Approved for entry into archive by Rocilda Sales(rocilda@ufc.br) on 2013-09-13T14:47:37Z (GMT) No. of bitstreams: 1 2013_dis_csrdasilva.pdf: 1310012 bytes, checksum: c136a9b2210034376c999b94e5c274b9 (MD5) / Made available in DSpace on 2013-09-13T14:47:37Z (GMT). No. of bitstreams: 1 2013_dis_csrdasilva.pdf: 1310012 bytes, checksum: c136a9b2210034376c999b94e5c274b9 (MD5) Previous issue date: 2013 / This study seeks to analyze the efficiency of the use of learning objects in teaching analytic geometry, more precisely on subject distance between two points. For this, it was chosen an experimental study involving 14 students of the 3rd year of Primary School and Middle Senador Fernandes Távora, which is located in the neighborhood Demócrito Rocha, in the city of Fortaleza, state of Ceará. The class was divided into two groups of eight students each but two of these students did not participate in the entire study. In one of the groups was applied the activity Pontos em Batalha and the other only the traditional method. The instruments for data collection were activities rived, socioeconomic questionnaire and multiple-choice test with questions on location in the Cartesian plane and the distance between two points. Data were analyzed by means of graphical program Microsoft Excel. It was noticed as a result, the group submitted to the application of the learning object had a better performance on the test compared to the other group. / Este estudo procura analisar a eficiência do uso de objetos de aprendizagem no ensino de geometria analítica, mais precisamente no assunto distância entre dois pontos. Para isso, optou-se por um estudo experimental do qual participaram 14 alunos do 3º ano da Escola de Ensino Fundamental e Médio Senador Fernandes Távora que se localiza no bairro Demócrito Rocha, na cidade de Fortaleza, estado do Ceará. A turma foi dividida em dois grupos de 8 alunos cada, sendo que dois deles não participaram de todo o estudo. Em um dos grupos foi aplicada a atividade Pontos em Batalha e no outro apenas o método tradicional. Os instrumentos de coleta de dados foram: atividades do Rived, questionário socioeconômico e teste de múltipla escolha com questões sobre localização no plano cartesiano e distância entre dois pontos. Os dados foram analisados por meios de gráficos do programa Microsoft Excel. Percebeu-se, como resultado, que o grupo submetido à aplicação do objeto de aprendizagem teve um melhor desempenho no teste em relação ao outro grupo.
3

Seleção de redes sem fio baseada em técnicas de apoio à decisão

Rios, Vinícius de Miranda 14 February 2012 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2012. / Submitted by Elna Araújo (elna@bce.unb.br) on 2012-06-15T19:33:37Z No. of bitstreams: 1 2012_ViniciusdeMirandaRios.pdf: 4059717 bytes, checksum: c34a864f1019234c864f618ec15ce8f0 (MD5) / Approved for entry into archive by Jaqueline Ferreira de Souza(jaquefs.braz@gmail.com) on 2012-06-18T11:06:16Z (GMT) No. of bitstreams: 1 2012_ViniciusdeMirandaRios.pdf: 4059717 bytes, checksum: c34a864f1019234c864f618ec15ce8f0 (MD5) / Made available in DSpace on 2012-06-18T11:06:16Z (GMT). No. of bitstreams: 1 2012_ViniciusdeMirandaRios.pdf: 4059717 bytes, checksum: c34a864f1019234c864f618ec15ce8f0 (MD5) / A coexistência de redes de acesso heterogêneas na próxima geração de redes sem fio traz consigo uma diversidade de parâmetros de rede, que influenciará diretamente nos quesitos da aplicação do usuário, quando este se deslocar da rede em que se encontra para outra de tecnologia diferente (wi-fi (Wireless Fidelity) para 3G, por exemplo). Sendo assim, o dispositivo, antes de executar o handover, necessitará de uma lista de redes de acesso, classificadas de acordo com a necessidade da aplicação em uso, seja ela de dados, voz ou imagem. Para que a execução do handover aconteça de forma adequada, deve-se priorizar a seleção de rede, parte integrante e fundamental do gerenciamento do handover, o qual envolve a troca entre pontos de acesso pelo terminal móvel, de forma que os serviços prestados pela rede possam ser continuados com qualidade de serviço (QoS - Quality of Service) compatível com os requisitos associados aos mesmos, preferencialmente sem qualquer interrupção. Para resolver este problema de seleção de rede, técnicas e estratégias de apoio à decisão são encontradas na literatura, como lógica fuzzy, algoritmos genéticos e métodos MADM (Multiple Attribute Decision Making), os quais serão apresentados e exemplificados de forma detalhada neste trabalho. A partir dos estudos das técnicas acima citadas para resolver o problema de escolher a melhor rede de acesso, entre as disponíveis no ambiente, foram criadas três propostas: a primeira se baseando somente na técnica de lógica fuzzy; a segunda se baseando na combinação da técnica de lógica fuzzy com dois métodos de tomada de decisão, AHP (Analytic Hierarchy Process) e GRA (Grey Relation Analysis); e a terceira se baseando somente nos métodos AHP e GRA. _________________________________________________________________________________ ABSTRACT / The coexistence of heterogeneous access networks in the next generation of wireless networks brings a variety of network parameters, which will impact directly on questions of the user’s application, when it moves from the network it is to another of different technology (Wi-Fi (Wireless Fidelity) for 3G, for example). Thus, before executing the handover, the device will need a list of access networks, classified according to the needs of the application in use, whether it is data, voice or image. In order to execute the handover properly, network selection should be prioritized, an integrating and fundamental part of managing the handover, which involves switching between access points by the terminal, so that the services provided by network can be continued with compatible quality of service (QoS) with the requirements associated with them, preferably without any interruption. To solve this problem of network selection, support techniques and strategies for decision are found in the literature, such as fuzzy logic, genetic algorithms and MADM (Multiple Attribute Decision Making) methods, which will be presented and illustrated in detail in this paper. From studies of the techniques mentioned above to solve the problem of choosing the best access network, including those available in the environment, three proposals were presented: one is based only on the technique of fuzzy logic; the other is based on the combination of fuzzy logic technique with two methods of decision making, AHP (Analytic Hierarchy Process) and GRA (Grey Relation Analysis); and the third is based on the methods AHP and GRA.
4

Recursos web associados aos periódicos científicos ibero-americanos

Neubert, Patrícia da Silva January 2013 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro de Ciências da Educação, Programa de Pós-graduação em Ciência da Computação, Florianópolis, 2013 / Made available in DSpace on 2013-12-05T23:26:37Z (GMT). No. of bitstreams: 1 318931.pdf: 5211477 bytes, checksum: f31e6c24a3777d3437832957d7ae239d (MD5) Previous issue date: 2013 / O objetivo desta pesquisa consiste em analisar o uso de ferramentas web pelos periódicos científicos dos países ibero-americanos a fim de identificar quais recursos são utilizados. Os procedimentos metodológicos utilizados são de natureza descritiva, exploratória, documental com análise quanti-qualitativa dos dados. Foi adotado o uso de formulário como instrumento de coleta de dados. O universo da pesquisa é composto pelos 883 periódicos ibero-americanos indexados no ISI WoK e no Scopus. Os resultados mostram que 99,21% dos títulos tem uma versão eletrônica, sendo que 52,21% usam mais de uma plataforma simultaneamente e as mais populares são as plataformas próprias, SciELO e Redalyc. Relacionados com a plataforma utilizada, foram identificados o uso de RSS, identificador persistente e licenças Creative Commons. A existência de ícones para recursos para compartilhamento foi identificada em 75,54% dos títulos, dos quais os mais frequentes são ícones para indicação por e-mail e plugins sociais. Os recursos web 2.0 foram identificados em 9,27% das publicações, dentre os quais se destaca o uso de sites de redes sociais, microblog, blog, compartilhadores de vídeos e de imagens. A análise das relações entre as características dos periódicos que utilizam recursos 2.0 permitiu a constatação da existência de indicadores de impacto superiores nessas publicações em relação às revistas que não utilizam web 2.0 em alguns países. Os dados referentes à relação entre o uso da web 2.0 e as instituições editoras, plataformas de publicação e áreas do conhecimento não permitem estabelecer uma relação significativa sobre adoção de recursos 2.0. Conclui-se que, apesar dos dados comprovarem a existência de grande número de periódicos eletrônicos e a existência de recursos web associadas a grande maioria dos títulos prioriza o artigo tradicional em texto com opção de impressão <br> / The aim of this work was to identify and analyze the web tools used by scholarly journals from Ibero American countries. The methodological procedures used are descriptive, exploratory, and documentary, with quantitative and qualitative data analysis. Data were collected directly from 883 journals indexed in ISI WoK and Scopus. The results show that 99% of the titles have an electronic version, and 52% use more than one platform simultaneously. The most popular ones are in-house made sites, SciELO and Redalyc. The presence of RSS, persistent identifier and Creative Commons licenses were linked to the platforms. The existence of icons for sharing features was identified in 76% of the journals, the most frequent being icons leading to e-mail and social plugins. Web 2.0 resources were present in 9.3% of publications, predominantly social networks, micro blogs, blogs, and video and images sharing sites. Journals that use Web 2.0 features showed higher impact indicators in some countries, as compared to journals that do not use web 2.0. No significant relationship was found between adoption of Web 2.0 resources and institutions, publishers, publishing platforms and areas of knowledge . It is possible to conclude that despite the large number of electronic journals and web resources associated to most journals, there is a prevalence of traditional text with print option.
5

Algoritmo de escalonamento de instância de máquina virtual na computação em nuvem

Bachiega, Naylor Garcia [UNESP] 19 May 2014 (has links) (PDF)
Made available in DSpace on 2014-11-10T11:09:41Z (GMT). No. of bitstreams: 0 Previous issue date: 2014-05-19Bitstream added on 2014-11-10T11:58:47Z : No. of bitstreams: 1 000790282.pdf: 1551632 bytes, checksum: 1c51e3c52479631d4efb320e548d592b (MD5) / Na tentativa de reduzir custos aproveitando de maneira eficiente recursos computacionais, novas tecnologias e arquiteturas desenvolvidas estão conquistando grande aceitação do mercado. Uma dessas tecnologias é a Computação em Nuvem, que tenta resolver problemas como consumo energético e alocação de espaço físico em centros de dados ou grandes empresas. A nuvem é um ambiente compartilhado por diversos clientes e permite um crescimento elástico, onde novos recursos como hardware ou software, podem ser contratados ou vendidos a qualquer momento. Nesse modelo, os clientes pagam por recursos que utilizam e não por toda a arquitetura envolvida. Sendo assim, é importante determinar de forma eficiente como esses recursos são distribuídos na nuvem. Portanto, esse trabalho teve como objetivo desenvolver um algoritmo de escalonamento para nuvem que determinasse de maneira eficiente a distribuição de recursos dentro da arquitetura. Para alcançar esse objetivo, foram realizados experimentos com gestores de nuvem open-source, detectando a deficiência dos algoritmos atuais. O algoritmo desenvolvido foi comparado com o algoritmo atual do gestor OpenStack Essex, um gestor de nuvem open-source. Os resultados experimentais demonstraram que o novo algoritmo conseguiu determinar as máquinas menos sobrecarregadas da nuvem, conseguindo desse modo, distribuir a carga de processamento dentro do ambiente privado / In an attempt to reduce costs by taking advantage of efficient computing resources, new technologies and architectures developed are gaining wide acceptance in the market. One such technology is cloud computing, which tries to solve problems like energy consumption and allocation of space in data centers or large companies. The cloud is an environment shared by multiple clients and enables elastic growth, where new features such as hardware or software, can be hired or sold at any time. In this model, customers pay for the resources they use and not for all the architecture involved. Therefore, it is important to determine how efficiently those resources are distributed in the cloud. Therefore, this study aimed to develop a scheduling algorithm for cloud efficiently determine the distribution of resources within the architecture. To achieve this goal, experiments were conducted with managers of open-source cloud, detecting the deficiency of current algorithms. This algorithm was compared with the algorithm of the OpenStack Essex manager, a manager of open-source cloud. The experimental results show that the new algorithm could determine the machines less the cloud overloaded, achieving thereby distribute the processing load within the private environment
6

Algoritmo de escalonamento de instância de máquina virtual na computação em nuvem /

Bachiega, Naylor Garcia. January 2014 (has links)
Orientador: Roberta Spolon / Banca: Antonio Carlos Sementille / Banca: Luís Carlos Trevelin / Resumo: Na tentativa de reduzir custos aproveitando de maneira eficiente recursos computacionais, novas tecnologias e arquiteturas desenvolvidas estão conquistando grande aceitação do mercado. Uma dessas tecnologias é a Computação em Nuvem, que tenta resolver problemas como consumo energético e alocação de espaço físico em centros de dados ou grandes empresas. A nuvem é um ambiente compartilhado por diversos clientes e permite um crescimento elástico, onde novos recursos como hardware ou software, podem ser contratados ou vendidos a qualquer momento. Nesse modelo, os clientes pagam por recursos que utilizam e não por toda a arquitetura envolvida. Sendo assim, é importante determinar de forma eficiente como esses recursos são distribuídos na nuvem. Portanto, esse trabalho teve como objetivo desenvolver um algoritmo de escalonamento para nuvem que determinasse de maneira eficiente a distribuição de recursos dentro da arquitetura. Para alcançar esse objetivo, foram realizados experimentos com gestores de nuvem open-source, detectando a deficiência dos algoritmos atuais. O algoritmo desenvolvido foi comparado com o algoritmo atual do gestor OpenStack Essex, um gestor de nuvem open-source. Os resultados experimentais demonstraram que o novo algoritmo conseguiu determinar as máquinas menos sobrecarregadas da nuvem, conseguindo desse modo, distribuir a carga de processamento dentro do ambiente privado / Abstract: In an attempt to reduce costs by taking advantage of efficient computing resources, new technologies and architectures developed are gaining wide acceptance in the market. One such technology is cloud computing, which tries to solve problems like energy consumption and allocation of space in data centers or large companies. The cloud is an environment shared by multiple clients and enables elastic growth, where new features such as hardware or software, can be hired or sold at any time. In this model, customers pay for the resources they use and not for all the architecture involved. Therefore, it is important to determine how efficiently those resources are distributed in the cloud. Therefore, this study aimed to develop a scheduling algorithm for cloud efficiently determine the distribution of resources within the architecture. To achieve this goal, experiments were conducted with managers of open-source cloud, detecting the deficiency of current algorithms. This algorithm was compared with the algorithm of the OpenStack Essex manager, a manager of open-source cloud. The experimental results show that the new algorithm could determine the machines less the cloud overloaded, achieving thereby distribute the processing load within the private environment / Mestre
7

Framework para execução adaptativa e tolerante a falhas de workflows em grid

Guimarães, Felipe Pontes 14 October 2010 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2010. / Submitted by Luiza Moreira Camargo (luizaamc@gmail.com) on 2011-06-20T17:36:29Z No. of bitstreams: 1 2010_FelipePontesGuimarães.pdf: 3025286 bytes, checksum: 90ebea4efc3733e40b3ce19f7925beda (MD5) / Approved for entry into archive by Guilherme Lourenço Machado(gui.admin@gmail.com) on 2011-06-21T13:43:47Z (GMT) No. of bitstreams: 1 2010_FelipePontesGuimarães.pdf: 3025286 bytes, checksum: 90ebea4efc3733e40b3ce19f7925beda (MD5) / Made available in DSpace on 2011-06-21T13:43:47Z (GMT). No. of bitstreams: 1 2010_FelipePontesGuimarães.pdf: 3025286 bytes, checksum: 90ebea4efc3733e40b3ce19f7925beda (MD5) / A computação em Grid proporciona a seus usuários o compartilhamento de recursos autônomos e heterogêneos para solucionar problemas computacionais de grande complexidade. Em um Grid, os recursos possuem autonomia, logo podem entrar e sair do mesmo conforme suas necessidades. A computação em Grid é frequentemente usada para executar worflows científicos, que são uma rede de passos necessários à análise de grande volume de dados. Geralmente, a execução de workflows científicos é demorada, podendo levar vários minutos, várias horas ou mesmo dias. Ao se associar essas duas características - um ambiente dinâmico e workflows de longa duração - surge um problema: não há como se impedir que os recursos saiam do Grid durante a execução de tarefas de um workflow, causando assim um erro na execução. Não se pode, no entanto, permitir que tais erros inviabilizem a execução do workflow. Para contornar esse problema existem técnicas de tolerância a falhas, que procuram garantir que, mesmo em face de falhas na execução de algumas tarefas, o workflow como um todo será executado corretamente. Vários trabalhos lidam com técnicas de tolerância a falhas para workflows em Grid e várias técnicas diferentes já existem. No entanto, nenhuma das abordagens estudadas considera, em conjunto, as preferências do usuário e a situação atual do Grid. A presente dissertação de mestrado propõe e avalia um framework de execução adaptativa tolerante a falhas que permite ao usuário definir as regras pelas quais a seleção das técnicas de tolerância a falhas será realizada em tempo de execução e também permite a adição de novas técnicas de tolerância a falhas. Os resultados experimentais obtidos em um Grid com 5 máquinas mostram que o framework proposto de fato permite a definição de regras pelo usuário e a inclusão de novas técnicas de tolerância a falhas. Além disso, a sobrecarga no tempo de execução dos workflows foi baixo: cerca de 2%, na plataforma avaliada. ___________________________________________________________________________________ ABSTRACT / Grid computing allows its users to share autonomous and heterogeneous resources to solve highly complex computational problems. It creates an extremely dynamic environment, in which the resources may enter or leave at any given moment according to their needs. One of the major uses of Grid computing is the execution of scientific workflows, a set of necessary steps for analyzing great amounts of data. The execution time of these workflows may vary from several minutes to days. Once we combine these two characteristics - a dynamic environment and long execution times - a problem arises, since there is no mechanism to prevent resources from leaving the Grid during the execution of a task belonging to a workflow, thus introducing an error in the execution. However, the ocurrence of these errors must not make unfeasible the workflow execution. To deal with this issue fault tolerance techniques have been proposed. They allow for correct workflow execution even when facing errors during a number of faults in intermediary tasks. Many published papers deal with fault tolerance techniques for workflow execution in the Grid, but none of the studied approaches consider both the user preferences and the current status of the Grid. The current Master's Thesis proposes and evaluates a framework that provides adaptive fault tolerant execution for workflows in Grids allowing the user to define the rules by which the fault tolerance techniques will be chosen at runtime. Moreover, it allows the addition of new fault tolerance techniques. The experimental results obtained from a 5-machine Grid show that the framework is able to allow the user to set the rules and add new fault tolerance techniques at the cost of a very low overhead in the execution time: around 2% in the evalution platform.
8

Exploring service relocation and differentiation to improve survivability on operation of resilient optical cloud networks

SILVA, Carlos Natalino da 17 March 2016 (has links)
Submitted by camilla martins (camillasmmartins@gmail.com) on 2017-03-21T13:09:58Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Tese_ExploringServiceRecolation.pdf: 2509240 bytes, checksum: 4b5cfef062b77491f0bb24b1643d5cb4 (MD5) / Approved for entry into archive by Edisangela Bastos (edisangela@ufpa.br) on 2017-03-22T14:49:40Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Tese_ExploringServiceRecolation.pdf: 2509240 bytes, checksum: 4b5cfef062b77491f0bb24b1643d5cb4 (MD5) / Made available in DSpace on 2017-03-22T14:49:40Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Tese_ExploringServiceRecolation.pdf: 2509240 bytes, checksum: 4b5cfef062b77491f0bb24b1643d5cb4 (MD5) Previous issue date: 2016-03-17 / FAPESPA - Fundação Amazônia de Amparo a Estudos e Pesquisas / Nuvens ópticas são a junção de redes ópticas de transporte com computação em nuvem, permitindo o gerenciamento integrado de ambas as infraestruturas por um único controlador. Este gerenciamento integrado permite o surgimento de novos modelos de serviço como por exemplo demandas anycast formadas por uma demanda para a rede óptica (requisitando recursos de rede) e uma demanda de serviço para a nuvem (requisitando recursos de processamento e armazenamento) no mesmo ciclo de vida. Este novo paradigma permite a migração de serviços (habilidade de migrar um serviço que está em um datacenter para outro), o qual deve ser utilizado com moderação pois possuem execução complexa e demorada, podendo causar sobrecarga na rede ou datacenters envolvidos na operação. Atualmente trabalhos da literatura consideram um único modelos de demanda de serviço, o que pode não representar corretamente a variedade de demandas esperadas para serviços em nuvem. Neste contexto, propriedades e características de serviços afetados por falhas, como por exemplo a prioridade ou o tempo restante do serviço, podem ser estudados visando a melhoria da sobrevivência de tais serviços durante o processo de restauração de conexões. Esta tese propõe o estudo de nuvens ópticas e os impactos causados pelo uso de migração de serviços na sobrevivência destas nuvens. Para avaliar estes impactos, um cenário de simulação de nuvens ópticas é proposto, visando aumentar a heterogeneidade dos serviços considerados. O processo de restauração de serviços afetados por falhas na rede é estudado e novas estratégias para restauração de serviços capazes de migrar serviços entre datacenters são propostas visando aumentar a resiliência destas nuvens a falhas. As propostas são avaliadas em um conjunto de diferentes cenários, e comparadas com estratégias da literatura. Resultados mostram uma considerável melhoria na resiliência de nuvens ópticas quando usando as estratégias propostas. / Optical clouds are the combination of optical transport networks and cloud computing, which allows the integrated management of both infrastructures in one controller element. In this paradigm, cloud services can be provisioned in an anycast fashion, i.e., only the source node asking for a service and the amount of IT resources are specified, while it is up to the cloud control/management system to select the most suitable destination datacenter (DC) node. During the cloud service provisioning process resiliency is crucial in order to guarantee continuous network operations also in the presence of failures. On one hand, a survivability strategy needs to be able to meet the availability requirements of each specific cloud service, while on the other hand it must be efficient in using backup resources. Service relocation (i.e., the ability to live re-allocate one provisioned service to another DC) is one of the new features that can be used in this new paradigm, but needs to be applied carefully given its associated overhead may overload the network and DCs. Current works in the literature consider a single service model that lack representation of the heterogeneity expected for cloud services. In this context, some disrupted connection properties can be considered to improve the network survivability during the restoration process, e.g., priorities and service remaining holding time. This thesis proposes a restoration-based survivability strategy, which combines the benefits of both cloud service relocation and service differentiation concepts. The former is used to enhance the restorability performance (i.e., the percentage of successfully restored cloud services) offered by restoration, while the latter ensures that critical services are given the proper consideration while backup resources are assigned. An ILP and a heuristic are presented in order to solve the proposed survivability strategy. The proposed strategies are evaluated considering a variety of different simulation scenarios. Results show that performance achieved by the proposed ILP and heuristic are close to the ones achieved when using protection strategies, but with the inherent benefits in terms of efficient use of resources offered by restoration-based approaches.
9

Relação entre sociedade organizada e governo através de infocentros sob a luz da teoria da hospotalidade : estudo de caso / Juliano Burkert Teixeira ; orientadora, Maria Alexandra Viegas Cortez da Cunha

Teixeira, Juliano Burkert January 2007 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, Curitiba, 2007 / Bibliografia: f. 83-87 / Esta pesquisa tem como principal objetivo estudar como se dá a relação entre um grupo ativo politicamente e o Estado por meio de ferramentas de TIC fornecidas por projetos públicos de inclusão digital. A investigação se dá na forma de observação não obstr / The goal of this research is to study how does a organized group of the society relates with the government using information and communication technology witch is given by the State in shape of public projects of digital inclusion. The investigation proc
10

MATIUDE - monitoramento e acesso a transdutores inteligentes (Padrão IEEE 1451) utilizando dispositivos embarcados (celulares e PDA´s)

Santos Filho, Tércio Alberto dos [UNESP] 21 June 2007 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:22:31Z (GMT). No. of bitstreams: 0 Previous issue date: 2007-06-21Bitstream added on 2014-06-13T19:28:01Z : No. of bitstreams: 1 santosfilho_ta_me_ilha.pdf: 897214 bytes, checksum: b413f9725d41ab8ae80464b36b02dada (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Neste trabalho foi desenvolvido um aplicativo para os dispositivos móveis (celulares e PDA´s) chamado MATIUDE (Monitoramento e Acesso aos Transdutores Inteligentes Utilizando os Dispositivos Embarcados) para o monitoramento e acesso aos transdutores inteligentes em conformidade com o padrão IEEE 1451. O sistema realiza a comunicação com o NCAP utilizando a rede ethernet. A comunicação entre o NCAP com os módulos inteligentes é realizada por meio da interface física padronizada TII podendo acoplar num total de 255 transdutores por módulo STIM. Os testes foram realizados em um sistema de distribuição de água no laboratório Hidrologia e Hidrometria, na maquete de uma granja e no monitoramento de temperatura ambiente, porém desenvolvidos no Laboratório de Processamento de Sinais e Sistemas Digitais. Os resultados obtidos comprovam o bom funcionamento do sistema. / On this work, an applicatory for mobile devices (cellular and PDA´s) called MATIUDE (Monitoring and Access to the Smart Transducers Using the Embedded Devices) was developed for monitoring and access to the smart transducers in compliance with the standard IEEE 1451. The communication between the NCAP and the smart modules is performed though the physical interface standardized TII limiting the system in a total of 255 transducers per module STIM. The tests were carried in a water distribution system in the Hydrology and Hydrometric laboratory on a mockup’s farm and ambient temperature monitoring, both developed in the Signal Processing and Digital System Laboratory. The results prove the good working.

Page generated in 0.1442 seconds