• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 538
  • 36
  • 5
  • 2
  • Tagged with
  • 584
  • 161
  • 129
  • 99
  • 99
  • 82
  • 80
  • 73
  • 71
  • 57
  • 57
  • 55
  • 51
  • 47
  • 45
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
541

Estudo biomecânico para a reabilitação do ouvido médio humano

Marques, Marco da Costa January 2012 (has links)
Tese de mestrado integrado. Bioengenharia. Faculdade de Engenharia. Universidade do Porto. 2012
542

A hybrid multi-objective bayesian estimation of distribution algorithm / Um algoritmo de estimação de distribuição híbrido multiobjetivo com modelo probabilístico bayesiano

Martins, Marcella Scoczynski Ribeiro 11 December 2017 (has links)
Atualmente, diversas metaheurísticas têm sido desenvolvidas para tratarem problemas de otimização multiobjetivo. Os Algoritmos de Estimação de Distribuição são uma classe específica de metaheurísticas que exploram o espaço de variáveis de decisão para construir modelos de distribuição de probabilidade a partir das soluções promissoras. O modelo probabilístico destes algoritmos captura estatísticas das variáveis de decisão e suas interdependências com o problema de otimização. Além do modelo probabilístico, a incorporação de métodos de busca local em Algoritmos Evolutivos Multiobjetivo pode melhorar consideravelmente os resultados. Estas duas técnicas têm sido aplicadas em conjunto na resolução de problemas de otimização multiobjetivo. Nesta tese, um algoritmo de estimação de distribuição híbrido, denominado HMOBEDA (Hybrid Multi-objective Bayesian Estimation of Distribution Algorithm ), o qual é baseado em redes bayesianas e busca local é proposto no contexto de otimização multi e com muitos objetivos a fim de estruturar, no mesmo modelo probabilístico, as variáveis, objetivos e as configurações dos parâmetros da busca local. Diferentes versões do HMOBEDA foram testadas utilizando instâncias do problema da mochila multiobjetivo com dois a cinco e oito objetivos. O HMOBEDA também é comparado com outros cinco métodos evolucionários (incluindo uma versão modificada do NSGA-III, adaptada para otimização combinatória) nas mesmas instâncias do problema da mochila, bem como, em um conjunto de instâncias do modelo MNK-landscape para dois, três, cinco e oito objetivos. As fronteiras de Pareto aproximadas também foram avaliadas utilizando as probabilidades estimadas pelas estruturas das redes resultantes, bem como, foram analisadas as interações entre variáveis, objetivos e parâmetros de busca local a partir da representação da rede bayesiana. Os resultados mostram que a melhor versão do HMOBEDA apresenta um desempenho superior em relação às abordagens comparadas. O algoritmo não só fornece os melhores valores para os indicadores de hipervolume, capacidade e distância invertida geracional, como também apresenta um conjunto de soluções com alta diversidade próximo à fronteira de Pareto estimada. / Nowadays, a number of metaheuristics have been developed for dealing with multiobjective optimization problems. Estimation of distribution algorithms (EDAs) are a special class of metaheuristics that explore the decision variable space to construct probabilistic models from promising solutions. The probabilistic model used in EDA captures statistics of decision variables and their interdependencies with the optimization problem. Moreover, the aggregation of local search methods can notably improve the results of multi-objective evolutionary algorithms. Therefore, these hybrid approaches have been jointly applied to multi-objective problems. In this work, a Hybrid Multi-objective Bayesian Estimation of Distribution Algorithm (HMOBEDA), which is based on a Bayesian network, is proposed to multi and many objective scenarios by modeling the joint probability of decision variables, objectives, and configuration parameters of an embedded local search (LS). We tested different versions of HMOBEDA using instances of the multi-objective knapsack problem for two to five and eight objectives. HMOBEDA is also compared with five cutting edge evolutionary algorithms (including a modified version of NSGA-III, for combinatorial optimization) applied to the same knapsack instances, as well to a set of MNK-landscape instances for two, three, five and eight objectives. An analysis of the resulting Bayesian network structures and parameters has also been carried to evaluate the approximated Pareto front from a probabilistic point of view, and also to evaluate how the interactions among variables, objectives and local search parameters are captured by the Bayesian networks. Results show that HMOBEDA outperforms the other approaches. It not only provides the best values for hypervolume, capacity and inverted generational distance indicators in most of the experiments, but it also presents a high diversity solution set close to the estimated Pareto front.
543

Virtual power: um modelo de custo baseado no consumo de energia do processador por máquina virtual em nuvens IaaS / Virtual power: a cost model based on the processor energy consumption per virtual machine in IaaS clouds

Hinz, Mauro 29 September 2015 (has links)
Made available in DSpace on 2016-12-12T20:22:53Z (GMT). No. of bitstreams: 1 Mauro Hinz.pdf: 2658972 bytes, checksum: 50ee82c291499d5ddc390671e05329d4 (MD5) Previous issue date: 2015-09-29 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The outsourcing of computing services has been through constant evolutions in the past years, due to the increase of demand for computing resources. Accordingly, data centers are the main suppliers of computing service and cloud-based computing services provide a new paradigm for the offer and consumption of these computing resources. A substantial motivator for using cloud computing is its pricing model, which enables to charge the customer only for the resources he used, thus adopting a pay-as-you-use cost model. Among cloud-based computing services, the service type Infrastructure-as-a-Service (IaaS) is the one mostly used by companies that would like to outsource their computing infrastructure. The IaaS service, in most cases, is offered through virtual machines. This paper revisits the cost models used by data centers and analyses the costs of supply of virtual machines based on IaaS. This analysis identifies that electricity represents a considerable portion of this cost and that much of the consumption comes from the use of processors in virtual machines, and that this aspect is not considered in the identified cost models. This paper describes the Virtual Power Model, a cost model based on energy consumption of the processor in cloud-based, virtual machines in IaaS. The model is based on the assumptions of energy consumption vs. processing load, among others, which are proven through experiments in a test environment of a small data center. As a result, the Virtual Power Model proves itself as a fairer pricing model for the consumed resources than the identified models. Finally, a case study is performed to compare the costs charged to a client using the cost model of Amazon for the AWS EC2 service and the same service charged using the Virtual Power Model. / A terceirização dos serviços de computação tem passado por evoluções constantes nos últimos anos em função do contínuo aumento na demanda por recursos computacionais. Neste sentido, os data centers são os principais fornecedores de serviço de computação e os serviços de computação em nuvem proporcionam um novo paradigma na oferta e consumo desses recursos computacionais. Um considerável motivador do uso das nuvens computacionais é o seu modelo de tarifação que possibilita a cobrança do cliente somente dos recursos que ele utilizou, adotando um modelo de custo do tipo pay-as-you-use. Dentre os serviços de computação em nuvem, o serviço do tipo IaaS (Infrastructure-as-a-Service) é um dos mais utilizados por empresas que desejam terceirizar a sua infraestrutura computacional. O serviço de IaaS, na grande maioria dos casos, é ofertado através de instâncias de máquinas virtuais. O presente trabalho revisita os modelos de custos empregados em data centers analisando a formação dos custos no fornecimento de máquina virtuais em nuvens baseadas em IaaS. Com base nesta análise identificasse que a energia elétrica possui uma parcela considerável deste custo e que boa parte deste consumo é proveniente do uso de processadores pelas máquinas virtuais, e que esse aspecto não é considerado nos modelos de custos identificados. Este trabalho descreve o Modelo Virtual Power, um modelo de custo baseado no consumo de energia do processador por máquina virtual em nuvens IaaS. A constituição do modelo está baseada nas premissas de consumo de energia vs. carga de processamento, entre outros, que são comprovados através de experimentação em um ambiente de testes em um data center de pequeno porte. Como resultado o Modelo Virtual Power mostra-se mais justo na precificação dos recursos consumidos do que os modelos identificados. Por fim, é realizado um estudo de caso comparando os custos tarifado a um cliente empregando o modelo de custo da Amazon no serviço AWS EC2 e o mesmo serviço tarifado utilizando o Modelo Virtual Power.
544

Planejamento e desenvolvimento de um serious game voltado ao ensino de saúde bucal em bebês

Morais, Alana Marques de 16 February 2011 (has links)
Made available in DSpace on 2015-05-14T12:47:22Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 2889222 bytes, checksum: 8230904036e0af5a059d1007bb898f06 (MD5) Previous issue date: 2011-02-16 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Serious games are computer games with serious purposes, such as: training, learning, valuation etc. These games connect the fun of common videogames with features like decision making, assessment systems and educational planning in order to create an engaging learning environment. So these aspects create endless possibilities of use in those games and attract attention from other areas of knowledge. Therefore, the design process becomes increasingly complex and involves multidisciplinary teams. This document presents an interdisciplinary study conducted to define an approach based on communication for the development of a serious game for dentistry, specifically oral health in babies. Thus, in this work presents a stage before the design of the serious games. The focus was to evaluate what is the best approach to be applied to the script of the game in order to define the good way to present the content. In this paper, the term communication approach joins features such as: game play, game design, interaction, narrative, story genre and script. In this project, it was necessary to evaluate which communication approach is appropriate in a serious game aimed at mothers. We developed two prototypes to test different communication approaches. The game's audience, initially the mothers, who are using tests that define the most appropriate for them by offering a poll. After interact with approaches, the mothers answered a form. The data were analyzed through absolute and percentage values. Finally we decided adopt a Playful Approach, because the mothers felt more encouraged to finalize this application compare to Formal Approach. The serious game was developed and a new assessment was conducted to investigate mother s opinions. In this new stage of testing, some changes in behavior were seen in the audience, for example, the increase in the number of mothers who said they had some computer knowledge. However, even when dealing with a more demanding audience, the results remained positive. Data were analyzed descriptively by absolute values and percentages. It was found that 87% of mothers who interacted with the game learned some new knowledge and 53% were able to earn (successfully complete) the game. / Os serious games ganham espaço dia a dia nas mais variadas ciências. Neste contexto destacam-se as ferramentas na Odontologia. Para avaliar as perspectivas deste grupo de jogos, realizou-se o levantamento e análise das aplicações presentes na literatura e no mercado de jogos. Observamos, a partir do estudo realizado, que os conceitos básicos relacionados à saúde e higiene bucal predominam como temática dos serious games para Odontologia, bem como as crianças são o público-alvo principal destes jogos. Concluímos que existi uma carência na exploração da temática saúde bucal em bebês, visto que não foram encontrados nas bases de dados pesquisados serious games abordando tal temática. Além disso, observamos que não há jogos voltados para um público-alvo formado por mães. Por isso, este projeto se utilizou da metodologia de planejamento baseada na avaliação da Abordagem de Comunicação (AC) junto ao público-alvo. As ACs descrevem um conjunto de características importantes para a comunicação do jogo com o público-alvo. Esta análise deu subsídios necessários para o desenvolvimento do serious game baseado na AC Lúdica. A aplicação foi desenvolvida e uma nova avaliação foi realizada para investigar a opinião das mães diante do jogo concluído. Nesta nova fase de testes, algumas mudanças de comportamento foram percebidas no público-alvo como, por exemplo, uma maior informatização das mães. Contudo, mesmo lidando com um público-alvo mais exigente, os resultados continuaram sendo positivos. Os dados foram analisados descritivamente mediante valores absolutos e percentuais. Constatamos que 87% das mães que interagiram com o jogo aprenderam algum conhecimento novo e 53% delas conseguiram ganhar (concluir com êxito) o jogo.
545

Controle de fixação atentivo para uma cabeça robótica com visão binocular / Attentive gaze control for a binocular robot head

Roos, André Filipe 29 August 2016 (has links)
A pesquisa em visão computacional ainda está distante de replicar a adaptabilidade e o desempenho do Sistema Visual Humano. Grande parte das técnicas consolidadas são válidas apenas em cenas estáticas e condições restritivas. Cabeças robóticas representam um avanço em flexibilidade, pois carregam câmeras que podem ser movimentadas livremente para a exploração dos arredores. A observação artificial de um ambiente dinâmico exige a solução de pelo menos dois problemas: determinar quais informações perceptuais relevantes extrair dos sensores e como controlar seu movimento para mudar e manter a fixação de alvos com forma e movimento arbitrários. Neste trabalho, um sistema de controle de fixação binocular geral é proposto, e o subsistema responsável pela seleção de alvos e fixação de deslocamentos laterais é projetado, experimentado e avaliado em uma cabeça robótica com quatro graus de liberdade. O subsistema emprega um popular modelo de atenção visual de baixo nível para detectar o ponto mais saliente da cena e um controlador proporcional-integral gera um movimento conjuntivo das duas câmeras para centralizá-lo na imagem da câmera esquerda, assumida como dominante. O desenvolvimento do sistema envolveu primeiramente a modelagem física detalhada do mecanismo de pan e tilt das câmeras. Então, a estrutura linearizada obtida foi ajustada por mínimos quadrados aos dados experimentais de entrada-saída. Por fim, os ganhos do controlador foram sintonizados por otimização e ajuste manual. A implementação em C++ com a biblioteca OpenCV permitiu operação em tempo real a 30 Hz. Experimentos demonstram que o sistema é capaz de fixar alvos estáticos e altamente salientes sem conhecimento prévio ou fortes suposições. Alvos em movimento harmônico são perseguidos naturalmente, embora com defasamento. Em cenas visualmente densas, onde múltiplos alvos em potencial competem pela atenção, o sistema pode apresentar comportamento oscilatório, exigindo o ajuste fino dos pesos do algoritmo para operação suave. A adição de um controlador para o pescoço e de um controlador de vergência para a compensação de deslocamentos em profundidade são os próximos passos rumo a um observador artificial genérico. / Computer vision research is still far from replicating the adaptability and performance of the Human Visual System. Most of its consolidated techniques are valid only over static scenes and restrictive conditions. Robot heads represent an advance in terms of flexibility by carrying cameras that can be freely moved to explore the surroundings. Artificial observation of dynamic environments requires the solution of at least two problems: to determine what is the relevant perceptual information to be extracted from the sensors and how to control their movement in order to shift and hold gaze on targets featuring arbitrary shapes and motions. In this work, a general binocular gaze control system is proposed, and the subsystem responsible for targeting and following lateral displacements is designed, tested and assessed in a four degrees-of-freedom robot head. The subsystem employs a popular low-level visual attention model to detect the most salient point in the scene, and a proportional-integral controller generates a conjunctive movement of the cameras to center it in the left camera image, assumed to be dominant. The development started with a detailed physical modeling of the pan and tilt mechanism that drives the cameras. Then, the linearized structure obtained was fitted via least squares estimation to experimental input-output data. Finally, the controller gains were tuned by optimization and manual adjustment. The OpenCV-based implementation in C++ allowed real-time execution at 30 Hz. Experiments demonstrate that the system is capable of fixating highly salient and static targets without any prior knowledge or strong assumptions. Targets describing harmonic motion are naturally pursued, albeit with a phase shift. In cluttered scenes, where multiple potential targets compete for attention, the system may present oscillatory behavior, requiring fine adjustment of algorithm weights for smooth operation. The addition of a controller for the neck and a vergence controller to compensate for depth displacements are the next steps towards a generic artificial observer.
546

Detecção de intrusos em redes de computadores com uso de códigos corretores de erros e medidas de informação. / Intrusion detection in computer networks using error correction codes and information measures.

LIMA, Christiane Ferreira Lemos. 13 August 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-08-13T19:50:34Z No. of bitstreams: 1 CHRISTIANE FERREIRA LEMOS LIMA - TESE PPGEE 2013..pdf: 5704501 bytes, checksum: da700470760daace1ac791c6514082a3 (MD5) / Made available in DSpace on 2018-08-13T19:50:34Z (GMT). No. of bitstreams: 1 CHRISTIANE FERREIRA LEMOS LIMA - TESE PPGEE 2013..pdf: 5704501 bytes, checksum: da700470760daace1ac791c6514082a3 (MD5) Previous issue date: 2013-04-19 / Capes / Este trabalho de tese tem como objetivo principal apresentar um novo esquema, direcionado à proteção de sistemas computacionais contra a ocorrência de invasões, fazendo uso de códigos corretores de erros e de medidas de informação. Para isto, considera-se que a identificação de diferentes tipos de ataques a uma rede de computadores pode ser vista como uma tarefa de classificação multiclasses, por envolver a discriminação de ataques em diversos tipos ou categorias. Com base nessa abordagem, o presente trabalho apresenta uma estratégia para classificação multiclasses, baseada nos princípios dos códigos corretores de erros, tendo em vista que para cada uma dasM classes do problema proposto é associada a um conjunto de palavras códigos de comprimento igual a N, em que N é o número de atributos, selecionados por meio de medidas de informação, e que serão monitorados por dispositivos de software, aqui chamados de detectores de rede e detectores dehost. Nesta abordagem, as palavras código que formam uma tabela são restritas a um sub-código de um código linear do tipo BCH (Bose-ChaudhuriHocquenghem), permitindo que a etapa de decodificação seja realizada, utilizando-se algoritmos de decodificação algébrica, o que não é possível para palavras código selecionadas aleatoriamente. Nesse contexto, o uso de uma variante de algoritmo genético é aplicado no projeto da tabela que será utilizada na identificação de ataques em redes de computadores. Dentre as contribuições efetivas desta tese, cujas comprovações são demonstradas em experimentos realizados por simulação computacional, tem-se a aplicação da teoria da codificação para a determinação de palavras código adequadas ao problema de detectar intrusões numa rede de computadores; a determinação dos atributos por meio do uso de árvores de decisão C4.5 baseadas nas medidas de informação de Rényi e Tsallis; a utilização de decodificação algébrica, baseado nos conceitos de decodificação tradicional e na decodificação por lista. / The thesis’s main objective is to present a scheme to protect computer networks against the occurrence of invasions by making use of error correcting codes and information measures. For this, the identification of attacks in a network is viewed as a multiclass classification task because it involves attacks discrimination into various categories. Based on this approach, this work presents strategies for multiclass problems based on the error correcting codes principles, where eachM class is associated with a codeword of lengthN, whereN is the number of selected attributes, chosen by use of information measures. These attributes are monitored by software devices, here called network detectors and detectors host. In this approach, the codewords that form a codewords table are a sub-code of a BCH-type linear code. This approach allows decoding step to be performed using algebraic decoding algorithms, what is not possible with random selected codewords. In this context, the use of a variant of genetic algorithm are applied in the table-approach design to be used in attacks identification in networks. The effective contributions of this thesis, demonstrated on the cientific experiments, are: the application of coding theory to determine the appropriate code words to network intrusion detection; the application of C4.5 decision tree based on information measurements of Rényi and Tsallis for attributes selection; the use of algebraic decoding, based on the concepts of the traditional decoding and list decoding techniques.
547

Gerenciamento de uma estrutura híbrida de TI dirigido por métricas de negócio. / Management of a hybrid IT structure driven by business metrics.

MACIEL JÚNIOR, Paulo Ditarso. 31 July 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-07-31T13:58:16Z No. of bitstreams: 1 PAULO DITARSO MACIEL JÚNIOR - TESE PPGCC 2013..pdf: 21161997 bytes, checksum: 33b051924023dbbac092de80229a7705 (MD5) / Made available in DSpace on 2018-07-31T13:58:16Z (GMT). No. of bitstreams: 1 PAULO DITARSO MACIEL JÚNIOR - TESE PPGCC 2013..pdf: 21161997 bytes, checksum: 33b051924023dbbac092de80229a7705 (MD5) Previous issue date: 2013-06-14 / CNPq / Capes / Com o surgimento do paradigma de computação na nuvem e a busca contínua para reduzir o custo de operar infraestruturas de Tecnologia da Informação (TI), estamos vivenciando nos dias de hoje uma importante mudança na forma como estas infraestruturas estão sendo montadas, configuradas e gerenciadas. Nesta pesquisa consideramos o problema de gerenciar uma infraestrutura híbrida, cujo poder computacional é formado por máquinas locais dedicadas, máquinas virtuais obtidas de provedores de computação na nuvem e máquinas virtuais remotas disponíveis a partir de uma grade peer-to-peer (P2P) best-effort. As aplicações executadas nesta infraestrutura são caracterizadas por uma função de utilidade no tempo, ou seja, a utilidade produzida pela execução completa da aplicação depende do tempo total necessário para sua finalização. Tomamos uma abordagem dirigida a negócios para gerenciar esta infraestrutura, buscando maximizar o lucro total obtido. Aplicações são executadas utilizando poder computacional local e da grade best-effort, quando possível. Qualquer capacidade extra requerida no intuito de melhorar a lucratividade da infraestrutura é adquirida no mercado de computação na nuvem. Também assumimos que esta capacidade extra pode ser reservada para uso futuro através de contratos de curta ou longa duração, negociados sem intervenção humana. Para contratos de curto prazo, o custo por unidade de recurso computacional pode variar significativamente entre contratos, com contratos mais urgentes apresentando, geralmente, custos mais caros. Além disso, devido à incerteza inerente à grade best-effort, podemos não saber exatamente quantos recursos serão necessários do mercado de computação na nuvem com certa antecedência. Superestimar a quantidade de recursos necessários leva a uma reserva maior do que necessária; enquanto subestimar leva à necessidade de negociar contratos adicionais posteriormente. Neste contexto, propomos heurísticas que podem ser usadas por agentes planejadores de contratos no intuito de balancear o custo e a utilidade obtida na execução das aplicações, com o objetivo de alcançar um alto lucro global. Demonstramos que a habilidade de estimar o comportamento da grade é uma importante condição para estabelecer contratos que produzem alta eficiência no uso da infraestrutura híbrida de TI. / With the emergence of the cloud computing paradigm and the continuous search to reduce the cost of running Information Technology (IT) infrastructures, we are currently experiencing an importam change in the way these infrastructures are assembled, configured and managed. In this research we consider the problem of managing a hybrid high-performance computing infrastructure whose processing elements are comprised of in-house dedicated machines, virtual machines acquired from cloud computing providers, and remote virtual machines made available by a best-effort peer-to-peer (P2P) grid. The applications that run in this hybrid infrastructure are characterised by a utility function: the utility yielded by the completion of an application depends on the time taken to execute it. We take a business-driven approach to manage this infrastructure, aiming at maximising the total profit achieved. Applications are run using computing power from both in-house resources and the best-effort grid. whenever possible. Any extra capacity required to improve the profitability of the infrastructure is purchased from the cloud computing market. We also assume that this extra capacity is reserved for future use through either short or long term contracts, which are negotiated without human intervention. For short term contracts. the cost per unit of computing resource may vary significantly between contracts, with more urgent contracts normally being more expensive. Furthermore, due to the uncertainty inherent in the besteffort grid, it may not be possible to know in advance exactly how much computing resource will be needed from the cloud computing market. Overestimation of the amount of resources required leads to the reservation of more than is necessary; while underestimation leads to the necessity of negotiating additional contracts later on to acquire the remaining required capacity. In this context, we propose heuristics to be used by a contract planning agent in order to balance the cost of running the applications and the utility that is achieved with their execution. with the aim of producing a high overall profit. We demonstrate that the ability to estimate the grid behaviour is an important condition for making contracts that produce high efficiency in the use of the hybrid IT infrastructure.
548

Atividades de ótica exploradas no ensino médio através de reflexões epistemológicas com o emprego do V de Gowin

Batistella, Carmes Ana da Rosa January 2007 (has links)
A Física tem uma maneira própria de olhar a natureza e de estudar seus fenômenos. Por essa razão, o ensino-aprendizagem de Física não pode estar centrado na transmissão de informações, mas sim na construção do conhecimento em um contexto amplo que envolva conteúdos, novas metodologias e novos instrumentos adequados à realidade da escola, que venham a contribuir para uma aprendizagem significativa. Dentro dessa concepção, apresenta-se uma proposta de ensino de ótica, com ênfase no estudo através de módulos didáticos. Para tal, foram elaboradas atividades didáticas incluindo simulações de eventos com o uso de novas tecnologias e, também, em laboratório convencional, exploradas em uma visão construtivista fundamentada nas teorias de Vygotsky e de Ausubel. No desenvolvimento dessas atividades procurou-se propiciar o compartilhamento de significados através de diagramas fundamentados no V de Gowin, na busca de uma aprendizagem significativa. A composição dos módulos didáticos apresenta uma motivação inicial através de exposição oral questionada, com o objetivo de despertar no aluno seus conhecimentos prévios. Em cada um dos módulos didáticos são sugeridas uma ou mais atividades a serem trabalhadas em grupos de 3 a 4 alunos, constando de experimento virtual (applets, simulações) ou real, acompanhado de guia simplificado. Essa dinâmica de trabalho gerou uma maior interação social entre os alunos; ao professor, coube o papel de mediador da atividade. Paralelamente a cada atividade, cada grupo de alunos construiu um diagrama V, que era apresentado à turma posteriormente, com o objetivo de promover discussões. A aplicação da proposta foi realizada no quarto bimestre letivo do ano de 2006, em uma turma de terceira série de Ensino Médio, noturna, da Escola Estadual de Ensino Médio Dr. Araby Augusto Nácul, em Lagoa Vermelha, RS. O material instrucional elaborado, na forma de página da Web, contém as atividades propostas nos módulos didáticos e também os correspondentes diagramas V a serem construídos pelos alunos. Também são incluídos na página da Web, como links, um material de apoio, com os conteúdos desenvolvidos nos vários módulos, e uma seção contendo exercícios de fixação. Com os alunos trabalhando em um determinado módulo didático, o material era disponibilizado nos computadores da Escola, gradualmente, para evitar que avançassem para os módulos seguintes antes de refletir sobre o conteúdo da atividade em andamento. O produto educacional, contendo o material instrucional e orientações para o seu uso, será divulgado na série Hipermídias de Apoio ao Professor de Física para que outros professores da rede de ensino possam adaptá-lo a sua realidade escolar. / Physics has its own way of looking at nature and its phenomena. For this reason the Physics’ teaching must not only be centered in lecturing information, but must also construct the knowledge in a wide context involving new technologies and tools fitted to the schools' reality. This, together with physics concepts, is to build a meaningful learning. To accomplish these goals we propose an approach to Optics teaching, structured in six didactic modules based on the meaningful learning’s theory by D. Ausubel and the social interaction’s theory by L. Vygotsky. Each didactic module starts with an oral exposition presenting the motivation through challenging questions, in order to instigate the students’ previous knowledges. We then suggest one or more activities based on virtual (e.g., simulations, applets) or real experiments, with a schematic activities guide, to be worked out by groups of three or four students, with the teacher mediation, in order to deepen social interaction. Besides each experimental activity, they construct an adapted Gowin V diagram, intended to promote a meaningful learning, and finally they discuss with the rest of the class, encouraging an exchange of views about the proposed issue. This methodological proposal has been applied to 18 third high school year students, of the nightclass at "Escola Estadual de Ensino Médio Dr. Araby Augusto Nácul" at Lagoa Vermelha, RS, during the fourth bimester of the school year of 2006. The instructional material was developed as a webpage, including the proposed experimental activities and the related V diagrams. Among the webpage links, we also included additional material with the physics contents of the didactic units and exercises. The whole instructional material has gradually been made available on the School’s computers to prevent the students from going to a forthcoming activity before having made deep reflections on the lectures/subjects that were being worked out at each moment. This work is to be published in the series Hipermídias de Apoio ao Professor de Física, of Instituto de Física of UFRGS, so that other teachers can access this material and use it in their school's context.
549

Um algoritmos distribuído para escalonamento de sensores em RSSF / A distributed algorithms for scheduling sensors in RSSF

Matos, Daniel Ribeiro January 2013 (has links)
MATOS, Daniel Ribeiro. Um algoritmos distribuído para escalonamento de sensores em RSSF. 2013. 59 f. : Dissertação (mestrado) - Universidade Federal do Ceará, Centro de Ciências, Departamento de Computação, Fortaleza-CE, 2013. / Submitted by guaracy araujo (guaraa3355@gmail.com) on 2016-06-16T17:08:19Z No. of bitstreams: 1 2013_dis_drmatos.pdf: 2537544 bytes, checksum: 870eae75ce068b1ef961e23307dda2a9 (MD5) / Approved for entry into archive by guaracy araujo (guaraa3355@gmail.com) on 2016-06-16T17:11:38Z (GMT) No. of bitstreams: 1 2013_dis_drmatos.pdf: 2537544 bytes, checksum: 870eae75ce068b1ef961e23307dda2a9 (MD5) / Made available in DSpace on 2016-06-16T17:11:38Z (GMT). No. of bitstreams: 1 2013_dis_drmatos.pdf: 2537544 bytes, checksum: 870eae75ce068b1ef961e23307dda2a9 (MD5) Previous issue date: 2013 / Wireless Sensor Networks (WSNs) are used in a lot of applications: from smart homes to military enviromnets. In general, WSNs has severe energy restrictions - a sensor usualy has a limited batery and it’s not replaceable. Distributing the sensor in a random mander can lead to a redundancy of some areas and this is desirable to support fail of some sensors. In this work, we propose an distributed algorithm to schedule active sensors to reduce the redundancy of data obtainned by the network and prolong the network lifetime. / Redes de Sensores Sem Fio (RSSF) são utilizadas em diversos tipos de aplicações: desde casas inteligentes a aplicações militares. RSSF possuem, em geral, severas restrições energéticas - um sensor geralmente possui uma quantidade limitada de bateria e este não é substituível. Os sensores podem possuir uma certa redundância de uma área sensoreada, uma vez que, quando os sensores são distribuídos de forma aleatória, alguns sensores acabam ficando muito próximos, ou mesmo quando são depositados de maneira determinística, uma certa redundância é necessária para prever a falha de alguns destes sensores. Neste trabalho, propomos um algoritmo distribuído que faz um escalonamento de sensores ativos, de forma a reduzir a redundância dos dados coletados e aumentar o tempo de vida da rede de sensores.
550

Memória longa em dados intradiários: um estudo sobre projeções baseadas na ordem fracionária de integração dos retornos de ações e índices de ações

Felix, Melchior Vinicius dos Santos 31 July 2014 (has links)
Submitted by Melchior Felix (melchior_felix@yahoo.com.br) on 2014-08-27T23:26:03Z No. of bitstreams: 1 Memória Longa em Dados Intradiários - Melchior Vinicius dos Santos Felix.pdf: 1262687 bytes, checksum: e23c42090eb78ab8e9251f4e82fa6bc1 (MD5) / Approved for entry into archive by JOANA MARTORINI (joana.martorini@fgv.br) on 2014-08-28T18:42:44Z (GMT) No. of bitstreams: 1 Memória Longa em Dados Intradiários - Melchior Vinicius dos Santos Felix.pdf: 1262687 bytes, checksum: e23c42090eb78ab8e9251f4e82fa6bc1 (MD5) / Made available in DSpace on 2014-08-28T19:38:24Z (GMT). No. of bitstreams: 1 Memória Longa em Dados Intradiários - Melchior Vinicius dos Santos Felix.pdf: 1262687 bytes, checksum: e23c42090eb78ab8e9251f4e82fa6bc1 (MD5) Previous issue date: 2014-07-31 / Mandelbrot (1971) demonstrou a importância de considerar dependências de longo prazo na precificação de ativos - o método tradicional para mensurá-las, encontrado em Hurst (1951), faz uso da estatística R/S. Paralelamente a isso, Box e Jenkins (1976; edição original de 1970) apresentaram sua famosa metodologia para determinação da ordem dos parâmetros de modelos desenvolvidos no contexto de processos com memória de curto prazo, conhecidos por ARIMA (acrônimo do inglês Autoregressive Integrated Moving Average). Estimulados pela percepção de que um modelo que pretenda representar fielmente o processo gerador de dados deva explicar tanto a dinâmica de curto prazo quanto a de longo prazo, Granger e Joyeux (1980) e Hosking (1981) introduziram os modelos ARFIMA (de onde o F adicionado vem de Fractionally), uma generalização da classe ARIMA, nos quais a dependência de longo prazo estimada é relacionada ao valor do parâmetro de integração. Pode-se dizer que a partir de então processos com alto grau de persistência passaram a atrair cada vez mais o interesse de pesquisadores, o que resultou no desenvolvimento de outros métodos para estimá-la, porém sem que algum tenha se sobressaído claramente – e é neste ponto que o presente trabalho se insere. Por meio de simulações, buscou-se: (1) classificar diversos estimadores quanto a sua precisão, o que nos obrigou a; (2) determinar parametrizações razoáveis desses, entendidas aqui como aquelas que minimizam o viés, o erro quadrático médio e o desvio-padrão. Após rever a literatura sobre o tema, abordar estes pontos se mostrou necessário para o objetivo principal: elaborar estratégias de negociação baseadas em projeções feitas a partir da caracterização de dependências em dados intradiários, minuto a minuto, de ações e índices de ações. Foram analisadas as séries de retornos da ação Petrobras PN e do Índice Bovespa, com dados de 01/04/2013 a 31/03/2014. Os softwares usados foram o S-Plus e o R. / Mandelbrot (1971) demonstrated the need to take into account long-term dependences when pricing assets – the traditional method to measure it, proposed by Hurst (1951), is based on the R/S statistic. In parallel to this, Box and Jenkins (1976; first edition in 1970) presented their famous methodology to determine the order of the parameters of models developed in the context of short memory processes, known as ARIMA (acronym to Autoregressive Integrated Moving Average). Motivated by the perception that a model that aims to described correctly the data generating process needs to explain both the short-term as well as the longterm dynamics, Granger and Joyeux (1980) and Hosking (1981) introduced the ARFIMA models (the F is due to the added term Fractionally), a generalization of the ARIMA class, in which the estimated long-term dependence is related to the value of the integration parameter. It can be said that since then processes with a high degree of persistence have attracted greater interest of researchers, what resulted in the development of new methods to estimated it, although none of them has clearly excelled – and is at this point that the present work stands itself. Through simulations, we targeted to: (1) rank many estimators according to precision, what showed the necessity to; (2) determine reasonable values for the input parameters, defined as those that minimize the bias, the mean squared error and the standard deviation. Past reviewing the literature about the subject, analyzing these points proved necessary to the main objective: creating trading strategies based on forecasts derived through the characterization of dependences in intradaily quotes, minute by minute, of equities and equity indexes. In the tests were analyzed the Petrobras PN and Bovespa Index returns time series, from the period ranging from April 1st, 2013 to March 31st, 2014. The softwares used were the S-Plus e the R.

Page generated in 0.0972 seconds