• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 538
  • 36
  • 5
  • 2
  • Tagged with
  • 584
  • 161
  • 129
  • 99
  • 99
  • 82
  • 80
  • 73
  • 71
  • 57
  • 57
  • 55
  • 51
  • 47
  • 45
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Arquitetura de um controlador de elasticidade para nuvens federadas

Vergara, Guilherme Fay 23 February 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-06-14T17:01:15Z No. of bitstreams: 1 2017_GuilhermeFayVergara.pdf: 4494970 bytes, checksum: a3c0a9d0810a4ddf119f2b293e093373 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-06-20T18:21:43Z (GMT) No. of bitstreams: 1 2017_GuilhermeFayVergara.pdf: 4494970 bytes, checksum: a3c0a9d0810a4ddf119f2b293e093373 (MD5) / Made available in DSpace on 2017-06-20T18:21:43Z (GMT). No. of bitstreams: 1 2017_GuilhermeFayVergara.pdf: 4494970 bytes, checksum: a3c0a9d0810a4ddf119f2b293e093373 (MD5) Previous issue date: 2017-06-20 / Com a constante evolução das aplicações, surgiu a necessidade de se ter um ambiente no qual fosse possível processar aplicações de forma dinâmica, escalável e sob demanda. Assim, emergiu a plataforma de computação em nuvem. Nesse ambiente, os recursos são alocados conforme a demanda de utilização. Para que seja possível um aumento/decréscimo escalar no número de recursos, a característica de elasticidade é fundamental. A elasticidade é definida como a capacidade da nuvem de se adaptar às alterações na quantidade de recursos ou de solicitar/liberar recursos de acordo com a necessidade. Nesse cenário, aplicações científicas, tais como as de Bioinformática, tem se beneficiado do conceito de nuvens pela sua característica de tratar grandes quantidades de dados, que demandam significativas quantidades de recursos computacionais. Neste cenário de execuções longas com grande número de recursos a elasticidade possibilita um uso mais adequado da nuvem, alocando os recursos somente nos momentos que são necessários. Assim sendo, este trabalho propõe uma arquitetura de um Controlador de Elasticidade para nuvens federadas, que seja capaz de provisionar/desprovisionar máquinas virtuais nas diversas nuvens da federação, além de também ser capaz de aumentar/diminuir a capacidade computacional de cada um dos recursos de maneira automática. / With the constant evolution of applications, there arose a need to have an environment which was able to process applications dynamically, scalabe and on demand. Thus emerged the cloud computing platform. In this environment, resources are allocated according to demand. To be able to scale on demand, the characteristic of the elasticity is fundamental. Elasticity is defined as the ability of the cloud to adapt to changes in the amount of resources or to request/release resources as needed. In this scenario, scientific applications, such as those of Bioinformatics, have benefited from the concept of cloud computing due, to their requirement of handling large amounts of data which demand significant amounts of computational resources. This work proposes an architecture for a Elasticity Controller for federated clouds, capable of provisioning/deprovisioning virtual machines across the various clouds of the federation, as well as being able to automatically increase/decrease the computational capacity of each of the resources.
132

Crenças e atitudes sobre o uso de atividades experimentais e computacionais no ensino de física por parte de professores do ensino médio

Heidemann, Leonardo Albuquerque January 2011 (has links)
A literatura aponta diversas vantagens para o uso de atividades experimentais (AE) e de atividades computacionais (AC) no ensino de Física. Estudos mais recentes têm concluído que a combinação desses dois recursos pode ser ainda mais eficaz do que quando usados isoladamente. No entanto, raros são os professores que exploram tais estratégias didáticas em suas aulas com frequência e de forma adequada. O objetivo geral deste trabalho é investigar as causas que levam os professores da educação básica a desprezarem as AE e as AC e a muitas vezes utilizar esses recursos de forma inadequada. Para isso, buscamos investigar quais são as principais crenças dos professores em relação a essas estratégias e seus possíveis usos combinados, assim como suas atitudes frente à aplicação dessas estratégias no ensino de Física. Resumidamente, procuramos responder às seguintes questões de pesquisa: i) Como professores da educação básica percebem e exploram as AE e as AC no ensino de Física? ii) Que vantagens e limitações são por eles apontadas quanto ao uso de tais recursos e como eles percebem suas possíveis combinações? Para responder a tais questões, adotamos a estratégia de estudos de caso amparando-nos nas orientações metodológicas de Yin e utilizamos, no último dos estudos realizados, a “Teoria do Comportamento Planejado” de Ajzen. Para a investigação, foram realizados três estudos de caso exploratórios que envolveram, respectivamente, 52 alunos de um mestrado profissional, 64 alunos de uma curso de especialização e 53 outros professores de Física em exercício. Os resultados mostraram que os docentes atribuem grande importância ao uso de AE no ensino de Física; já em relação às AC, apesar de considerarem que podem ser muito úteis, não atribuem a mesma importância do que às AE. Pode-se concluir também que, de modo geral, os professores não apresentam um sólido conhecimento sobre o uso de AE e AC, apresentando dificuldades para, principalmente, destacar suas limitações. Poucos deles percebem a necessidade de estratégias didáticas adequadas para que as AE e as AC efetivamente contribuam para a aprendizagem de Física. Em relação ao uso integrado de AE e AC, os resultados mostraram professores mais próximos do uso isolado desses recursos, defendendo que apenas um deles é suficiente para se ensinar Física, do que do uso combinado deles, explorando as vantagens de ambas estratégias didáticas. / The literature points out several advantages to the use of experimental activities (EA) and computational activities (CA) in physics education. Recent studies have concluded that combining these two resources can be even more effective than using just one of them. However, rare are the teachers who explore such didactical strategies in their classes frequently and properly. The aim of this study is to investigate the causes that lead teachers of basic education to despise or use inappropriately EA and CA . For this, we investigated what are the main beliefs of teachers in relation to these strategies and their possible integration, as well as their attitudes to implementing these strategies in physics teaching. In short, we tried to answer the following research questions: i) How the basic education teachers perceive and explore the AE and AC in the teaching of physics? ii) What are the advantages and limitations outlined for them in the use of such resources and how they perceive their combinations? To answer these questions, we adopted the strategy of case studies grounded in the methodological framework of Robert Yin and the "Theory of Planned Behavior" of Icek Ajzen. For this investigation, there was carried out three exploratory case studies that involved, respectively, 52 students of a professional master's degree, 64 students from a specialization course and 53 other physics teachers in service. The results showed that teachers attribute great importance to the use of EA in the physics teaching; however with respect to CA they do not attribute the same importance, although they consider that CA can be very useful. We conclude also that, in a general way, teachers do not have a solid knowledge about the use of CA and EA, presenting difficulties to highlight its limitations. Few of them realize the need for appropriate teaching strategies for the EA and CA that might effectively contribute to the learning of physics. Regarding the integrated use of CA and EA, the results showed teachers closer to the isolated use of these resources, arguing that only one of them is enough to teach physics, instead of explore the advantages of combining both recourses.
133

Uma experiência didática de inserção do microcomputador como instrumento de medida no laboratório de física do ensino médio

Silva, Lucia Forgiarini da January 2005 (has links)
Neste trabalho elaboramos cinco atividades experimentais que envolvem o uso do microcomputador como instrumento de medida no laboratório didático de Física. As atividades são do tipo aberto, de modo que os alunos tenham a oportunidade de explorar, testar e discutir soluções para todo o processo de medida, desde o uso de sensores nos sistemas de detecção, à conversão analógica/digital, passando pelos softwares. Somente depois de medidas manuais, o aluno passa à aquisição automática. Há guias impressos para alunos, com questões, desafios e sugestões de tarefas a serem executadas, e um texto de apoio para professores, contendo embasamento teórico e técnico indispensáveis para a compreensão do processo de aquisição automática. Os tópicos tratados são: sensores, medidas de tempo, e ondas mecânicas transversais (em cordas) e longitudinais (sonoras). O embasamento teórico para o desenvolvimento da proposta está apoiado na teoria sócio-interacionista de Vigotsky, na qual o desenvolvimento cognitivo não pode ser entendido sem referência ao contexto social, seus signos e instrumentos. Todas atividades foram testadas em condições de sala de aula em turmas de ensino médio e tecnológico da Unidade de Ensino do CEFET/RS, em 2003, e no curso de extensão Física para o Ensino Médio II, do Instituto de Física da UFRGS, em 2004. O produto educacional deste trabalho consiste em um texto de apoio para professores do ensino médio sobre o uso do microcomputador como um instrumento de medida, guias para alunos das cinco atividades experimentais envolvendo aquisição automática de dados e um hipertexto, disponível na web, baseado em animações do tipo Java Applet (Physlet).
134

Implementação de recuperação por retorno de aplicações distribuídas baseada em checkpoints coordenados

Buligon, Clairton January 2005 (has links)
A recuperação por retorno baseada em checkpointing é largamente usada como técnica de tolerância a falhas. O modelo complexo de sistemas distribuídos tem motivado o desenvolvimento de diversos algoritmos na tentativa de encontrar soluções mais simples e eficientes. Os processos que formam o sistema distribuído podem coordenar suas operações para garantir que o conjunto de checkpoints locais componha um estado global consistente (linha de recuperação). A partir desse estado, no caso de ocorrência de falhas, o sistema pode ser recuperado e a computação retomada a partir de um momento anterior ao da manifestação da falha, evitando o retrocesso para o estado inicial da computação e prevenindo a ocorrência de prejuízos com a perda de todo processamento até então realizado. No Grupo de Tolerância a Falhas da UFRGS foi proposto recentemente um algoritmo que é voltado para aplicações que executam em sistemas distribuídos assíncronos que se comunicam exclusivamente pela troca de mensagens. Ele opera com salvamento coordenado de checkpoints (não bloqueando as aplicações) e prevê o tratamento de mensagens órfãs e perdidas. Os mecanismos do algoritmo sugerem que nenhuma alteração deveria ser realizada no código das aplicações, criando a possibilidade de implementação transparente sob o ponto de vista dos usuários e dos programadores das aplicações. Como o algoritmo não requer o bloqueio das aplicações, a sobrecarga imposta pelos mecanismos à execução livre de falhas é pequena. Além disso, o processo de recuperação tende a ser efetuado rapidamente, uma vez que é garantida a existência de uma linha de recuperação consistente, facilmente identificada Este trabalho apresenta as decisões de projeto, a implementação, os resultados e a avaliação de desempenho desse algoritmo. A avaliação das alternativas de implementação resultou na decisão de uma implementação então realizada diretamente sobre o sistema operacional Linux, sem recorrer a protocolos auxiliares para garantir a execução dos serviços e sem a necessidade de adaptações no código das aplicações nem no código do sistema operacional. Adicionalmente, os resultados comprovaram a expectativa inicial de que o algoritmo causaria pouca sobrecarga no sistema (menos de 2%), embora ele ainda apresente alta dependência do tamanho dos checkpoints salvos.
135

Um estudo da otimização da geometria de um pára-quedas simplificado

Sandrini, Vanessa S. January 2005 (has links)
Neste trabalho desenvolve-se um estudo numérico do fluxo de ar em torno da geometria de um pára-quedas tradicional simplificado, para alguns valores de Reynolds. O método baseia-se na solução das equações incompressíveis de Navier- Stokes discretizadas pelo método de diferenças finitas e integradas pelo método de Runge-Kutta. Utiliza-se o método dos contornos virtuais para representar a geometria numa malha cartesiana e o método de otimização não-linear dos poliedros flexíveis para otimização do coeficiente de arraste calculado através do código de dinâmica de fluidos computacional; esteé um método de busca multivariável, onde o pior vértice de um poliedro com n + 1 vérticesé substituído por um novo.
136

Arquitetura baseada em confiança para a verificação da integridade de arquivos em nuvens computacionais / Trust based architecture for checking of file integrity in computer clouds

Pinheiro, Alexandre 11 July 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2016. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2016-11-17T15:01:50Z No. of bitstreams: 1 2016_AlexandrePinheiro.pdf: 4545960 bytes, checksum: cbe84c504980f8beb6ce72a4427bd396 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2017-02-01T19:21:43Z (GMT) No. of bitstreams: 1 2016_AlexandrePinheiro.pdf: 4545960 bytes, checksum: cbe84c504980f8beb6ce72a4427bd396 (MD5) / Made available in DSpace on 2017-02-01T19:21:43Z (GMT). No. of bitstreams: 1 2016_AlexandrePinheiro.pdf: 4545960 bytes, checksum: cbe84c504980f8beb6ce72a4427bd396 (MD5) / As vantagens de usar nuvens computacionais incluem a escalabilidade, disponibilidade e uma “ilimitada” capacidade de armazenamento. Entretanto, é um desafio disponibilizar serviços de armazenamento que sejam, ao mesmo tempo, seguros do ponto de vista do cliente e possam ser executados em infraestruturas de nuvem públicas gerenciadas por provedores de serviço considerados não totalmente confiáveis. Proprietários de grandes quantidades de dados necessitam armazená-los na nuvem por longos períodos de tempo sem a necessidade de manter cópias dos dados originais ou acessá-los. Nestes casos, questões como integridade, disponibilidade, privacidade e confiança ainda são desafios a serem superados para a adoção de serviços de armazenamento na nuvem e garantir a segurança, especialmente quando a perda ou vazamento de informações possam levar a significantes prejuízos sejam por razões legais ou de negócio. Com essa preocupação em mente, este trabalho apresenta uma arquitetura computacional que permite monitorar periodicamente as informações armazenadas na nuvem e o comportamento dos serviços de armazenamento contratados. A arquitetura baseia-se na proposta de um protocolo que aplica conceitos de confiança e criptografia para garantir a integridade dos dados armazenados na nuvem sem comprometer a confidencialidade ou sobrecarregar os serviços de armazenamento. Para corroborar a aplicabilidade da arquitetura, após a sua implementação, foram realizados testes e simulações por meio dos quais foi possível determinar características funcionais da arquitetura. Além disso, por intermédio da análise dos resultados foi possível confirmar a eficácia das aplicações desenvolvidas e confirmar características importantes do protocolo do proposto. / The advantages of using cloud computing include scalability, availability and an ‘unlimited’ storage capacity. However, it is a challenge to build storage services that they are at the same time safe from the client point-of-view, and that they run in public cloud infrastructures managed by service providers that can not be fully considered trustworthy. Owners of large amounts of data have to keep their data in cloud for a long period of time without the need to keep copies of the original data or to access it. In such cases, questions of integrity, availability, privacy and trust are still challenges in the adoption of Cloud Storage Services to ensure security, especially when losing or leaking information can bring significant damage, be it legal or business-related. With such concerns in mind, this paper proposes a architecture for periodically monitoring both the information stored in the cloud and the behaviour of contracted storage services. The architecture is based on the proposal for a protocol that applies trust and encryption concepts to ensure the integrity of data stored in the cloud without compromising confidentiality or overload storage services. To corroborate the applicability of the architecture, after its implementation, testing and simulations were performed, by means of which, it was possible to determine functional characteristics of the architecture. Furthermore, through the analysis of the results it was possible to confirm both the efficacy of the developed applications and important characteristics of the proposed protocol.
137

Monitoramento em tempo de execução : a construção de um módulo em Erlang para uma arquitetura orientada a serviços

Filgueiras, Renan Costa 28 November 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2017. / Submitted by Raquel Viana (raquelviana@bce.unb.br) on 2018-06-26T21:26:28Z No. of bitstreams: 1 2017_RenanCostaFilgueiras.pdf: 1129001 bytes, checksum: 25f504a789f7337c05569564390c77b3 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2018-06-29T16:40:28Z (GMT) No. of bitstreams: 1 2017_RenanCostaFilgueiras.pdf: 1129001 bytes, checksum: 25f504a789f7337c05569564390c77b3 (MD5) / Made available in DSpace on 2018-06-29T16:40:28Z (GMT). No. of bitstreams: 1 2017_RenanCostaFilgueiras.pdf: 1129001 bytes, checksum: 25f504a789f7337c05569564390c77b3 (MD5) Previous issue date: 2018-06-26 / Monitoramento de software em tempo de execução tem sido usado para detecção de falhas, análise de desempenho, otimização, diagnóstico e recuperação. Evidenciar e utilizar métricas adequadas são o que possibilita a obtenção dessas informações em tempo de execução do software. Quando agir, o que verificar, o que pode melhorar é uma parte crucial do contexto apresentado. Por esse motivo, este estudo apresentou um módulo em Erlang de monitoramento de sistemas em tempo de execução embasado em um mapeamento sistemático de métricas de monitoramento de sistemas computacionais em tempo de execução a fim de auxiliar na manutenibilidade de sistemas por meio de uma camada de visualização de software. O serviço de monitoramento foi utilizado nos sistemas da Universidade de Brasília a fim de analisar e avaliar os resultados obtidos neste trabalho. / Monitoring runtime software has been used for fault detection, performance analysis, optimization, diagnosis and recovery. Evidence and proper metrics is what makes it possible to obtain this information in the software runtime. When to act, what to check, which can improve is a crucial part of the pop. For this reason, this study presented a module in Erlang for monitoring systems in execution time based on a systematic mapping of computational systems runtime monitoring metrics in order to assist in the maintenance of systems through a visualization layer software. The monitoring service was used with the systems of the University of Brasília in order to analyze and evaluate the results obtained in this work.
138

Integração entre atividades computacionais e experimentais como recurso instrucional no ensino de eletromagnetismo em física geral

Dorneles, Pedro Fernando Teixeira January 2010 (has links)
Na literatura encontram-se inúmeros relatos sobre fatores negativos associados ao ensino de laboratório didático e ao uso do computador em sala de aula. Tendo isso em vista, buscamos integrar atividades computacionais com experimentais, visando a minimização dos fatores negativos de ambas atividades. Para investigar essa integração concebemos, implementamos e avaliamos uma proposta didática baseada nas teorias de aprendizagem de Ausubel e Vigotski e a visão epistemológica de Bunge sobre modelos teóricos. Tal proposta leva em conta que há diferentes maneiras de integrar experiência e recursos computacionais e que a eficácia desses recursos não depende apenas das suas características inerentes, mas, especialmente, das estratégias didáticas. Em um primeiro estudo, realizado a partir de uma metodologia predominantemente quantitativa, avaliou-se o desempenho de alunos que trabalharam com atividades de simulação e modelagem computacionais no estudo de circuitos elétricos, utilizando o software Modellus, comparado com o de alunos que tiveram apenas o sistema tradicional de ensino. Os resultados quantitativos mostram que houve melhorias estatisticamente significativas no desempenho dos alunos do grupo experimental, quando comparado aos alunos do grupo de controle (método tradicional de ensino). Na sequência, desenvolvemos dois estudos, adotando uma metodologia qualitativa do tipo estudo de casos exploratório com o propósito de levantar proposições norteadoras para embasarem um quarto estudo, em que investigamos formas de integração entre atividades computacionais e experimentais de modo a torná-las complementares, auxiliando os alunos a atingirem uma aprendizagem significativa de conceitos de Física e compreenderem algumas ideias sobre modelos científicos. Os resultados, do quarto estudo, mostram que a integração entre esses dois tipos de atividades pode proporcionar aos alunos uma visão epistemológica mais adequada sobre os papéis dos modelos teóricos, do laboratório e do computador, e promover a interatividade e o engajamento dos alunos em seu próprio aprendizado, transformando a sala de aula em um ambiente propício para uma aprendizagem significativa. Supomos que a adaptação e implementação de nossa proposta didática no ensino de Eletromagnetismo em nível de Física Geral possa contribuir para os alunos atingirem uma visão mais adequada sobre a natureza da Ciência e uma melhor aprendizagem conceitual. Apontamos como perspectiva futura a implementação e avaliação em outros conteúdos de Física, com melhorias no que diz respeito a incertezas experimentais e às noções de ordens de grandezas. / In the literature there are numerous reports of negative factors associated with the teaching of laboratory and the use of computers in the classroom. With this in mind, we seeked to integrate experimental activities with computational ones in order to minimize the negative factors of both kinds of activities. To investigate this integration we designed, implemented and evaluated a didactical approach based on Ausubel’s meaningful learning theory, Vigostki’s social-interaction theory and Bunge’s epistemological view about scientific models and science development. This approach took into account that there are different ways to integrate experiments and computational resources, and the effectiveness of these resources does not depend only on their inherent characteristics, but especially on the teaching strategies. In a first study, from a predominantly quantitative research methodology, we evaluated the performance of students that worked with simulation and modeling computational activities in the study of electric circuits, using the software Modellus, compared to students submitted only to the traditional system of education. The quantitative results show that there was a statistically significant improvement in the experimental group students’ performance when compared to the control group, submitted only to the traditional teaching method. Following, we developed two exploratory case studies, adopting a qualitative research methodology to generate guiding propositions for future studies. In a fourth study, we investigated ways to integrate computational and experimental activities to make them complementary, helping students to achieve a meaningful learning of physics concepts and understand some ideas about scientific models. The results show that the integration between these two kinds of activities can provide for the students a more appropriate epistemological perspective of the roles of i) theoretical models in physics and ii) experimental and computational activities in the learning processes. encouraging the interactivity and engagement of the students with their own learning and transforming the classrooms in an environment suitable for a meaningful learning. We assume that the adaptation and implementation of our didactical approach in teaching electromagnetism, at the level of Introductory College Physics, can help students to achieve a more adequate view of the nature of science and a better conceptual learning. We point out as future prospects the implementation and evaluation of this approach to physics teaching in other areas of physics, with improvements in respect to experimental uncertainties and the notions of orders of magnitude.
139

Dinâmica de doenças infecciosas em redes complexas

Carvalho, Alexsandro Marian January 2012 (has links)
Fenômenos como a rápida propagação de epiderriias em escala mundial têm chamado a atenção 'para a importância da estrutura da rede de contatos, através da qual os membros de uma comunidade interagem entre. si. O efeito da topologia das redes de contatos sociais na dinâmica de epidemias tem sido .estudado recentemente de maneira geral em redes paradigmáticas (inundo pequeno, livre de escala, etc), mostrando efeitos que dão outra dimensão aos resultadps típicos de campo médio, ou seja, ausência de limiar de epidemia e limiar de epidemia dependente da topologia. Motivados por estes resultados, analisamos e implementamos: modelos teóricos 'e computacionais de propagação de epidemias. Em termos de contribuição,' primeiramente, apresentamos uma solução algébrica para o modelo SIR. na aproximação de campo médio. Em seguida; desenvolvemos um modelo de rede de interação. dinâmica a qual se desenvolve uma epidemia. *Entre os resultados, achamós que o tempo característico de formação da rede frente ao ternpo da doença influencia na dinâmica da epi demia. Por fim, utilizando dá dinâmica da doença, comparamos uma rede real de, contatos amorosos com as redes paradigmáticas. Concluímos, que estrutura estática real comporta-se como uma rede aleatória e que a inserçãO da formação dinâmica das interações atenua os efeitos da epidemia. / Phenomena such as the rapid spread of epidermes on a global scale have drawn attention to the importante of the structure of the network, through which members of a cornmunity interact. The effect of 'the network topology of social contacts the dyriamics of ,epidemics has been studied recently in general network models (small world, scale free, etc), showing effects that give another dimension to the results of typical mean field, or absence of epidemic threshold and epidemic threshold depends on the topology. Motivated by these results; we analyze and implement theoretical and computational fflodels for the sprea,d of epidermes. In terms of contribution, first, we present an algebraic solution for the SIR model in the mean field approximátion. Further, we develop a network model for the dynarnic interaction between individuais in which develops an epidemic. Among the results, we found that the characteristic time of formation of the network against the time of disease infiuences the dynamics of the epidemic. Finally, using the dynamics of the disease, we cornpáred a real network of loving contacts with the network model. We conclude that real static structure behaves like a random network and that the insertion of the formation dynamies of interactions attenuates the effects of the epidernic..
140

Refinamento estrutural com o método Rietveld : implementação e ensaios com o programa FullProf

Kinast, Eder Julio January 2000 (has links)
O trabalho que se descreve consiste na implementação do programa FullProf para refinamento estrutural. Trata-se de um programa baseado no método Rietveld, disponível na internet. Uma vez adaptado às instalações locais, o programa foi submetido a uma série de ensaios para avaliação de seu comportamento frente a possíveis artefatos experimentais e computacionais, bem como frente à estratégia de refinamento. Constatou-se que o programa é muito sensível à estratégia de refinamento, podendo-se perder em mínimos locais; os parâmetros de rede e as posições atômicas informados inicialmente podem apresentar erro máximo de cerca de 1 % e 20 %, respectivamente, dependendo da amostra; erros na interpretação do refinamento podem resultar de equívocos de apreciação dos fatores de qualidade de ajuste, uma vez que são susceptíveis a alguns tipos de artefatos experimentais e computacionais; a sensibilidade frente à correta definição do grupo espacial é grande e erros nesta definição acarretam em divergência no processo de refinamento; os parâmetros de assimetria são importantes para o ajuste de picos difratados a baixos ângulos; o uso do parâmetro refinável que descreve o deslocamento experimental da origem da escala 2q, é imprescindível. Finalmente o programa foi usado para refinamento estrutural de amostras do tipo FexCo1-xTa2O6; determinação de cristalinidade relativa em polipropilenos isotáticos e identificação de fases em ligas submetidas a tratamentos de superfície. / The work described in the present Dissertation consists of the program FullProf implementation. It is a program for structural refinement, based on the Rietveld method, available in the internet. Once adapted to the local facilities, the program was submitted to a series of evaluation essays of its behaviour against possible experimental and computational artefacts and refinement strategy as well. It was verified that the program is very sensitive to the refinement strategy, occasionally going to be trapped in local minima; the initial cell parameters and atomic positions can present, respectively, maximum deviation of about 1% and 20%, depending on the sample; mistakes on the refinement interpretation can result from equivocated appreciation of the agreement factors, since they are susceptible to some kind of experimental and computational artefacts; the sensibility facing the correct definition of the space group is high and mistakes in this definition usually result in refinement divergence; the asymmetry parameters are important for the fitting of diffracted peaks in low angles; the use of the zero- 2q parameter, related to the experimental shift of the 2q-scale origin, is indispensable. Finally, the program was used for structural refinement of samples of the type FexCo1-xTa2O6; determination of relative crystalline fraction in isotactic polypropylene and phase identification in alloys submitted to surface treatments.

Page generated in 0.0642 seconds