• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 194
  • 16
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 214
  • 129
  • 60
  • 41
  • 33
  • 29
  • 27
  • 24
  • 24
  • 24
  • 23
  • 22
  • 22
  • 20
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

"Estudo do processo de complexação de calixarenos com íons metálicos e espécies neutras por simulações de dinâmica molecular" / A study of the complexation process of calixarenes with metallic ions and neutral species from molecular dynamic simulations

Araujo, Alexandre Suman de 20 September 2006 (has links)
Apresentamos uma série de estudos, baseados em simulações de Dinâmica Molecular no vácuo e em solução, sobre o processo de complexação das supramoléculas tetraethylester p-tert-butyl calix[4]arene (CLE) e tetramethylketone p-tert-butyl calix[4]arene (CLC) com os íons Pb2+ e Cd2+ e espécies neutras. Os modelos para as moléculas de calixareno e do solvente foram baseados no campo de forças OPLS-AA. Os parâmetros para os íons foram desenvolvidos a partir de uma metodologia de ajuste de valores de modo a reproduzirem simultaneamente propriedades termodinâmicas e estruturais obtidas experimentalmente ou por cálculos de QM/MM. As simulações no estado líquido nos mostraram que o CLE aprisiona os íons de maneira mais eficiente que o CLC, formando complexos mais estáveis. A complexação do íon desencadeia um efeito alostérico em ambos os calixarenos estudados, permitindo a complexação de uma molécula de acetonitrila na cavidade hidrofóbica estabilizando o complexo. Nas simulações com o CLC observamos que a complexação da acetonitrila é necessária para manter o íon ligado à cavidade hidrofílica, evidenciando a dependência desses complexos com esse solvente em específico. Apesar de observarmos que o CLE apresenta maior afinidade com os íons Pb2+ e Cd2+ que o CLC, somente futuras simulações utilizando a água como solvente poderão confirmar a viabilidade do uso desta molécula em sistemas destinados à despoluição ambiental. / We report a series of Molecular Dynamics simulations, in vacuum and in acetonitrile solution, on the complexation process of the calixarens tetraethylester p-tert-butyl calix[4]arene (CLE) and tetramethylketone p-tert-butyl calix[4]arene (CLC) with Pb2+ and Cd2+ anions and neutral species. The solvent and calixarene molecules were modeled based on the OPLS-AA force field. The parameters for the ions were adjusted to simultaneously reproduce some structural and thermodynamic properties obtained either experimentally or from QM/MM calculations. The simulations in the liquid phase show CLE to be more efficient than CLC in trapping the studied metal ions, leading to more stable complexes. Ion complexation gives rise to an allosteric effect by which a solvent molecule is trapped in the hydrophobic cavity giving rise to further stabilization of the complex. Simulations on CLC show that formation of the calixarene-acetonitrile adduct is essential to the stabilization of the ionic complex, thus exhibiting the influence of this particular solvent in the very existence of the complex. In spite of the conclusion that CLE has higher affinity than CLC for Pb2+ and Cd2+ ions, only further studies in water solution will permit to evaluate the real potential of this molecule as an efficient scavenger of environmental heavy metal pollution.
102

Visualização exploratória de dados volumétricos multivalorados variantes no tempo / Exploratory visualization of volumetric data multivalued time varying

Santos, Thiago Silva Reis 08 October 2012 (has links)
Simulações por computador permitem reduzir custo e, muitas vezes, realizar experimentos que na vida real seriam impraticáveis, ou por questões ambientais (explosões nucleares), ou por fatores que estão fora do controle do ser humano (colisões entre estrelas). Entretanto, e muito difícil manipular e analisar as centenas de gigabytes, ou mesmo terabytes, que tais simulações produzem como resultado. Os trabalhos que lidam com tais conjuntos de dados, tipicamente, empregam tanto técnicas de visualização científica como técnicas de visualização da informação, em geral refletindo o comportamento dos dados em um único instante de tempo. Entretanto, a análise da evolução temporal e a disponibilização de representações visuais integradas ainda é um grande desafio. Esse trabalho introduz diversas estratégias buscando tratar estes problemas, as quais tem em comum a utilização de projeções multidimensionais para apoiar a análise exploratória dos de dados, tanto em um instante de tempo específico, como ao longo da evolução temporal. O objetivo é favorecer a localização de grupos de elementos com comportamento similar e acompanhar sua evolução ao longo da simulação. Uma das estratégias introduzidas resume o comportamento temporal dos dados multidimensionais em uma única visualização, o que permite rastrear as entidades com comportamento similar e analisá-las ao longo da simulação / Computer simulations of physical phenomena allow reducing costs and studying behavior that would be unfeasible to observe in real life situations, either due to environmental limitations, e.g., a nuclear explosion, or due to factors that are beyond human control (e.g., collisions between stars). Millions of primitives (voxels, vertices or particle) may be required to accurately capture system behavior, thus generating very large data sets that are typically time-varying and multidimensional, as multiple simulation variables describe each primitive. Therefore, analyzing the hundreds of gigabytes or even terabytes resulting from these simulations remains a challenge. Current solutions that handle this type of data usually rely on Scientific or Information Visualization techniques, but typically revealing data behavior at a particular time instant. It remains a major challenge to provide visualizations capable of assisting analysts trying to inspect and understand behavior along the temporal domain. This work is an attempt in this direction, introducing several strategies to handle these problems. They have in common the use of multidimensional projection techniques to support exploratory analysis of simulation data, both at specic time instants and along the simulation as a whole. The goal is to favor the perception of groups of elements showing similar behavior and track their temporal evolution. One of the strategies introduced summarizes, in a single visual representation, the temporal behavior of the multidimensional data space, thus allowing analysts to identify and analyze the entities with similar behavior along the simulation
103

Paralelização do cálculo de estruturas de bandas de semicondutores usando o High Performance Fortran / Semiconductors band structure calculus paralelization using High Performance Fortran

Malara, Rodrigo Daniel 14 January 2005 (has links)
O uso de sistemas multiprocessados para a resolução de problemas que demandam um grande poder computacional tem se tornado cada vez mais comum. Porém a conversão de programas seqüenciais para programas concorrentes ainda não é uma tarefa trivial. Dentre os fatores que tornam esta tarefa difícil, destacamos a inexistência de um paradigma único e consolidado para a construção de sistemas computacionais paralelos e a existência de várias plataformas de programação para o desenvolvimento de programas concorrentes. Nos dias atuais ainda é impossível isentar o programador da especificação de como o problema será particionado entre os vários processadores. Para que o programa paralelo seja eficiente, o programador deve conhecer a fundo aspectos que norteiam a construção do hardware computacional paralelo, aspectos inerentes à arquitetura onde o software será executado e à plataforma de programação concorrente escolhida. Isto ainda não pode ser mudado. O ganho que podemos obter é na implementação do software paralelo. Esta tarefa pode ser trabalhosa e demandar muito tempo para a depuração, pois as plataformas de programação não possibilitam que o programador abstraia dos elementos de hardware. Tem havido um grande esforço na criação de ferramentas que otimizem esta tarefa, permitindo que o programador se expresse mais fácil e sucintamente quanto à para1elização do programa. O presente trabalho se baseia na avaliação dos aspectos ligados à implementação de software concorrente utilizando uma plataforma de portabilidade chamada High Performance Fortran, aplicado a um problema específico da física: o cálculo da estrutura de bandas de heteroestruturas semicondutoras. O resultado da utilização desta plataforma foi positivo. Obtivemos um ganho de performance superior ao esperado e verificamos que o compilador pode ser ainda mais eficiente do que o próprio programador na paralelização de um programa. O custo inicial de desenvolvimento não foi muito alto, e pode ser diluído entre os futuros projetos que venham a utilizar deste conhecimento pois após a fase de aprendizado, a paralelização de programas se torna rápida e prática. A plataforma de paralelização escolhida não permite a paralelização de todos os tipos de problemas, apenas daqueles que seguem o paradigma de paralelismo por dados, que representam uma parcela considerável dos problemas típicos da Física. / The employment of multiprocessor systems to solve problems that demand a great computational power have become more and more usual. Besides, the conversion of sequential programs to concurrent ones isn\'t trivial yet. Among the factors that makes this task difficult, we highlight the nonexistence of a unique and consolidated paradigm for the parallel computer systems building and the existence of various programming platforms for concurrent programs development. Nowadays it is still impossible to exempt the programmer of the specification about how the problem will be partitioned among the various processors. In order to have an efficient parallel program the programmer have to deeply know subjects that heads the parallel hardware systems building, the inherent architecture where the software will run and the chosen concurrent programming platform. This cannot be changed yet. The gain is supposed to be on the parallel software implementation. This task can be very hard and consume so much time on debugging it, because the programming platforms do not allow the programmer to abstract from the hardware elements. It has been a great effort in the development of tools that optimize this task, allowing the programmer to work easily and briefly express himself concerning the software parallelization. The present work is based on the evaluation of aspects linked to the concurrent software implementation using a portability platform called High Performance Fortran, applied to a physics specific problem: the calculus of semiconductor heterostructures? valence band structure. The result of the use of this platform use was positive. We obtained a performance gain superior than we expected and we could assert that the compiler is able to be more effective than the programmer on the paralelization of a program. The initial development cost wasn\'t so high and it can be diluted between the next projects that would use the acquired knowledge, because after the learning phase, the programs parallelization task becomes quick and practical. The chosen parallelization platform does not allow the parallelization of all kinds of problems, but just the ones that follow the data parallelism paradigm that represents a considerable parcel of tipical Physics problems.
104

Eletricidade: uma sequência didática para o ensino médio integrado

Fernandes, Moacir Borges 12 January 2015 (has links)
Submitted by Andrea Pereira (andrea.pereira@unipampa.edu.br) on 2017-03-10T17:29:44Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação.pdf: 4502492 bytes, checksum: affe1d0b166ca3a7e76fe56f86b8ee40 (MD5) / Approved for entry into archive by Andrea Pereira (andrea.pereira@unipampa.edu.br) on 2017-03-10T17:30:09Z (GMT) No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação.pdf: 4502492 bytes, checksum: affe1d0b166ca3a7e76fe56f86b8ee40 (MD5) / Made available in DSpace on 2017-03-10T17:30:09Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação.pdf: 4502492 bytes, checksum: affe1d0b166ca3a7e76fe56f86b8ee40 (MD5) Previous issue date: 2015-01-12 / Este trabalho baseia-se na aplicação de uma Sequência Didática, com o objetivo de significar para estudantes do primeiro ano do Ensino Médio Integrado, conceitos básicos de Eletricidade, como Tensão Elétrica, Corrente Elétrica, Resistência Elétrica, Potência Elétrica e Energia Elétrica, através de atividades que permitam uma participação ativa e reflexiva durante a construção de conhecimento. A sequência didática foi aplicada numa turma do primeiro ano do Curso de Mecatrônica de um Instituto Federal do Rio Grande do Sul, no componente curricular de Eletricidade. Utilizou-se como referencial teórico a teoria de aprendizagem de Ausubel, que enfatiza a importância do conhecimento prévio para que ocorra uma aprendizagem significativa, e na teoria de desenvolvimento de Vygotsky, que enfatiza as atividades ocorridas na Zona de Desenvolvimento Proximal (ZDP) como forma de desenvolvimento das funções psíquicas superiores. Este projeto justificou-se pela grande quantidade de estudantes das turmas iniciantes com pouco conhecimento em Física, por terem dificuldades na interpretação de situações que necessitam de conhecimentos de matemática básica e das relações entre grandezas físicas e por não ser comum o estudo de eletricidade no primeiro ano do Ensino Médio. As atividades foram realizadas pelos alunos, em duplas e em grupo, facilitando o compartilhamento de ideias e a mediação. Em um primeiro momento, as atividades foram baseadas em simulações computacionais. Posteriormente, os conceitos foram trabalhados através de experimentos com lâmpadas de enfeites natalinos. Num terceiro momento, conhecimentos de Eletrônica Básica e de Programação foram empregados em experimentos envolvendo um microcontrolador, oportunizando uma iniciação à montagem de circuitos. Foi utilizada a metodologia da análise de conteúdo (PORTO, SIMÕES e MOREIRA, 2005) para interpretar os dados reunidos durante a pesquisa sobre a viabilidade e validade da proposta educacional implementada. Valorizandose a participação nas atividades propostas para esta construção de conceitos, as discussões sobre a teoria envolvida em cada atividade e os relatos produzidos com estas atividades, tendo como partida, o que estes alunos trazem de conhecimentos prévios. Fazendo uso de meios qualitativos, foi avaliada a pertinência e viabilidade desse produto educacional para o estudo de Eletricidade no primeiro ano do Ensino Médio Integrado, em cursos que necessitam do conhecimento em Eletricidade, nos Institutos Federais. O trabalho desenvolvido está sintetizado na produção educacional anexa a esta dissertação e que se constitui numa contribuição válida para o desenvolvimento do conteúdo de eletricidade, devido à sequência com que foram tratados os conteúdos (simulação, experimentação e projetos com microcontroladores). / This work is based on the application of a didactic sequence, on the purpose of signifying for first-year students of the Integrated Secondary School, basics Electricity concepts, such as Electric Voltage, Electric Current, Electrical Resistance, Electrical Power and Energy, through activities that allow an active and reflective participation in the construction of knowledge. The instructional sequence was applied in the first year class of Mechatronics course of a Federal Institute of Rio Grande do Sul, in the curricular component of Electricity. It was used as a theoretical framework Ausubel's learning theory, which emphasizes the importance of prior knowledge to occur a significant learning, and the development of Vygotsky's theory, which emphasizes the activities occurring in the Zone of Proximal Development (ZPD) as a way development of higher mental functions. This project is justified by the large number of students from beginners classes with little knowledge in Physics, having difficulty in interpreting situations that require basic math skills and the relationships between physical quantities and not be common electricity in the first study year of high school. The activities were carried out by the students, in pairs and in groups, facilitating the sharing of ideas and mediation. At first, the activities were based on computer simulations. Later, the concepts were worked through experiments with Christmas decorations bulbs. Thirdly, Basic Electronics knowledge and programming were used in experiments involving a microcontroller, giving the opportunity to start the circuit assembly. We used the methodology of content analysis (PORTO, SIMÕES and MOREIRA, 2005) to interpret the data gathered during the research on the feasibility and validity of the implemented educational proposal. Valuing the participation in the proposed activities for this building concepts, discussions of the theory involved in each activity and reports produced by these activities, taking as its starting, what these students bring as prior knowledge. Making use of qualitative means, we evaluated the relevance and viability of this educational product for the Electricity study in the first year of the Integrated High School in courses that require knowledge in electricity, the Federal Institutes. The work is summarized in educational production attached to this dissertation and that constitutes a valuable contribution to the development of electricity content, due to the sequence with which content were treated (simulation, experimentation and projects with microcontrollers).
105

Retroanálise de escorregamentos em solos residuais não saturados / Back analysis the landslides in residual soils unsaturated

Jesus, Alexandre Cerqueira de 29 August 2008 (has links)
Foram estudados cinco casos históricos de escorregamentos ocorridos na cidade de Salvador - Bahia, através do levantamento e tratamento dos dados preexistentes. Também foram realizados ensaios complementares através da instrumentação em campo com tensiômetros e ensaios de laboratório. A retroanálise, objetivo central desse trabalho foi realizada a partir das geometrias de cada uma das encostas, antes e após a ruptura resultando na definição dos possíveis parâmetros médios de resistência ao cisalhamento. Secundariamente foram realizadas análises de estabilidade convencional para a avaliação dos fatores de segurança de cada encosta, com os parâmetros de resistência na condição não saturada e saturada. Por fim foram efetuadas simulações numéricas que visavam reproduzir as condições que levaram à ruptura da encosta do Alto do Bom Viver, baseado nos conceitos da mecânica dos solos não saturados. Os resultados mostram que a maioria dos escorregamentos estudados, ocorre no horizonte do solo residual maduro, onde o valor de ângulo de atrito médio é 34º, condizente com as superfícies de rupturas pouco profundas observadas em campo. As análises paramétricas sugerem que o mecanismo de ruptura mais provável esteja relacionado à diminuição da coesão aparente do solo em virtude da diminuição da sucção. / Five historical cases of landslides in the city of Salvador, Bahia, were studied through the survey and treatment of the preexistent data. Complementary experiments were accomplished through the instrumentation field using tensiometers and laboratory testing. The back-analysis, main objective of this research, was accomplished through the geometries of each slope, before and after the rupture, resulting in the definition of the possible medium parameters of resistance to shear. Secondary, analysis of the conventional stability to the evaluation of safety factors of each slope was accomplished, with the parameters of resistance in the unsaturated and saturated condition. At last, numerical simulations were done, aiming at reproducing the conditions which led to the rupture of the slope of Alto do Bom Viver, based on the concepts of mechanics of non saturated soil. The results demonstrated that the majority of the slips studied occur in the horizon of the mature residual soil, where the value of the angle of the medium attrition is of 34 degrees, suitable with the surface of little deep ruptures observed in the field. The parametric analysis suggests that the most probable mechanism of rupture is related to the decrease of the apparent cohesion of the soil due to the decrease of suction.
106

\"Sistemas fora do equilíbrio termodinâmico: Um estudo em diferentes abordagens\" / Nonequilibrium systems: an study by means of different approaches

Santos, Carlos Eduardo Fiore dos 30 October 2006 (has links)
Nesta tese de doutorado apresentamos um estudo sobre o comportamento de diversos sistemas irrevers?veis, caracterizados pela existencia de estados absorventes, atraves de abordagens distintas. Utilizamos aproximacoes de campo medio dinamico, simulacoes numericas usuais, mudanca de ensemble e expanso em serie. Alem disso, mostramos numa parte deste trabalho que a abordagem proposta para o estudo de sistemas irrevers?veis no ensemble em que o numero de part?culas e constante tambem pode ser estendida para sistemas em equil´?brio termodinamico, descrito pela distribuicao de probabilidades de Gibbs. Finalmente mostramos problemas em aberto para trabalhos futuros. / In this PHD thesis, we have presented a study about several nonequilibrium systems with absorbing states by means of different approaches, such as mean-field analysis, usual numerical simulations, analysis in another ensemble and perturbative series expansions. In a specific part of this thesis, we have shown that the approach proposed here for describing nonequilibrium systems in the constant particle number ensemble can also be used to caracterize equilibrium systems, described by Gibbs probability distribution. Finally, we have shown open problems for future researchs.
107

Modelos semiparamétricos de fração de cura para dados com censura intervalar / Semiparametric cure rate models for interval censored data

Costa, Julio Cezar Brettas da 18 February 2016 (has links)
Modelos de fração de cura compõem uma vasta subárea da análise de sobrevivência, apresentando grande aplicabilidade em estudos médicos. O uso deste tipo de modelo é adequado em situações tais que o pesquisador reconhece a existência de uma parcela da população não suscetível ao evento de interesse, consequentemente considerando a probabilidade de que o evento não ocorra. Embora a teoria encontre-se consolidada tratando-se de censuras à direita, a literatura de modelos de fração de cura carece de estudos que contemplem a estrutura de censura intervalar, incentivando os estudos apresentados neste trabalho. Três modelos semiparamétricos de fração de cura para este tipo de censura são aqui considerados para aplicações em conjuntos de dados reais e estudados por meio de simulações. O primeiro modelo, apresentado por Liu e Shen (2009), trata-se de um modelo de tempo de promoção com estimação baseada em uma variação do algoritmo EM e faz uso de técnicas de otimização convexa em seu processo de maximização. O modelo proposto por Lam et al. (2013) considera um modelo semiparamétrico de Cox, modelando a fração de cura da população através de um efeito aleatório com distribuição Poisson composta, utilizando métodos de aumento de dados em conjunto com estimadores de máxima verossimilhança. Em Xiang et al. (2011), um modelo de mistura padrão é proposto adotando um modelo logístico para explicar a incidência e fazendo uso da estrutura de riscos proporcionais para os efeitos sobre o tempo. Os dois últimos modelos mencionados possuem extensões para dados agrupados, utilizadas nas aplicações deste trabalho. Uma das principais motivações desta dissertação consiste em um estudo conduzido por pesquisadores da Fundação Pró-Sangue, em São Paulo - SP, cujo interesse reside em avaliar o tempo até a ocorrência de anemia em doadores de repetição por meio de avaliações periódicas do hematócrito, medido em cada visita ao hemocentro. A existência de uma parcela de doadores não suscetíveis à doença torna conveniente o uso dos modelos estudados. O segundo conjunto de dados analisado trata-se de um conjunto de observações periódicas de cervos de cauda branca equipados com rádiocolares. Tem-se como objetivo a avaliação do comportamento migratório dos animais no inverno para determinadas condições climáticas e geográficas, contemplando a possibilidade de os cervos não migrarem. Um estudo comparativo entre os modelos propostos é realizado por meio de simulações, a fim de avaliar a robustez ao assumir-se determinadas especificações de cenário e fração de cura. Até onde sabemos, nenhum trabalho comparando os diferentes mecanismos de cura na presença de censura intervalar foi realizado até o presente momento. / Cure rate models define an vast sub-area of the survival analysis, presenting great applicability in medical studies. The use of this type of model is suitable in situations such that the researcher recognizes the existence of an non-susceptible part of the population to the event of interest, considering then the probability that such a event does not occur. Although the theory finds itself consolidated when considering right censoring, the literature of cure rate models lacks of interval censoring studies, encouraging then the studies presented in this work. Three semiparametric cure rate models for this type of censoring are considered here for real data analysis and then studied by means of simulations. The first model, presented by Liu e Shen (2009), refers to a promotion time model with its estimation based on an EM algorithm variation and using convex optimization techniques for the maximization process. The model proposed by Lam et al. (2013) considers a Cox semiparametric model, modelling then the population cure fraction by an frailty distributed as an compound Poisson, used jointly with data augmentation methods and maximum likelihood estimators. In Xiang et al. (2011), an standard mixture cure rate model is proposed adopting an logistic model for explaining incidence and using proportional hazards structure for the effects over the time to event. The two last mentioned models have extensions for clustered data analysis and are used on the examples of applications of this work. One of the main motivations of this dissertation consists on a study conducted by researches of Fundação Pró-Sangue, in São Paulo - SP, whose interest resides on evaluating the time until anaemia, occurring to recurrent donors, detected through periodic evaluations of the hematocrit, measured on each visit to the blood center. The existence of a non-susceptible portion of donors turns the use of the cure rate models convenient. The second analysed dataset consists on an set of periodic observations of radio collar equipped white tail deers. The goal here is the evaluation of when these animals migrate in the winter for specic weather and geographic conditions, contemplating the possibility that deer could not migrate. A comparative study among the proposed models is realized using simulations, in order to assess the robustness when assuming determined specifications about scenario and cure fraction. As far as we know, no work has been done comparing different cure mechanisms in the presence of interval censoring data until the present moment.
108

O limite termodinâmico do modelo de Axelrod unidimensional de duas características e dois estados / The thermodynamic limit of the one-dimensional Axelrod model with two features and two states

Elias José Portes Biral 04 March 2016 (has links)
Em meados de 1990, o cientista político Robert Axelrod propôs um modelo, baseado em agentes, de disseminação cultural, em que os agentes interagem localmente de acordo com os princípios da homofilia e influência social, visando responder à pergunta: \"Se as pessoas interagem umas com as outras e, através da interação, tornam-se mais semelhantes, por que existem diferenças culturais em nossa sociedade?\". Cada agente é considerado um elemento de uma matriz (um sítio em uma rede) e é modelado por uma lista de F características culturais, cada qual assumindo q estados possíveis. Essa lista é a identidade cultural do agente. As identidades culturais iniciais de cada agente são definidas de modo aleatório com igual probabilidade para as qF identidades diferentes. Em cada vez, escolhemos um agente ao acaso (o agente alvo), assim como um de seus vizinhos. Esses dois agentes interagem com uma probabilidade igual a sua semelhança cultural, definida como a fração de características idênticas nas suas listas culturais. Quanto mais semelhantes forem, maior a probabilidade de sua interação - este é o princípio da homofilia. Uma interação consiste em selecionar aleatoriamente uma das características distintas, fazendo o estado da característica escolhida do agente alvo igual ao estado correspondente do seu vizinho - este é o princípio da influência social. Esse procedimento é repetido até que o sistema fique congelado numa configuração absorvente. Observamos configurações monoculturais absorventes, em que todos os agentes têm a mesma identidade cultural, e configurações multiculturais, em que existem diferentes domínios culturais na rede. Contudo, no modelo unidimensional com F = q = 2, simulações de Monte Carlo mostram convergência para as configurações monoculturais em cerca de 30% das escolhas das condições iniciais, enquanto os resultados analíticos exatos indicam que a convergência monocultural deve acontecer sempre. Nessa dissertação, estudamos o modelo de Axelrod unidimensional com F = q = 2, usando simulações de Monte Carlo. Mostramos que a discrepância entre as simulações e os resultados exatos acontece devido à não-comutação do limite termodinâmico, em que o tamanho da rede tende para o infinito, e o limite de tempo assintótico, em que o tempo de simulação vai para infinito. Nossos resultados oferecem uma melhor compreensão do modelo de Axelrod unidimensional e promovem a importância do acordo entre teoria e simulações na ciência. / In the mid 1990s, the political scientist Robert Axelrod proposed an agent based-model of cultural dissemination, in which agents interact locally according to the principles of homophily and social influence, aiming at answering the question: \"If people interact with each other and, through the interaction, become more similar, why are there cultural differences in our society?\". Each agent is considered as an element of an array (a site in a lattice) and is modeled by a list of F cultural features, each of which assuming q possible states. This list is the cultural identity of the agent. The initial cultural identities of each agent are set randomly with equal probability for the qF different identities. At each time we pick an agent at random (the target agent) as well as one of its neighbors. These two agents interact with probability equal to their cultural similarity, defined as the fraction of identical features in their cultural lists. The more similar they are, the greater the likelihood of their interaction - this is the homophily principle. An interaction consists of selecting at random one of the distinct features, and making the state of the selected feature of the target agent equal to the corresponding state of its neighbor - this is the social influence principle. This procedure is repeated until the system is frozen into an absorbing configuration. We observe monocultural absorbing configurations, in which all agents have the same cultural identity, and multicultural configurations, in which there are different cultural domains in the lattice. In the one-dimensional model with F = q = 2, however, Monte Carlo simulations show convergence to the monocultural configurations in about 30% of the choices of the initial conditions, while the exact analytical results indicate that the monocultural convergence should always happen. In this thesis, we study the one-dimensional Axelrod model for F = q = 2 using Monte Carlo simulations. We show that the discrepancy between the simulations and the exact results is due to the non-commutation of the thermodynamic limit, in which the chain size goes to infinity, and the time-asymptotic limit, in which the simulation time goes to infinity. Our results offer a better understanding of the one-dimensional Axelrod model and promote the importance of the agreement between theory and simulations in science.
109

Uma metodologia unificada no domínio tempo para sistemas concentrados, discretos e distribuídos / An unified time domain methodology for concentrated, discrete and distributed systems

Moraes, Ines Ferreira January 2002 (has links)
A resposta impulso é utilizada como ferramenta padrão no estudo direto de sistemas concentrados, discretos e distribuídos de ordem arbitrária. Esta abordagem leva ao desenvolvimento de uma plataforma unificada para a obtenção de respostas dinâmicas. Em particular, as respostas forçadas dos sistemas são decompostas na soma de uma resposta permanente e de uma resposta livre induzida pelos valores iniciais da resposta permanente. A teoria desenvolve-se de maneira geral e direta para sistemas de nésima ordem, introduzindo-se a base dinâmica gerada pela resposta impulso na forma padrão e normalizada, sem utilizar-se a formulação de estado, através da qual reduz-se um sistema de ordem superior para um sistema de primeira ordem. Considerou-se sistemas de primeira ordem a fim de acompanhar-se os muitos resultados apresentados na literatura através da formulação de espaço de estado. Os métodos para o cálculo da resposta impulso foram classificados em espectrais, não espectrais e numéricos. A ênfase é dada aos métodos não espectrais, pois a resposta impulso admite uma fórmula fechada que requer o uso de três equações características do tipo algébrica, diferencial e em diferenças. Realizou-se simulações numéricas onde foram apresentados modelos vibratórios clássicos e não clássicos. Os sistemas considerados foram sistemas do tipo concentrado, discreto e distribuído. Os resultados da decomposição da resposta dinâmica de sistemas concentrados diante de cargas harmônicas e não harmônicas foram apresentados em detalhe. A decomposição para o caso discreto foi desenvolvida utilizando-se os esquemas de integração numérica de Adams-Basforth, Strömer e Numerov. Para sistemas distribuídos, foi considerado o modelo de Euler-Bernoulli com força axial, sujeito a entradas oscilatórias com amplitude triangular, pulso e harmônica. As soluções permanentes foram calculadas com o uso da função de Green espacial. A resposta impulso foi aproximada com o uso do método espectral. / The impulse response is employed as a standard tool for a direct study of concentrated, discrete and distributed systems of arbitrary order. This approach leads to the development o f a unified platform for obtaining dynamical responses. In particular, forced responses are decomposed into the sum of a permanent response and a free response induced by the initial values of the permanent solution. The theory is developed in a general manner for n-th order systems; being introduced the standard dynamical basis generated by the impulse response and the normalized one, without employing the state formulation, through which a higher-order system is reduced to a first-order system. In order to follow the many results found in the literature through the state space formulation, first-order systems were considered. The methods for computing the impulse response were classified into spectral, non spectral and numeric. Emphasis was given to non spectral methods, because the impulse response has a closed-form formula that requires the use of three characteristic equations of algebraic, differential and difference type. Numerical simulations were performed with classical and non classical vibrating models. The systems considered were concentrated, discrete and distributed. The decomposition results of the forced response of concentrated systems subject to harmonic and non harmonic loads were worked out in detail. The decomposition for the discrete case was developed by using the numerical integration schemes of Adams-Basforth, Strõmer and Numerov. For distributed systems was considered the Euler-Bernoulli model with an axial force subject to oscillating inputs with triangular, pulse and harmonic amplitude. The permanent solutions were computed with the spatial Green function. The impulse response was approximated with the spectral method.
110

Análise de sistemas de propulsão e manobra alternativos para aumento da manobrabilidade de comboios fluviais. / Analysis of pusher-barge system with different maneuvering and propulsion devices.

Yuba, Douglas Gustavo Takashi 24 March 2014 (has links)
O presente trabalho aborda análises de sistemas de propulsão e manobra para comboios fluviais, e seus efeitos na manobrabilidade dos comboios. Analisam-se o sistema de propulsão convencional (propulsor mais leme), o sistema azimutal e o equipamento de proa auxiliar combinado com cada um destes sistemas de propulsão. Apresenta-se a modelagem matemática dos sistemas de propulsão e manobra citados, os quais serviram de base para implementação de um simulador computacional utilizado para obtenção dos resultados desta dissertação. As forças e momentos hidrodinâmicos são obtidos através do método das derivadas hidrodinâmicas para as simulações próximas à velocidade de serviço do comboio, enquanto para simulações em baixa velocidade utilizou um método semi-empírico baseado no princípio de cross-flow. Inicialmente, efetuou-se a validação do simulador com resultados da literatura para o caso do comboio com propulsão convencional. Em seguida, o modelo foi adaptado para os demais tipos de sistemas de propulsão e manobra propostos. Os resultados obtidos mostram que há uma maior eficiência do sistema de propulsão azimutal e do equipamento na proa para manobras em baixas velocidades, o que se torna adequado sua aplicação em comboios fluvial, pois essas embarcações navegam em velocidades menores se comparadas a outros tipos de embarcações. / The present work deal with analysis of propulsion and maneuvering systems for pusher-barge system, and results on the maneuverability of convoys. It analyzes the conventional propulsion system (rudder plus propeller), the azimuth system and combined auxiliary equipment bow with each of these propulsion systems. Presents the mathematical modeling of propulsion and maneuvering systems mentioned, which served as the basis for implementation of a computational simulator used to obtain the results of this dissertation. The hydrodynamic forces and moments are obtained by the method of hydrodynamic derivatives for simulations about service speed, while for simulations at low speed used a semi - empirical method based on the principle of cross-flow. Initially, performed the validation of the simulation results with the literature for the case of pusher-barge system with conventional propulsion. Then the model was adapted to other types of propulsion and maneuvering systems proposed. The results show that there is a greater efficiency of azimuth propulsion system and equipment in the bow to maneuver at low speeds, which makes it suitable for application in river transport, because these vessels navigate slower speeds compared to other types of vessels.

Page generated in 0.0438 seconds