Spelling suggestions: "subject:"simulações"" "subject:"dimulações""
201 |
Ensinando operações com grandezas físicas vetoriais no ensino médio através de uma unidade de ensino potencialmente significativaReis, Antonio Fernando 03 August 2016 (has links)
Submitted by Daniele Amaral (daniee_ni@hotmail.com) on 2016-10-21T16:40:39Z
No. of bitstreams: 1
DissAFR.pdf: 2278033 bytes, checksum: c7c90860ad15e7ba874ca20e2461507d (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-11-08T18:58:03Z (GMT) No. of bitstreams: 1
DissAFR.pdf: 2278033 bytes, checksum: c7c90860ad15e7ba874ca20e2461507d (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-11-08T18:58:30Z (GMT) No. of bitstreams: 1
DissAFR.pdf: 2278033 bytes, checksum: c7c90860ad15e7ba874ca20e2461507d (MD5) / Made available in DSpace on 2016-11-08T19:01:16Z (GMT). No. of bitstreams: 1
DissAFR.pdf: 2278033 bytes, checksum: c7c90860ad15e7ba874ca20e2461507d (MD5)
Previous issue date: 2016-08-03 / Não recebi financiamento / The student learning obtained by memorizing the information transmitted by the teacher's narrative, for further reproduction in the assessment, shows that the classic way of teaching, leads to a mechanical and not significant learning. The proposal of this study is to report the development and application of a
Potentially Meaningful Teaching Unit (PMTU) proposed by Moreira, based on the Theory of Meaningful Learning of Ausubel. The proposal was drawn up using the PMTU steps in which, at first the survey of students' prior knowledge about the theme vectors was performed through the collective construction of a conceptual map and then the content of vectors was presented more generally through problem- situations. From that on, each vector operation was addressed more specifically, aiming the progressive differentiation and the integrative reconciliation. The students' performance was accomplished through their active participation and motivation in solving the problem-situations, in class debates, in the construction of maps, in simulations and video productions, that is with the use of The Information and Communication New Technologies of (ICNT). The concepts that were discussed and presented in accordance with the steps of PMTU: scalar greatness, vector greatness, trigonometric relationships in the triangle rectangle, vector addition by the polygon, the parallelogram and components methods, scalar product (real number) by one vector, scalar product and vector product of two vectors. The use of this sequence showed the evidence of occurrence of significant learning by the students and, therefore, many of the difficulties of high school students understanding have been overcome, since they are now familiar with the determination of some physical greatness, through operations with vectors presented in analytical geometry. / A aprendizagem do aluno obtida somente através da memorização das informações transmitidas pela narrativa do professor, para posterior reprodução na avaliação, mostra que a maneira clássica de ensinar, leva a uma aprendizagem mecânica e não significativa. A proposta deste trabalho é relatar o desenvolvimento e a aplicação de uma Unidade de Ensino Potencialmente
Significativa (UEPS) proposta por Moreira, baseada na Teoria da Aprendizagem Significativa de Ausubel. A mesma foi elaborada seguindo os passos da UEPS onde, num primeiro momento fez-se o levantamento dos conhecimentos prévios dos alunos acerca do tema vetores através da construção de um mapa mental e, em seguida foi apresentado o conteúdo de vetores de forma mais geral, através de situações-problemas. A partir daí, cada operação com vetores foi abordada de maneira mais específica, visando à diferenciação progressiva e à reconciliação integradora. O desempenho dos alunos se deu pela participação ativa e motivação dos mesmos nas resoluções das situações-problemas, nos debates em sala, nas construções de mapas, nas simulações e na produção de vídeo, ou seja, no uso das Novas Tecnologias da Informação e Comunicação (NTIC). Os conceitos que foram abordados e apresentados de acordo com os passos da UEPS: grandeza escalar, grandeza vetorial, relações trigonométricas no triângulo retângulo, adição vetorial pelos métodos do polígono, do
paralelogramo e das componentes, produto de escalar (número real) por um vetor, produto escalar e produto vetorial de dois vetores. A utilização dessa sequência apontou evidências da ocorrência de aprendizagem significativa por parte dos alunos e, com isso, muitas das dificuldades de compreensão dos alunos do Ensino Médio foram superadas, uma vez que agora estão
familiarizados com a determinação de algumas grandezas físicas, através de operações com vetores, apresentadas na Geometria Analítica.
|
202 |
Um agente jogador de GO com busca em árvore Monte-Carlo aprimorada por memória esparsamente distribuídaAguiar, Matheus Araújo 04 November 2013 (has links)
The game of Go is very ancient, with more than 4000 years of history and it is still
popular nowadays, representing a big challenge to the Articial Intelligence. Despite its
simple rules, the techniques which obtained success in other games like chess and draughts
cannot handle satisfactorily the complex patterns and behaviours that emerge during a
match of Go. The present work implements the SDM-Go, a competitive agent for Go that
seeks to reduce the usage of supervision in the search process for the best move. The SDMGo
utilizes the sparse distributed memory model as an additional resource to the Monte-
Carlo tree search, which is used by many of the best automatic Go players nowadays.
Based upon the open-source player Fuego, the use of the sparse distributed by SDM-Go has
the purpose of being an alternative to the strong supervised process used by Fuego. The
Monte-Carlo tree search executed by agent Fuego uses a set of heuristics codied by human
professionals to guide the simulations and also to evaluate new nodes found in the tree. In
a dierent way, SDM-Go implements a non-supervised and domain independent approach,
where the history of the values of board states previously visited during the search are
used to evaluate new boards (nodes of the search tree). In this way, SDM-Go reduces the
supervision of Fuego, substituting its heuristics by the sparse distributed memory, which
works as a repository for the information from the history of visited board states. Thus,
the contributions of SDM-Go consist of: (1) the utilization of a sparse distributed memory
to substitute the supervised approach of Fuego to evaluate new nodes found in the search
tree; (2) the implementation of a board state representation based on bit vectors, in order
to not compromise the performance of the system due to the boards stored in the memory;
(3) the extension of the usage of the Monte-Carlo simulation results to update the values
of the board states stored in the memory. Distinctly from many other existing agents,
the use of the sparse distributed memory represents an approach independent of domain.
The results obtained in tournaments against the well known open-source agent Fuego
show that SDM-Go can perform successfully the task of providing a non-supervised and
independent of domain approach to evaluate new nodes found in the search tree. Despite
the longer runtime required by the use of the sparse distributed memory, the core of the
agent performance, SDM-Go can keep a competitive level of play, especially at the 9X9
board. / Com mais de 4000 anos de história, o jogo de Go é atualmente um dos mais populares
jogos de tabuleiro e representa um grande desao para a Inteligência Articial. Apesar de
suas regras simples, as técnicas que anteriormente obtiveram sucesso em outros jogos como
xadrez e damas não conseguem lidar satisfatoriamente com os padrões e comportamentos
complexos que emergem durante uma partida de Go. O presente trabalho implementa
o SDM-Go, um agente jogador de Go competitivo que procura reduzir a utilização de
supervisão no processo de busca pelo melhor movimento. O SDM-Go emprega o modelo
de memória esparsamente distribuída como um recurso adicional à busca em árvore Monte-
Carlo utilizada por muitos dos melhores agentes automáticos atuais. Baseado no jogador
código-aberto Fuego o uso da memória esparsamente distribuída pelo SDM-Go tem como
objetivo ser uma alternativa ao processo fortemente supervisionado utilizado por aquele
agente. A busca em árvore Monte-Carlo executada pelo jogador Fuego utiliza um conjunto
de heurísticas codicadas por prossionais humanos para guiar as simulações e também
avaliar novos nós encontrados na árvore. De maneira distinta, o SDM-Go implementa uma
abordagem não supervisionada e independente de domínio, onde o histórico dos valores
dos estados de tabuleiros previamente visitados durante a busca são utilizados para avaliar
novos estados de tabuleiro (nós da árvore de busca). Desta maneira, o SDM-Go reduz a
supervisão do agente Fuego, substituindo as heurísticas deste pela memória esparsamente
distribuída que funciona como repositório das informações do histórico de estados de
tabuleiro visitados. Assim, as contribuições do SDM-Go consistem em: (1) a utilização
de uma memória esparsamente distribuída para substituir a abordagem supervisionada
do Fuego para avaliar previamente novos nós encontrados na árvore; (2) a implementação
de uma representação de tabuleiro baseada em vetores de bits, para não comprometer o
desempenho do sistema em função dos tabuleiros armazenados na memória; (3) a extensão
da utilização dos resultados das simulações Monte-Carlo para atualizar os valores dos
tabuleiros armazenados na memória. Diferentemente de muitos outros agentes atuais,
o uso da memória esparsamente distribuída representa uma abordagem independente
de domínio. Os resultados obtidos em torneios contra o conhecido agente código-aberto
Fuego mostram que o SDM-Go consegue desempenhar com sucesso a tarefa de prover uma
abordagem independente de domínio e não supervisionada para avaliar previamente novos
nós encontrados na árvore de busca. Apesar do maior tempo de processamento requerido
pela utilização da memória esparsamente distribuída, peça central para o desempenho
do agente, o SDM-Go consegue manter um nível de jogo competitivo, principalmente no
tabuleiro 9X9. / Mestre em Ciência da Computação
|
203 |
Inferência estatística em métodos de análise de ressonância magnética funcional / Statistical Inference in Methods of Analysis of Functional Magnetic ResonanceBrenno Caetano Troca Cabella 11 April 2008 (has links)
No presente trabalho, conceitos de inferência estatística são utilizados para aplicação e comparação de diferentes métodos de análise de sinais de ressonância magnética funcional. A idéia central baseia-se na obtenção da distribuição de probabilidade da variável aleatória de interesse, para cada método estudado e sob diferentes valores da relação sinal-ruído (SNR). Este objetivo é atingido através de simulações numéricas da função resposta hemodinâmica (HRF) acrescida de ruído gaussiano. Tal procedimento nos permite avaliar a sensibilidade e a especificidade dos métodos empregados através da construção das curvas ROC (receiver operating characteristic) para diferentes valores de SNR. Sob específicas condições experimentais, aplicamos métodos clássicos de análise (teste t de Student e correlação), medidas de informação (distância de Kullback-Leibler e sua forma generalizada) e um método Bayesiano (método do pixel independente). Em especial, mostramos que a distância de Kullback-Leibler (D) (ou entropia relativa) e sua forma generalizada são medidas úteis para análise de sinais dentro do cenário de teoria da informação. Estas entropias são usadas como medidas da \"distância\"entre as funções de probabilidade p1 e p2 dos níveis do sinal relacionados a estímulo e repouso. Para prevenir a ocorrência de valores divergentes de D, introduzimos um pequeno parâmetro d nas definições de p1 e p2. Estendemos a análise, apresentando um estudo original da distância de Kullback-Leibler generalizada Dq (q é o parâmetro de Tsallis). Neste caso, a escolha apropriada do intervalo 0 < q < 1 permite assegurar que Dq seja finito. Obtemos as densidades de probabilidade f (D) e f (Dq) das médias amostrais das variáveis D e Dq , respectivamente, calculadas ao longo das N épocas de todo o experimento. Para pequenos valores de N (N < 30), mostramos que f (D) e f (Dq) são muito bem aproximadas por distribuições Gamma (qui^2 < 0,0009). Em seguida, estudamos o método (Bayesiano) do pixel independente, considerando a probabilidade a posteriori como variável aleatória e obtendo sua distribuição para várias SNR\'s e probabilidades a priori. Os resultados das simulações apontam para o fato de que a correlação e o método do pixel independente apresentam melhor desempenho do que os demais métodos empregados (para SNR > -20 dB). Contudo, deve-se ponderar que o teste t e os métodos entrópicos compartilham da vantagem de não se utilizarem de um modelo para HRF na análise de dados reais. Finalmente, para os diferentes métodos, obtemos os mapas funcionais correspondentes a séries de dados reais de um voluntário assintomático submetido a estímulo motor de evento relacionado, os quais demonstram ativação nas áreas cerebrais motoras primária e secundária. Enfatizamos que o procedimento adotado no presente estudo pode, em princípio, ser utilizado em outros métodos e sob diferentes condições experimentais. / In the present work, concepts of statistical inference are used for application and comparison of different methods of signal analysis in functional magnetic resonance imaging. The central idea is based on obtaining the probability distribution of the random variable of interest, for each method studied under different values of signal-to-noise ratio (SNR). This purpose is achieved by means of numerical simulations of the hemodynamic response function (HRF) with gaussian noise. This procedure allows us to assess the sensitivity and specificity of the methods employed by the construction of the ROC curves (receiver operating characteristic) for different values of SNR. Under specific experimental conditions, we apply classical methods of analysis (Student\'s t test and correlation), information measures (distance of Kullback-Leibler and its generalized form) and a Bayesian method (independent pixel method). In particular, we show that the distance of Kullback-Leibler D (or relative entropy) and its generalized form are useful measures for analysis of signals within the information theory scenario. These entropies are used as measures of the \"distance\"between the probability functions p1 and p2 of the signal levels related to stimulus and non-stimulus. In order to avoid undesirable divergences of D, we introduced a small parameter d in the definitions of p1 and p2. We extend such analysis, by presenting an original study of the generalized Kullback-Leibler distance Dq (q is Tsallis parameter). In this case, the appropriate choice of range 0 < q < 1 ensures that Dq is finite. We obtain the probability densities f (D) and f (Dq) of the sample averages of the variables D and Dq, respectively, calculated over the N epochs of the entire experiment. For small values of N (N < 30), we show that f (D) and f (Dq) are well approximated by Gamma distributions (qui^2 < 0.0009). Afterward, we studied the independent pixel bayesian method, considering the probability a posteriori as a random variable, and obtaining its distribution for various SNR\'s and probabilities a priori. The results of simulations point to the fact that the correlation and the independent pixel method have better performance than the other methods used (for SNR> -20 dB). However, one should consider that the Student\'s t test and the entropic methods share the advantage of not using a model for HRF in real data analysis. Finally, we obtain the maps corresponding to real data series from an asymptomatic volunteer submitted to an event-related motor stimulus, which shows brain activation in the primary and secondary motor brain areas. We emphasize that the procedure adopted in this study may, in principle, be used in other methods and under different experimental conditions.
|
204 |
Dinâmica de populações e comunidades de borboletas e aves ao longo do tempo / Population and community dynamics of butterflies and birds over timeCarlos Candia-Gallardo 27 April 2017 (has links)
As abundâncias e identidades das espécies de qualquer comunidade biológica mudam tanto ao longo do espaço quanto do tempo. Não obstante, aspectos espaciais da biodiversidade têm sido muito mais explorados do que os temporais. Um dos motivos pelos quais padrões temporais têm recebido menos atenção é a escassez de estudos de longo prazo, especialmente na região neotropical, uma das mais biodiversas e ameaçadas do planeta. Estudar a dinâmica de populações e comunidades ao longo do tempo pode revelar processos ecológicos fundamentais, bem como descrever como pressões naturais e humanas afetam a biodiversidade. Entender a dinâmica das populações e comunidades envolve entender as histórias de vida dos organismos, como eles interagem com o ambiente, o papel de interações entre espécies, o papel de processos demográficos estocásticos, dentre outros fatores. Nesta tese investigamos a dinâmica temporal de populações e comunidades de borboletas e aves, e ao longo dos capítulos avaliamos o papel de diferentes processos na regulação dessas dinâmicas. No Capítulo 1 investigamos se um comportamento sazonal observado em borboletas Ithomiini (Nymphalidae, Danainae), supostamente adaptativo à seca - os \"bolsões de Ithomiini\"- seria uma simples resposta reativa à falta de chuvas ou se mecanismos endógenos (\"relógios biológicos\") estariam envolvidos. No Capítulo 2 realizamos um estudo de dinâmica populacional comparada de borboletas miméticas da tribo Ithomiini. Algumas evidências têm sugerido que além de convergir na morfologia, espécies co-miméticas tenderiam a convergir também no comportamento, no uso de microhabitats e possivelmente em suas dinâmicas populacionais. Testamos as hipóteses de que 1) pares de espécies co-miméticas (i.e., com a morfologia convergente) ou 2) pares de espécies mais próximas filogeneticamente teriam suas dinâmicas populacionais mais correlacionadas do que pares de espécies agrupados ao acaso. No Capítulo 3 descrevemos como a composição de espécies de assembleias de aves e borboletas de nove localidades tropicais e subtropicais na América do Sul e do Norte variou ao longo do tempo (anos a décadas), e se diferenças demográficas entre espécies (nicho) seriam importantes para explicar os padrões observados. No Capítulo 1 encontramos evidências de que a agregações seriam um comportamento endógeno sincronizado com o fotoperíodo, com plasticidade limitada para lidar com as alterações no regime de chuvas previstas para a região e para o continente. No Capítulo 2 encontramos que as dinâmicas populacionais de pares de espécies de Ithomiini de um mesmo anel mimético ou mais próximas filogeneticamente não tenderam a ser mais correlacionadas do que pares reunidos ao acaso, e que as espécies, anéis miméticos e subtribos estudadas tiveram suas dinâmicas temporais mais correlacionados do que seria esperado por acaso. Estes resultados e os do Capítulo 1 sugerem que na dinâmica desse sistema as pressões seletivas exercidas por fatores ambientais seriam mais importantes do que interações entre espécies. No Capítulo 3 mostramos que a composição de espécies de assembleias de aves na Amazônia, Cerrado, Mata Atlântica e Flórida se alterou ao longo dos anos, mesmo em assembleias de áreas bem preservadas. Sobreposta a essa rotatividade (turnover) interanual também encontramos rotatividade sazonal, previsível, na composição de espécies de assembleias de aves da Amazônia e da Mata Atlântica e na assembleia de borboletas Ithomiini. Padrões de rotatividade sazonal na composição de espécies podem ser mais comuns em comunidades neotropicais do que se imagina. As estratégias temporais dos organismos neotropicais, as quais parecem ser a base dos padrões sazonais observados nas comunidades, podem ser largamente determinadas por ritmos (\"relógios\") endógenos. Estudos sobre a regulação dos ritmos e estratégias temporais dos organismos, e dos efeitos das mudanças climáticas e do uso do solo sobre eles, são essenciais. Um importante passo nesse sentido é a disseminação de estudos de longo-prazo de populações e comunidades, contínuos, sistemáticos e com resolução para detectar padrões sazonais. Além disso, a interação das perspectivas, bases teóricas e abordagens da biologia molecular, fisiologia, cronobiologia e ecologia pode avançar nosso entendimento sobre os processos que moldam a dinâmica da biodiversidade e sobre as consequências das perturbações humanas sobre os ecossistemas / The species abundances and identities of any biological community change both over space and time. Nevertheless, Spatial biodiversity dimensions have been much more exploited than temporal ones. One of the reasons for which temporal patterns have received less attention is a scarcity of long-term studies, especially in the neotropical region, one of the most biodiverse and endangered on the planet. Studying the dynamics of populations and communities over time can reveal key ecological processes as well as describe how natural and human pressures affect biodiversity. Understanding the dynamics of populations and communities involves understanding organisms life histories, how they interact with the environment, the role of interactions among species, the role of stochastic demographic processes, and other factors. In this dissertation we investigated the temporal dynamics of butterflies and birds populations and assemblages, and throughout its chapters we evaluate the role of different processes in the regulation of dynamics. In Chapter 1 we investigated whether a seasonal behavior observed in butterflies Ithomiini (Nymphalidae, Danainae), supposedly adaptive to dissecation - the \"Ithomiini pockets \" - is a simple reactive response to drought or there is internal time-keeping mechanisms involved. In Chapter 2, we performed a comparative population dynamics study of mimetic butterflies of the Ithomiini tribe. Some evidence has suggested that besides the convergence in morphology, co-mimetic species would tend to converge also in behavior, in the use of microhabitats and possibly in their population dynamics. We hypothesized that (1) pairs of co-mimetic species or (2) pairs of species more phylogenetically related would have their population dynamics more correlated than pairs of species grouped at random. In Chapter 3 we described how species composition of bird and butterfly assemblages from nine tropical and subtropical locations in South and North America varied over time (years and decades), and if demographic differences between species (niche) are needed to explain observed patterns. In Chapter 1 we found evidence that Ithomiini pockets are regulated by internal time-keeping mechanisms synchronized to photoperiod, and that mechanism has limited plasticity to cope with rainfall regime changes predicted for the study region and for the continent as a whole. In Chapter 2 we found that the population dynamics of Ithomiini species pairs more phylogenetically related or belonging to the same mimetic ring did not tend to be more correlated than pairs assembled at random, and that the species, mimetic rings and subtribes had their temporal dynamics more correlated than would be expected By chance These results and those of Chapter 1 suggest that this system dynamics is more influenced by selective pressures exerted by environmental factors than by species interactions. In Chapter 3 we show that the composition of bird assemblages in the Amazon, Cerrado, Atlantic Rainforest, and Florida has changed over the years, even in assemblies of well-preserved areas. Superimposed to this interannual turnover we also found seasonal, predictable turnover in species composition of bird assemblages of the Amazon and Atlantic Forest and in the Ithomiini butterflies assembly. Patterns of seasonal turnover in species composition may be more common in neotropical communities than is imagined. The temporal strategies of neotropical organisms, which appear to be the basis of the seasonal patterns observed in communities, can be largely determined by endogenous rhythms (\"biological clocks\"). Studies on the regulation of organisms\' temporal rhythms and strategies, and the effects of climate change and land use on them, are essential. An important step in this direction is the dissemination of continuous, systematic, population and community long-term studies, with sampling resolution to detect seasonal patterns. In addition, the interaction of perspectives, theoretical basis, and approaches of molecular biology, physiology, chronobiology, and ecology can advance our understanding of the processes that shape biodiversity dynamics and the consequences of human disturbances on ecosystems
|
205 |
Regression models to assess the thermal performance of Brazilian low-cost houses: consideration of natural ventilation / Modelos de regressão para avaliação do desempenho térmico de habitações de interesse social brasileiras: consideração da ventilação naturalMichele Marta Rossi 28 January 2016 (has links)
Building performance simulations [BPS] tools are important in all the design stages, mainly in the early ones. However, some barriers such as time, resources and expertise do not contribute to their implementation in architecture offices. This research aimed to develop regression models (meta-models) to assess the thermal discomfort in a Brazilian low-cost house [LCH] during early design. They predicted the degree-hours of discomfort by heat and/or by cold as function of the design parameters changes for three Brazilian cities: Curitiba/PR, São Paulo/SP, and Manaus/AM. This work focused on using the meta-models to evaluate the impact of the parameters related to natural ventilation strategies on thermal performance in LCH. The analyzed Brazilian LCH consisted in a naturally ventilated representative unit developed based on the collected data. The most influential parameters in thermal performance, namely as key design parameters, were building orientation, shading devices positions and sizes, thermal material properties of the walls and roof constructive systems as well as window-to-wall ratios (WWR) and effective window ventilation areas (EWVA). The methodology was divided into: (a) collecting projects of Brazilian LCH, and based on that a base model that was able to represent them was proposed, (b) defining the key design parameters and their ranges, in order to compose the design space to be considered, (c) simulating thermal performance using EnergyPlus coupled with a Monte Carlo framework to randomly sample the design space considered, (d) using the greater part of the simulation results to develop the meta-models, (e)using the remaining portion to validate them, and (f) applying the meta-models in a simple design configuration in order to test their potential as a support design tool. Overall, the meta-models showed R2 values higher than 0.95 for all climates. Except for the regression models to predict discomfort by heat for Curitiba (R2 =0.61) and São Paulo (R2 =0.74). In their application, the models showed consistent predictions for WWR variations, but unexpected patterns for EWVA. / Simulações do desempenho de edificações são ferramentas importantes em todo processo de desenvolvimento do projeto, especialmente nas etapas iniciais. No entanto, barreiras como tempo, custo e conhecimento especializado impedem a implementação de tais ferramentas nos escritórios de arquitetura. A presente pesquisa se propôs a desenvolver modelos de regressão (meta-modelos) para avaliar o desconforto térmico em uma habitação de interesse social [HIS] brasileira. Estes meta - modelos predizem os graus-hora de desconforto por calor ou por frio em função de alterações nos parâmetros de projeto para três cidades brasileiras: Curitiba/PR, São Paulo/SP e Manaus/AM. O foco deste trabalho é o uso dos meta-modelos para avaliar o impacto de parâmetros relacionados com estratégias de ventilação natural no conforto térmico em HIS. A HIS brasileira analisada consistiu em uma unidade representativa, naturalmente ventilada e desenvolvida baseada em dados coletados. Os parâmetros que mais influenciam o conforto térmico, nomeados parâmetroschave de projeto foram: orientação da edificação, posição e tamanho das proteções solares, propriedades térmicas dos sistemas construtivos das paredes e do telhado, assim como, áreas de janela nas fachadas e áreas efetiva de abertura. A metodologia foi dividida em: (a) coleta de projetos de HIS brasileiras que embasaram a proposição de um modelobase que os representassem, (b) definição dos parâmetros chave de projeto e suas faixas de variação, a fim de compor o universo de projeto a ser explorado, (c) simulações térmicas usando o EnergyPlus acoplado com uma ferramenta de Monte Carlo para variar randomicamente o universo de projeto considerado, (d) uso da maior parte dos resultados das simulações para o desenvolvimento dos meta-modelos,(e) uso da porção remanescente para a validação dos meta-modelos e (f) aplicação dos meta-modelos em uma simples configuração de projeto, visando testar o seu potencial como ferramenta de suporte de projeto. De modo geral, os meta-modelos apresentaram R2 superiores a 0,95 para todos os climas, exceto os meta-modelos para predizer desconforto por calor para Curitiba (R2 =0,61) e São Paulo (R2 =0,74). Na fase de aplicação, os modelos mostraram predições consistentes para variações na área de janela na fachada, mas incoerências para variações nas áreas efetiva de abertura.
|
206 |
Estudos teórico e experimental de propriedades estruturais e eletrônicas da molécula emodina em solvente e em bicamadas lipídicas / Theoretical and Experimental Studies of Structural and Electronic Properties of Emodin Molecule in Solvent and Lipid BilayersCunha, Antonio Rodrigues da 08 August 2014 (has links)
A Emodina (EMH) é uma das antraquinonas mais abundantes na natureza. Essa molécula vem sendo largamente usada como material de estudo científico por apresentar diversas atividades farmacológicas, tais como antiviral, antitumoral, antifungal, digestiva e outras. É conhecido que a Emodina em solução aquosa alcalina pode sofrer mais de um processo de desprotonação, apresentando-se na forma desprotonada, EM-, após a primeira desprotonação. Nesta tese de doutorado estudamos as propriedades estruturais e eletrônicas da molécula Emodina em meio solvente e em bicamadas lipídicas a fim de caracterizar as propriedades relacionadas à espectroscopia UV-Vis, à reatividade e à termodinâmica dessa molécula nesses ambientes. Realizamos cálculos quânticos com a Emodina em vácuo e em meio solvente, onde consideramos todos os possíveis sítios de desprotonação. Como resultados desses cálculos, identificamos os sítios da primeira, segunda e terceira desprotonação. Calculamos o pKa1 da Emodina em água e o pK*a1 em metanol através de simulações computacionais com o método Monte Carlo e cálculos quânticos, com o solvente descrito com o modelo contínuo polarizável. Nossos melhores valores para o pKa1 da Emodina determinados nesses solventes foram 8.4±0.5 e 10.3±1.5, que estão em boa concordância com os valores experimentais, (pKa1=8.0±0.2 e pK*a1=11.1±0.1) obtidos nesta tese para Emodina em água e metanol, respectivamente. Adicionalmente realizamos simulações com Dinâmica Molecular com as espécies EMH e EM- em bicamada lipídica de DMPC, para investigar a nível atômico as interações dessas espécies com a bicamada e determinar as posições preferenciais dessas espécies nesse ambiente anfifílico. Os resultados dessas simulações mostraram que as espécies EMH e EM- ficam inseridas na bicamada, na região polar dos lipídios, próximos aos gliceróis. Esses resultados corroboram as nossas medidas do espectro de absorção dessas espécies em bicamada lipídica, onde mostramos de forma qualitativa, que ambas as espécies ficam inseridas na bicamada, na região das cabeças polares dos lipídios. A análise das propriedades estruturais da bicamada na vizinhança das espécies da Emodina como área por lipídio e densidade eletrônica dos lipídios, mostrou que o efeito da EM- na estrutura da bicamada lipídica é maior do que o da EMH. Esses resultados corroboram as nossas medidas de DSC(Differential Scanning Calorimetry) das espécies da Emodina na bicamada. / Emodin (EMH) is one of the most abundant anthraquinone derivatives found in nature. This molecule has been used widely as research material, due to its biological and pharmacological activities such as antiviral, anticancer, antifungal, digestive and antibacterial activities. It is known that Emodin in alkaline aqueous solution can undergo more than one deprotonation, leading to the specie EM- in the first deprotonation process. In this PhD thesis, we studied the structural and electronic properties of this molecule in several solvents and lipid bilayers, in order to characterize the properties related to UV-Vis absorption spectroscopy, reactivity and thermodynamics of this molecule in these environments. Performing quantum mechanics (QM) calculations for all possible deprotonation sites and tautomeric isomers of Emodin in vacuum and in water, we identified the sites of the first, second and third deprotonations. We calculated the pKa1 of Emodin in water and pK*a1 in methanol with free energy perturbation method, implemented in the Monte Carlo simulation, and with QM calculations, where the solvent was treated as a polarizable continuum medium. Our best values for pKa1 of Emodin in these solvents were 8.4±0.5 and 10.3±1.5, which are in very good agreement with the experimental values obtained in this thesis pKa1=8.0±0.2 and pK*a1=11.1±0.1, for water and methanol, respectively. Additionally, we performed molecular dynamics simulations of both species in fully hydrated lipid bilayers of DMPC to investigate at atomic detail the molecular mechanism of the interaction of these species with lipid membrane and its preferred positions in this amphiphilic environment. As results of these simulations, we obtained that both species of Emodin have a strong tendency to insert into the lipid bilayer, remaining near the glycerol group of DMPC. These results corroborate our measured absorption spectra of these species in the bilayer, which qualitatively showed that both species are within the bilayer, inserted in the lipid headgroup region. Our results also show that the effect of EM- specie in the lipid bilayer structure is stronger than the EMH, which corroborate our DSC(Differential Scanning Calorimetry) measurements.
|
207 |
Processos de polimerização e transição de colapso em polímeros ramificados. / Polymerization processes and collapse transition of branched polymers.Neves, Ubiraci Pereira da Costa 13 March 1997 (has links)
Estudamos o diagrama de fases e o ponto tricrítico da transição de colapso em um modelo de animais na rede quadrada, a partir da expansão em série da compressibilidade isotérmica KT do sistema. Como função das variáveis x (fugacidade) e y = e1/T (T é a temperatura reduzida), a serie KT é analisada utilizando-se a técnica dos aproximantes diferenciais parciais. Determinamos o padrão de fluxo das trajetórias características de um típico aproximante diferencial parcial com ponto fixo estável. Obtemos estimativas satisfatórias para a fugacidade tricrítica Xt = 0.024 ± 0.005 e a temperatura tricritica Tt = 0.54 ± 0.04. Considerando somente campos de escala lineares, obtemos também o expoente de escala γ = 1.4 ± 0.2 e o expoente \"crossover\" Φ = 0.66 ± 0.08. Nossos resultados estão em boa concordância com estimativas prévias obtidas por outros métodos. Também estudamos um processo de polimerização ramifIcada através de simulações computacionais na rede quadrada baseadas em um modelo de crescimento cinético generalizado para se incorporar ramifIcações e impurezas. A configuração do polímero e identificada com uma árvore-ligação (\"bond tree\") a fim de se examinar os aspectos topológicos. As dimensões fractais dos aglomerados (\"clusters\") são obtidas na criticalidade. As simulações também permitem o estudo da evolução temporal dos aglomerados bem como a determinação das auto-correlações temporais e expoentes críticos dinâmicos. Com relação aos efeitos de tamanho finito, uma técnica de cumulantes de quarta ordem e empregada para se estimar a probabilidade de ramificação critica bc e os expoentes críticos v e β. Na ausência de impurezas, a rugosidade da superfície e descrita em termos dos expoentes de Hurst. Finalmente, simulamos este modelo de crescimento cinético na rede quadrada utilizando um método de Monte Carlo para estudar a polimerização ramificada com interações atrativas de curto alcance entre os monômeros. O diagrama de fases que separa os regimes de crescimento finito e infinito e obtido no plano (T,b) (T é a temperatura reduzida e b é a probabilidade de ramificação). No limite termodinâmico, extrapolamos a temperatura T∗ = 0.102 ± 0.005 abaixo da qual a fase e sempre infinita. Observamos também a ocorrência de uma transição de rugosidade na superfície do polímero. / The phase diagram and the tricritical point of a collapsing lattice animal are studied through an extended series expansion of the isothermal compressibility KT on a square lattice. As a function of the variables x (fugacity) and y = e1/T (T is the reduced temperature), this series KT is investigated using the partial differential approximants technique. The characteristic flow pattern of partial differential approximant trajectories is determined for a typical stable fixed point. We obtain satisfactory estimates for the tricritical fugacity Xt = 0.024 ± 0.005and temperature Tt = 0.54 ± 0.04.Taking into account only linear scaling fields we are also able to get the scaling exponent γ = 1.4 ± 0.2 and the crossover exponent Φ = 0.66 ± 0.08. Our results are in good agreement with previous estimates from other methods. We also study ramified polymerization through computational simulations on the square lattice of a kinetic growth model generalized to incorporate branching and impurities. The polymer configuration is identified with a bond tree in order to examine its topology. The fractal dimensions of clusters are obtained at criticality. Simulations also allow the study of time evolution of clusters as well as the determination of time autocorrelations and dynamical critical exponents. In regard to finite size effects, a fourth-order cumulant technique is employed to estimate the critical branching probability be and the critical exponents v and β. In the absence of impurities, the surface roughness is described in terms of the Hurst exponents. Finally we simulate this kinetic growth model on the square lattice using a Monte Carlo approach in order to study ramified polymerization with short distance attractive interactions between monomers. The phase boundary separating finite from infinite growth regimes is obtained in the (T,b) space (T is the reduced temperature and b is the branching probability). In the thermodynamic limit, we extrapolate the temperature T = 0.102 ± 0.005 below which the phase is found to be always infinite. We also observe the occurrence of a roughening transition at the polymer surface.
|
208 |
Modelagem computacional de tomografia com feixe de prótons / Computational modeling of protons tomographyOlga Yevseyeva 16 February 2009 (has links)
Fundação Carlos Chagas Filho de Amparo a Pesquisa do Estado do Rio de Janeiro / Nessa tese foi feito um estudo preliminar, destinado à elaboração do programa experimental inicial para a primeira instalação da tomografia com prótons (pCT) brasileira por meio de modelagem computacional. A terapia com feixe de prótons é uma forma bastante precisa de tratamento de câncer. Atualmente, o planejamento de tratamento é baseado na tomografia computadorizada com raios X, alternativamente, a tomografia com prótons pode ser usada. Algumas questões importantes, como efeito de escala e a Curva de Calibração (fonte de dados iniciais para planejamento de terapia com prótons), foram estudados neste trabalho. A passagem
de prótons com energias iniciais de 19,68MeV; 23MeV; 25MeV; 49,10MeV e 230MeV pelas camadas de materiais variados (água, alumínio, polietileno, ouro) foi simulada usando códigos
Monte Carlo populares como SRIM e GEANT4. Os resultados das simulações foram comparados com a previsão teórica (baseada na solução aproximada da equação de transporte de Boltzmann)
e com resultados das simulações feitas com outro popular código Monte Carlo MCNPX. Análise comparativa dos resultados das simulações com dados experimentais publicados na
literatura científica para alvos grossos e na faixa de energias de prótons usada em medidas em pCT foi feita. Foi observado que apesar de que todos os códigos mostram os resultados parecidos
alguns deslocamentos não sistemáticos podem ser observados. Foram feitas observações importantes sobre a precisão dos códigos e uma necessidade em medidas sistemáticas de
frenagem de prótons em alvos grossos foi declarada. / In the present work a preliminary research via computer simulations was made in order to elaborate a prior program for the first experimental pCT setup in Brazil. Proton therapy is a high precise form of a cancer treatment. Treatment planning nowadays is performed basing on X ray Computer Tomography data (CT), alternatively the same procedure could be performed using proton Computer Tomography (pCT). Some important questions, as a scale effect and so called Calibration Curve (as a source of primary data for pCT treatment planning) were studied in this work. The 19.68MeV; 23MeV; 25MeV; 49.10MeV e 230MeV protons passage through varied absorbers (water, aluminum, polyethylene, gold) were simulated by such popular Monte Carlo packages as SRIM and GEANT4. The simulation results were compared with a theoretic prevision based on approximate solution of the Boltzmann transport equation and with simulation results of the other popular Monte Carlo code MCNPX. The comparative analysis of the simulations results with the experimental data published in scientific literature for thick absorbers and within the energy range used in the pCT measurements was made. It was noted in spite of the fact that all codes showed similar results some nonsystematic displacements can be observed. Some important observations about the codes precision were made and a necessity of the systematic measurements of the proton stopping power in thick absorbers was declared.
|
209 |
Modelagem computacional de tomografia com feixe de prótons / Computational modeling of protons tomographyOlga Yevseyeva 16 February 2009 (has links)
Fundação Carlos Chagas Filho de Amparo a Pesquisa do Estado do Rio de Janeiro / Nessa tese foi feito um estudo preliminar, destinado à elaboração do programa experimental inicial para a primeira instalação da tomografia com prótons (pCT) brasileira por meio de modelagem computacional. A terapia com feixe de prótons é uma forma bastante precisa de tratamento de câncer. Atualmente, o planejamento de tratamento é baseado na tomografia computadorizada com raios X, alternativamente, a tomografia com prótons pode ser usada. Algumas questões importantes, como efeito de escala e a Curva de Calibração (fonte de dados iniciais para planejamento de terapia com prótons), foram estudados neste trabalho. A passagem
de prótons com energias iniciais de 19,68MeV; 23MeV; 25MeV; 49,10MeV e 230MeV pelas camadas de materiais variados (água, alumínio, polietileno, ouro) foi simulada usando códigos
Monte Carlo populares como SRIM e GEANT4. Os resultados das simulações foram comparados com a previsão teórica (baseada na solução aproximada da equação de transporte de Boltzmann)
e com resultados das simulações feitas com outro popular código Monte Carlo MCNPX. Análise comparativa dos resultados das simulações com dados experimentais publicados na
literatura científica para alvos grossos e na faixa de energias de prótons usada em medidas em pCT foi feita. Foi observado que apesar de que todos os códigos mostram os resultados parecidos
alguns deslocamentos não sistemáticos podem ser observados. Foram feitas observações importantes sobre a precisão dos códigos e uma necessidade em medidas sistemáticas de
frenagem de prótons em alvos grossos foi declarada. / In the present work a preliminary research via computer simulations was made in order to elaborate a prior program for the first experimental pCT setup in Brazil. Proton therapy is a high precise form of a cancer treatment. Treatment planning nowadays is performed basing on X ray Computer Tomography data (CT), alternatively the same procedure could be performed using proton Computer Tomography (pCT). Some important questions, as a scale effect and so called Calibration Curve (as a source of primary data for pCT treatment planning) were studied in this work. The 19.68MeV; 23MeV; 25MeV; 49.10MeV e 230MeV protons passage through varied absorbers (water, aluminum, polyethylene, gold) were simulated by such popular Monte Carlo packages as SRIM and GEANT4. The simulation results were compared with a theoretic prevision based on approximate solution of the Boltzmann transport equation and with simulation results of the other popular Monte Carlo code MCNPX. The comparative analysis of the simulations results with the experimental data published in scientific literature for thick absorbers and within the energy range used in the pCT measurements was made. It was noted in spite of the fact that all codes showed similar results some nonsystematic displacements can be observed. Some important observations about the codes precision were made and a necessity of the systematic measurements of the proton stopping power in thick absorbers was declared.
|
210 |
Estudos teórico e experimental de propriedades estruturais e eletrônicas da molécula emodina em solvente e em bicamadas lipídicas / Theoretical and Experimental Studies of Structural and Electronic Properties of Emodin Molecule in Solvent and Lipid BilayersAntonio Rodrigues da Cunha 08 August 2014 (has links)
A Emodina (EMH) é uma das antraquinonas mais abundantes na natureza. Essa molécula vem sendo largamente usada como material de estudo científico por apresentar diversas atividades farmacológicas, tais como antiviral, antitumoral, antifungal, digestiva e outras. É conhecido que a Emodina em solução aquosa alcalina pode sofrer mais de um processo de desprotonação, apresentando-se na forma desprotonada, EM-, após a primeira desprotonação. Nesta tese de doutorado estudamos as propriedades estruturais e eletrônicas da molécula Emodina em meio solvente e em bicamadas lipídicas a fim de caracterizar as propriedades relacionadas à espectroscopia UV-Vis, à reatividade e à termodinâmica dessa molécula nesses ambientes. Realizamos cálculos quânticos com a Emodina em vácuo e em meio solvente, onde consideramos todos os possíveis sítios de desprotonação. Como resultados desses cálculos, identificamos os sítios da primeira, segunda e terceira desprotonação. Calculamos o pKa1 da Emodina em água e o pK*a1 em metanol através de simulações computacionais com o método Monte Carlo e cálculos quânticos, com o solvente descrito com o modelo contínuo polarizável. Nossos melhores valores para o pKa1 da Emodina determinados nesses solventes foram 8.4±0.5 e 10.3±1.5, que estão em boa concordância com os valores experimentais, (pKa1=8.0±0.2 e pK*a1=11.1±0.1) obtidos nesta tese para Emodina em água e metanol, respectivamente. Adicionalmente realizamos simulações com Dinâmica Molecular com as espécies EMH e EM- em bicamada lipídica de DMPC, para investigar a nível atômico as interações dessas espécies com a bicamada e determinar as posições preferenciais dessas espécies nesse ambiente anfifílico. Os resultados dessas simulações mostraram que as espécies EMH e EM- ficam inseridas na bicamada, na região polar dos lipídios, próximos aos gliceróis. Esses resultados corroboram as nossas medidas do espectro de absorção dessas espécies em bicamada lipídica, onde mostramos de forma qualitativa, que ambas as espécies ficam inseridas na bicamada, na região das cabeças polares dos lipídios. A análise das propriedades estruturais da bicamada na vizinhança das espécies da Emodina como área por lipídio e densidade eletrônica dos lipídios, mostrou que o efeito da EM- na estrutura da bicamada lipídica é maior do que o da EMH. Esses resultados corroboram as nossas medidas de DSC(Differential Scanning Calorimetry) das espécies da Emodina na bicamada. / Emodin (EMH) is one of the most abundant anthraquinone derivatives found in nature. This molecule has been used widely as research material, due to its biological and pharmacological activities such as antiviral, anticancer, antifungal, digestive and antibacterial activities. It is known that Emodin in alkaline aqueous solution can undergo more than one deprotonation, leading to the specie EM- in the first deprotonation process. In this PhD thesis, we studied the structural and electronic properties of this molecule in several solvents and lipid bilayers, in order to characterize the properties related to UV-Vis absorption spectroscopy, reactivity and thermodynamics of this molecule in these environments. Performing quantum mechanics (QM) calculations for all possible deprotonation sites and tautomeric isomers of Emodin in vacuum and in water, we identified the sites of the first, second and third deprotonations. We calculated the pKa1 of Emodin in water and pK*a1 in methanol with free energy perturbation method, implemented in the Monte Carlo simulation, and with QM calculations, where the solvent was treated as a polarizable continuum medium. Our best values for pKa1 of Emodin in these solvents were 8.4±0.5 and 10.3±1.5, which are in very good agreement with the experimental values obtained in this thesis pKa1=8.0±0.2 and pK*a1=11.1±0.1, for water and methanol, respectively. Additionally, we performed molecular dynamics simulations of both species in fully hydrated lipid bilayers of DMPC to investigate at atomic detail the molecular mechanism of the interaction of these species with lipid membrane and its preferred positions in this amphiphilic environment. As results of these simulations, we obtained that both species of Emodin have a strong tendency to insert into the lipid bilayer, remaining near the glycerol group of DMPC. These results corroborate our measured absorption spectra of these species in the bilayer, which qualitatively showed that both species are within the bilayer, inserted in the lipid headgroup region. Our results also show that the effect of EM- specie in the lipid bilayer structure is stronger than the EMH, which corroborate our DSC(Differential Scanning Calorimetry) measurements.
|
Page generated in 0.0477 seconds