• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 337
  • 14
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 357
  • 357
  • 173
  • 151
  • 108
  • 52
  • 51
  • 48
  • 45
  • 45
  • 41
  • 36
  • 35
  • 35
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Modelagem computacional e calibração da condutividade hidráulica horizontal em aqüífero da Bacia Sedimentar do Araripe utilizando o método iterativo do gradiente hidráulico / Computational modeling and calibration of water-bearing the horizontal hydraulical condutividade in of the Basin Sedimentary of the Araripe using the iterative method of the hydraulical gradient

Tavares, Paulo Roberto Lacerda 23 February 2010 (has links)
TAVARES, P. R. L. Modelagem computacional e calibração da condutividade hidráulica horizontal em aqüífero da Bacia Sedimentar do Araripe utilizando o método iterativo do gradiente hidráulico. 2010. 117 f. Tese (Doutorado em Engenharia Civil: Recursos Hídricos) – Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2010. / Submitted by Hohana Sanders (hohanasanders@hotmail.com) on 2016-04-28T16:29:59Z No. of bitstreams: 1 2010_tese_prltavares.pdf: 5330568 bytes, checksum: af74a06851c7c6c3e7520e41ae7c1b0e (MD5) / Approved for entry into archive by Marlene Sousa (mmarlene@ufc.br) on 2016-05-27T18:33:24Z (GMT) No. of bitstreams: 1 2010_tese_prltavares.pdf: 5330568 bytes, checksum: af74a06851c7c6c3e7520e41ae7c1b0e (MD5) / Made available in DSpace on 2016-05-27T18:33:24Z (GMT). No. of bitstreams: 1 2010_tese_prltavares.pdf: 5330568 bytes, checksum: af74a06851c7c6c3e7520e41ae7c1b0e (MD5) Previous issue date: 2010-02-23 / The process of calibration of hydrodynamic parameters represents an important part in computer modeling; its general approach consists of minimizing an objective function expressed by the difference between observed and simulated hydraulics heads. Guo and Zhang, in the decade of 90 and Schuster and Araújo (2004)proposed an alternative process for estimating the parameters, through the minimization of the difference between observed and simulated hydraulic gradients and denominated Iterative Method of the Hydraulic Gradient (IMHG). The generation of the matrix of observed heads has decisive function in the success of the calibration process. In the traditional approach, the observed matrix is obtained using a mathematical interpolation. This work intends to investigate the generation of the observed head matrix, using the simulation process itself, fixing, in the model, the points where the heads are known. Normally, great manual efforts were noticed in the attempt of integrating the simulating software (PMWIN) and the (IMHG), therefore, all calibration methodology was automatically implemented and a computer code was developed, denominated UFC-MIGH. Geoprocessing techniques were added to the calibration process in order to simplify the generation of the input matrix of the model. For the application of the proposed methodology, the horizontal hydraulic conductivities of two hypothetical examples and a real case were used. The real case consisted of a portion of the aquifer of the Sedimentary Basin of Araripe,including the total urban area of the municipal district of Crato. In all of the simulated cases, the results them IMHG, demonstrated smaller errors than the traditional methodology, implemented in the software PEST. Thus, IMHG demonstrated larger flexibility, showing superior effectiveness in problems with or without the zoning of the hydraulic conductivities. The new methodology of generation of observed heads matrix is much more hydrogeological consistent than using just mathematical interpolation. This new methodology takes into account singularities of the model, as rivers, wells and impermeable outlines. Finally, as important final products, present in the thesis, the map of horizontal hydraulic conductivity and the contour map of the hydraulic heads of the area where the methodology was applied / O processo de calibração de parâmetros hidrodinâmicos representa parte importante dos modelos e sua abordagem geral consiste em minimizar uma função objetivo expressa pela diferença entre as cargas hidráulicas observadas e calculadas. Guo e Zhang, na década de 90 e, depois, Schuster e Araújo (2004) propuseram um processo alternativo para estimação dos parâmetros, através da minimização da diferença entre os gradientes hidráulicos observados e calculados e denominado Método Iterativo do Gradiente Hidráulico (MIGH). A geração da matriz de cargas observadas tem função determinante no sucesso do processo de calibração. Na abordagem tradicional, a matriz observada é constituída por meio de um processo de interpolação. Este trabalho propõe-se a investigar a geração da matriz observada, utilizando o próprio processo de simulação, fixando, no modelo, os pontos de cargas aferidas em campo. Perceberam-se, ainda, grandes esforços manuais na busca de integrar o software simulador (PMWIN) e o calibrador (MIGH); neste sentido, toda a metodologia de calibração foi implementada e automatizada no programa computacional desenvolvido na pesquisa, denominado UFC-MIGH. Acrescido ao processo de calibração, foram investigadas técnicas de geoprocessamento através de um Sistema de Informações Geográficas (SIG), para simplificar a geração das matrizes de entrada do modelo. Para aplicação da metodologia proposta, foram calibradas as condutividades hidráulicas horizontais de dois exemplos hipotéticos e um caso real, referente a uma porção do aqüífero da Bacia Sedimentar do Araripe, abrangendo a totalidade da área urbana do município do Crato. Em todos os casos simulados, os resultados com o emprego do MIGH, demonstraram erros menores, confirmados através dos critérios de convergência e comparados à metodologia tradicional, implementada no software PEST. Dessa forma, o MIGH demonstra maior flexibilidade, mostrando eficácia superior em problemas com ou sem o zoneamento das condutividades hidráulicas. Além disso, a nova metodologia de geração das matrizes de cargas observadas garante resultados hidrogeologicamente mais consistentes, comparada à utilização da interpolação, que não contempla singularidades do modelo, como rios, poços de bombeamento e contornos impermeáveis. Por fim, como importantes produtos finais, estão presentes no trabalho, o mapa de condutividade hidráulica horizontal e o mapa potenciométrico da Área-Crato
102

Computação gráfica e modelagem computacional aplicadas ao traçado e dimensionamento hidráulico de redes coletoras de esgoto sanitário / Computer graphics and computational modeling applied to the layout and hydraulic design of sewage collection networks

Rodrigues, Gustavo Paiva Weyne 12 May 2006 (has links)
RODRIGUES, G. P. W. Computação gráfica e modelagem computacional aplicadas ao traçado e dimensionamento hidráulico de redes coletoras de esgoto sanitário. 2006. 166 f. Dissertação (Mestrado em Engenharia Civil: Saneamento Ambiental) – Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2016. / Submitted by João silva (jpauloqxb@gmail.com) on 2016-05-11T18:25:52Z No. of bitstreams: 1 2006_dis_gpwrodruigues.pdf: 3731824 bytes, checksum: 052d40eb7b7aead58a8853f33bde7700 (MD5) / Approved for entry into archive by Marlene Sousa (mmarlene@ufc.br) on 2016-05-13T14:08:48Z (GMT) No. of bitstreams: 1 2006_dis_gpwrodruigues.pdf: 3731824 bytes, checksum: 052d40eb7b7aead58a8853f33bde7700 (MD5) / Made available in DSpace on 2016-05-13T14:08:48Z (GMT). No. of bitstreams: 1 2006_dis_gpwrodruigues.pdf: 3731824 bytes, checksum: 052d40eb7b7aead58a8853f33bde7700 (MD5) Previous issue date: 2006-05-12 / Brazil is still a country with little scope in relation to sewage systems. Statistics carried out by competent bodies nationwide, as the Modernization Program of Sanitation Sector, prove this fact. With the demand for less expensive projects, of good quality and that they are developed within increasingly shorter periods, we saw the need to create an application called UFC9, capable of accelerating the realization of these projects. For this, we used the most known graphics software tool for engineering, AutoCAD. In this environment, it developed a UFC9 module, aimed at the stroke of collecting sewerage systems. The second module UFC9 presents a computational model that aims to scale hydraulically networks already outlined in the first module, following all the rules established by ABNT. Model validation was made by comparing the calculations for actual sewage networks with data to SANCAD - ESG module, software developed by Sanegraph - Consulting Information Technology and Sanitation Systems. According to the results, the developed program proved to be very satisfactory, enabling use in projects in an easy, intuitive and friendly interface. / O Brasil ainda é um país com pequena abrangência no que se refere aos sistemas de esgotamento sanitário. Estatísticas realizadas por órgãos competentes de âmbito nacional, como o Programa de Modernização do Setor de Saneamento, comprovam este fato. Com a exigência de projetos menos onerosos, de boa qualidade e que sejam elaborados dentro de prazos cada vez menores, viu-se a necessidade de se criar um aplicativo, denominado UFC9, capaz de acelerar a realização destes projetos. Para isto, utilizou-se a ferramenta computacional gráfica mais conhecida para a engenharia, o AutoCAD. Neste ambiente, foi desenvolvido um módulo do UFC9, cujo objetivo é o traçado de redes coletoras de esgotos. O segundo módulo do UFC9 apresenta um modelo computacional que tem a finalidade de dimensionar hidraulicamente as redes já traçadas no primeiro módulo, seguindo todas as normas estabelecidas pela ABNT. A validação do modelo se deu através da comparação dos cálculos para redes de esgoto reais com os dados referentes ao SANCAD – Módulo ESG, software desenvolvido pela Sanegraph – Consultoria em Sistemas de Informática e Saneamento. De acordo com os resultados obtidos, o programa desenvolvido mostrou-se bastante satisfatório, possibilitando o uso em projetos de uma forma fácil, intuitiva e com uma interface amigável.
103

Desenvolvimento de algoritmos para análise e modelagem variográfica

Drumond, David Alvarenga January 2016 (has links)
A análise da continuidade espacial inclui uma série de ferramentas para estimar e modelar a continuidade de variáveis aleatórias regionalizadas. Ela é a base para muitas das avaliações de depósitos minerais baseadas na geoestatísitca. O modelo ajustado é de grande importância e influencia nos resultados em vários algoritmos de krigagem e simulações subsequentes. Tanto os softwares acadêmicos e comerciais podem melhorar no desenvolvimento dos gráficos, na interatividade com o usuário e no uso de formas automáticas de modelagem. O SGeMS (Stanford Geoestatistical Modeling Software) é um programa gratuito usado entre a comunidade de geoestatísticos ao qual tem um grande potencial de desenvolvimento, mas que, no entanto, ainda não possui todas as ferramentas de análise da continuidade espacial incorporadas. Diferentemente do SGeMS, o GSLIB é uma boa biblioteca gratuita para análise geoestatística e é mais completa, mas as estradas do programa são modificadas pela edição de arquivos .txt e usando linhas de comando o que torna a utilização do software pouco amigável com o usuário, apesar da robustez e qualidade dos programas da biblioteca. Dada as limitações dos mais usados e completos softwares gratuitos de geoestatística, essa dissertação objetiva a transcrição e adaptação do algoritmo do GSLIB (GamV .f) para o software SGeMS, modificando a lógica de programação para criar diferentes ferramentas auxiliares como h-scatterplots e mapas de variograma e covariograma. Os resultados demonstraram que a adaptação de algoritmos antigos leva a uma solução gratuita. Além disso, um algoritmo para a otimização da modelagem de variogramas pelo método dos mínimos quadrados foi desenvolvido. As rotinas foram desenvolvidas ambas em C++ e em Python. Os algoritmos foram validados com os valores obtidos pelo software GSLIB. Todos os desenvolvimentos dos plug-ins foram testados e validados usando dois casos ilustrativos: um depósito de ferro e um caso polimetálico. Os resultados provaram ser consistentes e similares com aqueles obtidos com softwares comerciais e renomados. / The spatial continuity analysis includes a serie of tools to estimate and model the continuity of regionalized random variables. It is the basics for many mineral deposit evaluation methods based on geostatistics. The model adjusted is of paramount importance and influences the results in many subsequent kriging and simulation algorithms. Both commercial and academic softwares can be improved in graphics, users interactivity with and automated tools for modeling spatial continuity. SGeMS (Stanford Geoestatistical Modeling Software) is a freeware program used among the geostatistical community which has an extremely potential for development however it does not have enough variographic or graphical tools. Unlike SGeMS, GSLIB is a good and more complete free library for geostatistical analysis, however the program inputs are modified by editing of .txt files and uses DOS command lines. This makes the software less user friendly, despite its robustness and quality. Given the limitation on both most used and complete freeware geostatistical softwares, this dissertation aims at transcripting and adpating an algorithm from GSLIB(GamV.f) into SGeMS software, handling the programming logic to create different auxiliary tools as h-scatterplot and variomaps. The results demonstrated that the adaptation of the old and stable algortihms lead to an inexpensive solution. Futhermore, an algorithm was developed for optimizing variogram modeling based on weigthed least squares method. The routines were developed in both C++ and Phyton. The algorithms were validated against actual values generated by GSLIB. All developed of plug-ins were tested and validated using two illustration studies: an iron ore deposit and a polymetallic one. The results proved to be consistent and similar to the ones obtained by commercial well known sofwares.
104

Análise da confiabilidade da ligação laje-pilar interno sob punção de acordo com a NBR-6118:2014 / Reliability analysis of the slab-column intersection under puching according to NBR 6118:2014

Silva, Gustavo Ribeiro da January 2017 (has links)
As demandas do mercado da construção civil têm exigido vãos cada vez maiores e ao mesmo tempo alturas cada vez menores das vigas. Isto tem levado muitos projetistas à adoção da solução do pavimento em laje lisa em concreto armado ou protendido. No entanto, a ausência das vigas torna possível a ruptura das lajes por puncionamento junto aos pilares. A norma NBR-6118:2014 prescreve as disposições para o projeto de lajes sob punção. O trabalho proposto teve como objetivo principal a análise da confiabilidade da ligação laje-pilar interno sob o efeito da punção em lajes que se apoiam diretamente sobre pilares de acordo com a NBR-6118:2014. Primeiramente, com o intuito de se entender melhor o fenômeno da punção, realizou-se uma breve revisão bibliográfica, identificando os principais parâmetros que influenciam na resistência da ligação, assim como os principais métodos de análise e trabalhos realizados na área. Em seguida, estudou-se o software de análise em elementos finitos ANSYS (Analysis Systems Incorporated), especificamente a ferramenta UPF (User Programmable Features), que foi utilizada para adoção de um modelo constitutivo para o concreto. Utilizando o software, foram modeladas lajes estudadas por outros autores, visando a validação do modelo numérico. Para o estudo da confiabilidade foi dimensionado um conjunto de lajes lisas seguindo as prescrições da NBR 6118:2014. A análise da confiabilidade foi realizada utilizando a ferramenta PDS (Probabilistic Design System), empregando o método de simulação numérica de Monte Carlo com amostragem por Latin Hypercube. Por fim, determinou-se o índice de confiabilidade em cada projeto e realizaram-se análises paramétricas com as variáveis adotadas no trabalho. Os resultados obtidos mostraram que as lajes lisas sem armadura de cisalhamento projetadas segundo a NBR 6118:2014 obtiveram, em sua maioria, índices de confiabilidade adequados. Porém, para as lajes lisas com armadura de cisalhamento, o índice de confiabilidade foi, em grande parte, menor que o índice de confiabilidade alvo adotado. / The demands of the construction market have required increasingly large spans while diminishing of the beam heights. This has led many designers to adopt the pavement solucion of reinforced or prestressed concrete flat slab. However, the absence of the beams makes it possible to slabs failure by punching shear. The Standard NBR-6118: 2014 prescribes the requirements for the design of slabs under punching. The aim of this work was to analyze the reliability of the internal slab-column intersection under punching in slabs supported directly on columns according to NBR-6118: 2014. Firstly, in order to better understand the punching phenomenon, a brief bibliographic review was carried out, identifying the main parameters that influence the connection strength, as well as the main methods of analysis and published in the area. Then, the finite element analysis software ANSYS (Analysis Systems Incorporated), specifically the UPF (User Programmable Features) tool, was used to adopt a concrete constitutive model. Using the software, slabs studied by other authors were modeled, aiming at the validation of the numerical model. For the reliability study, a set of flat slabs was designed following the requirements of NBR 6118: 2014. The reliability analysis was performed using the PDS (Probabilistic Design System) tool, using the Monte Carlo numerical simulation method with Latin Hypercube sampling. Finally, the reliability index was determined in each project and parametric analyzes were performed with the variables adopted in the study. The results from this study show that the flat slabs without shear reinforcement designed according to NBR Standarts obtained appropriate reliability index. However, for the flat slabs with shear reinforcement, the reliability index, in most cases, did not achieve the target reliability index.
105

Modelagem geológica implícita com funções distância assinaladas

Rolo, Roberto Mentzingen January 2017 (has links)
Previamente à cada estimativa ou simulação geoestatística os domínios geológicos do depósito devem ser modelados, o que tradicionalmente é feito de forma manual por um geomodelador, em um processo laborioso, demorado e subjetivo. Por essa razão novas técnicas conhecidas como métodos implícitos veem surgindo. Essas técnicas fornecem algoritmos que substituem o processo de digitalização manual dos métodos explícitos por alguma forma de procedimento automático. Essa dissertação visita alguns métodos implícitos bem estabelecidos com atenção especial à modelagem geológica implícita com funções distância assinalada. Um estudo de caso em um banco de dados real é apresentado e a aplicabilidade do método discutida. Embora não substitua por completo um geomodelador experiente, o método provou ser capaz de gerar modelos geológicos semi-automáticos realistas a partir dos dados amostrais, e se mostra útil principalmente nas fases iniciais da pesquisa mineral. / Prior to every geostatistical estimation or simulation study there is a need for delimiting the geologic domains of the deposit, which is traditionally done manually by a geomodeler in a laborious, time consuming and subjective process. For this reason, novel techniques referred to as implicit modelling have appeared. These techniques provide algorithms that replace the manual digitization process of the traditional methods by some form of automatic procedure. This dissertation covers a few well established implicit methods currently available with special attention to the signed distance function methodology. A case study based on a real dataset was performed and its applicability discussed. Although it did not replace an experienced geomodeler, the method proved to be capable in creating semi-automatic geological models from the sampling data, especially in the early stages of exploration.
106

Pedestrian simulation : a route choice model to assess urban environments

Werberich, Bruno Rocha January 2017 (has links)
The design of new facilities - buildings, shopping centers, public transport stations, airports, or intersections of urban roads - should consider delays resulting from intense pedestrians’ flows in order to make its' operation more efficient. The general objective of this doctoral thesis is to propose a simulation model to represent pedestrians’ behavior in urban environments. Simulation models should allow planning these environments in order to provide greater levels of comfort and safety for the pedestrian. Agent-based abstraction has been widely used for pedestrian modeling, mainly due to its capacity to represent complex entities. Agent-based models represent agents’ decision-making ability based on their profile and perception over the environment. One of the most important pedestrians’ activities is the route choice. This document describes the development of a route choice model based on friction forces. The route cost calculation considers a balance between distance and the impedance generated by other pedestrians. Simulations runs shown that pedestrians choosing longer routes can have similar or better travel times. The ability of choosing not only the shorter route brings more realistic behaviors for the pedestrians’ representation, especially with small differences in route lengths and higher congestion. On the proposed model agents were modeled with partial knowledge of the network conditions. The knowledge was limited considering the pedestrian estimated field of view. In the real world it is not possible to know the network state before turning the corner. The model was validated and calibrated with real data. Calibrating a pedestrian route choice model is a complex task mainly for two reasons: (i) Many factors interfere on pedestrians’ route choice; (ii) data collection is difficult. To overcome these difficulties real pedestrians were studied in a controlled environment. An experiment was set up inside the university campus. After the calibration process the model was able to simulate a real scenario. Proposed model was applied to simulate a shopping mall environment. Simulate the pedestrians shopping behavior is particularly complex once route choice in shopping malls may be defined by a number of causal factors. Shoppers may follow a pre-defined schedule; they may be influenced by other people walking, or may want to get a glimpse of a familiar shopping. Analysis from simulations indicates that the agents’ behavior provides a promising approach for real case applications.
107

Um banco de dados de perfis sigma aberto e extensível

Ferrarini, Fabrício January 2017 (has links)
Modelos de atividade baseados em COSMO se apresentam como uma interessante alternativa para a predição do comportamento de substâncias em mistura. Estes modelos dependem apenas de informações das substâncias puras, como volume e área superficial e outra informação conhecida como perfil sigma, que podem ser determinados através de cálculos de química quântica computacional. O presente trabalho tem por objetivo criar e disponibilizar gratuitamente um banco de dados de perfis sigma para um vasto conjunto de moléculas utilizando o software GAMESS. Para a criação desse banco de dados com informações confiáveis de perfis sigma, foram testados diferentes níveis de teoria para o cálculo da estrutura eletrônica das moléculas, bem como conjuntos de bases distintos, considerando funções de polarização e efeitos difusos. Para realizar a validação dos perfis sigma obtidos, foram estimados valores de coeficientes de atividade em diluição infinita, obtidos através do modelo COSMO-SAC para um conjunto de 689 misturas, as quais não apresentam ligação de hidrogênio. A correlação com os valores de coeficiente de atividade em diluição infinita (IDAC) experimentais, foram construídos gráficos do logaritmo natural de IDAC experimentais e aqueles calculados pelo modelo. O tempo computacional total para obter os perfis sigma também foi avaliado com o intuito de escolher a melhor combinação de teoria e função de base. Dentre os métodos analisados, a teoria de Hartree-Fock (HF) com a função de base 6-311G(d,p) apresentou um bom custo benefício no que se refere ao tempo computacional e a precisão dos resultados frente a dados experimentais, apresentando um coeficiente de determinação superior a 0,94. A partir desses resultados, foi possível criar outros perfis sigma para um número maior de moléculas e disponibilizar essas informações em um banco de dados criado na plataforma do GitHub. / COSMO-based activity coefficient models are widely used to predict non-ideality in mixtures. They require only pure substance properties, such as the -profile, a representation of the screening charge density along the molecular surface. The present work aims to create and freely distribute a -profile database which can be easily extended by the community using the free GAMESS quantum chemistry (QC) package. Different combinations of QC methods and basis sets were tested in the calculation of the -profiles, aiming to define an efficient approach to create the database. The accuracy of COSMO-SAC predictions using these -profiles was evaluated by comparison with experimental infinite dilution activity coefficients and phase equilibrium diagrams. Among the studied alternatives, the Hartree-Fock method with the 6-311G(d,p) basis set led to results with a good balance between accuracy and computational cost. Our database was created using this approach, and it is already available to be used and extended by the community without requiring any commercial software.
108

A utilização da modelagem computacional no processo de ensino e aprendizagem de tópicos de física através da metodologia de módulos educacionais : uma investigação no ensino médio

Oliveira, Rafael Rodrigues de 27 February 2015 (has links)
Submitted by Elizabete Silva (elizabete.silva@ufes.br) on 2015-08-28T22:13:17Z No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) A utilização da modelagem computacional no processo de.pdf: 9668897 bytes, checksum: e349faf3866b0c61657dc0308c9cc957 (MD5) / Approved for entry into archive by Morgana Andrade (morgana.andrade@ufes.br) on 2015-11-12T12:39:23Z (GMT) No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) A utilização da modelagem computacional no processo de.pdf: 9668897 bytes, checksum: e349faf3866b0c61657dc0308c9cc957 (MD5) / Made available in DSpace on 2015-11-12T12:39:23Z (GMT). No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) A utilização da modelagem computacional no processo de.pdf: 9668897 bytes, checksum: e349faf3866b0c61657dc0308c9cc957 (MD5) Previous issue date: 2015 / O presente trabalho relata os resultados de uma pesquisa, realizada no ano de 2011 com estudantes do Ensino Médio, que investigou a aplicação de modelos, simulações & visualizações computacionais na abordagem de conteúdos específicos nas disciplinas de Matemática, História, Química e Física. As aplicações ou módulos educacionais que foram realizadas nas três primeiras disciplinas objetivaram o aprimoramento dos materiais e estratégias didáticas enquanto que, as aplicações relacionadas aos conteúdos de Física, foco dessa pesquisa, delinearam além de tal aprimoramento a investigação de possibilidades, limitações, vantagens e desvantagens que tal abordagem tem em relação a esse conteúdo específico. Os resultados apresentados ao longo desse trabalho estabelecem que abordagens de tópicos específicos de Física através de atividades com modelagem computacional podem ser a princípio, realizadas em três perspectivas distintas, a saber: Quantitativa, Semiquantitativa e Qualitativa através do uso de modelos computacionais de representação Microscópica e/ou Macroscópica. Por fim, os resultados indicam ainda que os desempenhos dos estudantes apresentam uma porcentagem alta de acertos nas atividades com o uso desse aporte computacional e também, uma tendência de queda às vezes pequena e às vezes acentuada quando tais temáticas são realizadas em um formato tradicional e um momento posterior. / This paper reports the results of a survey conducted in 2011 with high school students, who investigated the application of models, computer simulations & views on specific content approach in the subjects Mathematics, History, Chemistry and Physics. The educational applications or modules that are performed during the first three courses aimed improvement of teaching materials and strategies while the applications related to the physical content, focus of research as outlined in addition to the investigation of enhancement possibilities, limitations, advantages and disadvantages that such an approach has in relation to that specific content. The results presented throughout this study establish that approaches the specific topics in physics by computer modeling activities can in principle be carried out at three different angles, namely: Quantitative and Qualitative Semi-quantitative through the use of computer models of microscopic representation and / or Macroscopic. Finally, the results also indicate that the performances of the students have a high percentage of correct answers in the activities with the use of computer input and also a downward trend for small times and pronounced times when such issues are held in a traditional format and a later time.
109

Inversor trifásico utilizando célula de comutação de múltiplos estados para conexão de um sistema eólico à rede elétrica

Cortez, Daniel Flores January 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica / Made available in DSpace on 2013-03-04T18:17:08Z (GMT). No. of bitstreams: 1 304938.pdf: 32969594 bytes, checksum: 2868e1509e2c0233a924e6da68259987 (MD5) / Este trabalho apresenta o emprego de uma topologia bidirecional trifásica, tendo em vista a aplicação em sistemas de conversão de energia eólica conectados à rede elétrica. A característica principal deste conversor está na divisão das correntes sobre os interruptores e no uso do acoplamento magnético nos indutores. A presença do acoplamento não introduz indutância à passagem da corrente de carga. Além disso, por meio de uma técnica de modulação adequada, permite triplicar a frequência sobre os filtros e apresenta tensões multiníveis em seus terminais de saída. A estratégia de controle implementada tem como objetivo o controle das correntes de fase e da tensão do barramento, ambas de forma digital. Como mecanismo de sincronismo é empregado um algoritmo PLL. Serão apresentados estudos teóricos, metodologia de projeto, além de simulações e resultados experimentais. Em suma, é mostrado que a topologia em questão apresenta vantagens para a aplicação que se propõe, como redução dos dispositivos magnéticos e baixa distorção harmônica das tensões e correntes
110

Modelo dinâmico de envelhecimento e risco

Ferranti, Jocimara Segantini January 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2013-03-04T20:44:35Z (GMT). No. of bitstreams: 1 304358.pdf: 1208688 bytes, checksum: 3a4452b1d04e7f10c78e4c3165cb68a7 (MD5) / As técnicas computacionais de modelagem e simulação de sistemas constituem uma ferramenta importante no entendimento da dinâmica de processos complexos, pois são capazes de representar as relações existentes entre os diversos elementos dos sistemas. Em associação com outras técnicas computacionais, como a modelagem fuzzy, os modelos de simulação podem se tornar uma ferramenta ainda mais poderosa, ampliando e aperfeiçoando as formas de representação da realidade. Especificamente na área médica e de saúde, a existência de complexidades e incertezas é notável. Entre os diversos temas abordados nessa área, o processo de envelhecimento e morte, inerente a todos os seres vivos, tem sido foco de estudos há muitos anos. Entretanto, a falta de experimentação e de modelos de simulação relacionados a esse assunto ainda é evidente. Neste contexto, esta dissertação realizou o estudo e a ampliação de um modelo de simulação de envelhecimento e morte existente com o objetivo de aperfeiçoar a representação da realidade de populações consideradas homogêneas quanto a indicadores de risco relacionados a doenças cardiovasculares. O modelo que serviu de base para este trabalho, além de representar a capacidade fisiológica do indivíduo e a geração de eventos de risco no decorrer da vida, trata do impacto causado pelos eventos ocorridos e do processo de recuperação da saúde. A ampliação do modelo consistiu na inclusão de fatores de risco representativos dos hábitos de vida e das condições de saúde da população. Estes fatores indicam a probabilidade do indivíduo que apresenta determinadas características ser acometido ou morrer vítima da causa de morte em avaliação. Os elementos incorporados no modelo são provenientes das tábuas de vida de Harvey Geller, que utilizam características como sexo, idade e indicadores de risco para determinar a ocorrência de algum problema de saúde no decorrer da vida do indivíduo. No caso específico das doenças cardiovasculares, os indicadores de risco utilizados são sístole, diástole, colesterol, diabetes, atividade física, tabagismo e obesidade. Os resultados do modelo ampliado foram validados por meio da reprodução de curvas reais de mortalidade que utilizam dados provenientes do estudo EPIDOSO e da Fundação SEADE do Estado de São Paulo. Os resultados obtidos se mostraram adequados dentro de uma margem de erro considerada aceitável. Com isso, o modelo ampliado pode ser considerado válido tanto para a compreensão da influência dos indicadores de risco ao longo da vida do indivíduo quanto para a avaliação do impacto que mudanças nos indicadores causam na manutenção da saúde e na mortalidade da população. A etapa de validação mostrou que para reproduzir resultados mais condizentes com as realidades estudadas são necessários diversos ajustes nos parâmetros do modelo. O projeto de experimentos realizado indicou que as taxas de envelhecimento e de reserva são os parâmetros cujas variações se mostram mais adequadas à reprodução das curvas de mortalidade estudadas. Diante disso, foi desenvolvido um módulo de inferência fuzzy que possibilita estimar os valores dessas taxas a partir dos indicadores de risco incorporados ao modelo. Os valores dos parâmetros estimados pelo módulo fuzzy se aproximam dos valores utilizados na validação do modelo, mostrando que a modelagem proposta é adequada para fornecer os valores dessas taxas a partir das características da população estudada. A incorporação desse sistema de inferência facilita a utilização do modelo, uma vez que dispensa o conhecimento aprofundado sobre o funcionamento do modelo, ou mesmo sobre a fisiologia humana, por parte do usuário no momento da definição dos parâmetros. / The computational techniques of modeling and simulation systems are an important tool in understanding the dynamics of complex processes. They are capable of representing the relationships between the various elements of the systems. In combination with other computational techniques, such as fuzzy modeling, simulation models can become an even more powerful tool, expanding and improving the ways of representing reality. Specifically in the medical and health knowledge areas, the existence of complexities and uncertainties is remarkable. Among the many topics covered in this area, the process of aging and death, inherent in all living beings, has been the focus of studies for many years. However, the lack of experimentation and simulation models related to this subject is still evident. In this context, this dissertation conducted the study and expansion of an existing simulation model of aging and death in order to improve the representation of the reality of populations considered homogeneous as risk factors related to cardiovascular disease. Besides representing the physiological capacity of the individual and the occurrence of risk events during the life, the base model deals with the impact caused by the events and the process of recovery in health. The expansion of the model was conducted with the inclusion of risk factors representative of the habits of life and health of the population. These factors indicate the likelihood that the individual with certain characteristics being affected or dying due to the cause of death in evaluation. The elements incorporated in the model are derived from life tables of Harvey Geller, that uses characteristics such as gender, age and risk indicators to determine the occurrence of any health problem during the life of the individual. The risk indicators used in the specific case of cardiovascular disease are systolic and diastolic blood pressure, cholesterol, diabetes, physical activity, smoking and obesity. The results of extended model were validated through the reproduction of real curves that used mortality data from EPIDOSO project and SEADE Foundation of the State of São Paulo. The obtained results were considered adequate within an acceptable margin of error. Thus, the expanded model can be considered valid for the understanding of the influence of risk factors over the life of the individual and to assess the impact of changes in risk factors in maintaining health and mortality of the population. The validation step indicated that various adjustments are needed in the model parameters to reproduce results more consistent with the studied realities. The conducted project of experiments indicated that the rate of aging and the rate of reserve are the parameters whose variations are more suitable for reproduction of the mortality curves studied. Therefore, it was developed a fuzzy inference module which allows to estimate the values of these rates from risk indicators incorporated in the model. The parameter values estimated by the fuzzy module are closer to the values used in model validation. It indicates that the proposed model is adequate to provide the values of these rates from the characteristics of the study population. The incorporation of this inference system facilitates the use of the model, since it dispenses the in-depth knowledge on the functioning of the model, or even on the human physiology, by the user when defining the parameters.

Page generated in 0.1124 seconds