Spelling suggestions: "subject:"imulação computacional"" "subject:"mimulação computacional""
261 |
Avaliação da utilização de ferramentas de simulação computacional para reconstituição de incêndios em edificações de concreto armado : aplicação ao caso Shopping Total em Porto Alegre-RS / Evaluation of computational simulation tools in the reconstitution of fires in reinforced concrete buildings: application to the Shopping Total, Porto Alegre, RSRuschel, Fernanda January 2011 (has links)
Devido ao alto custo dos estudos referentes à análise dos efeitos causados pelo aquecimento em elementos estruturais integrantes de uma estrutura completa, em função da complexidade de instalações e equipamentos necessários para ensaios experimentais desse gênero, esse tipo de pesquisa ainda é escasso no Brasil e no mundo. Uma alternativa consiste no uso de simulações computacionais, que permitem analisar o suposto comportamento do fogo durante um incêndio, testar hipóteses acerca das causas e estimar fluxos de temperatura e particulados. Porém, dada a incerteza acerca da precisão e acurácia dessas ferramentas de simulação para representar situações reais, sua validade é muitas vezes questionada. Cabe, portanto, analisar a eficiência das mesmas através do uso de estudos de caso, contexto no qual se enquadra o presente trabalho. No mesmo se buscou reproduzir, usando uma das ferramentas de simulação computacional mais modernas, o software “Fire Dynamics Simulator”, do NIST, um incêndio ocorrido em uma estrutura real. O caso escolhido foi o incêndio no Shopping Total, em Porto Alegre-RS, em função da disponibilidade de dados acerca de danos e estimativas de temperaturas atingidas em diferentes locais, derivados de uma inspeção detalhada efetuada após o sinistro, com o objetivo de reconstruir a dinâmica do mesmo e identificar os elementos deteriorados. O trabalho discute as dificuldades envolvidas no processo de geração de um modelo capaz de representar adequadamente o incêndio. Após a reprodução da arquitetura da estrutura, foi necessário testar vários cenários, usando formas distintas de ignição e representação da carga de incêndio e ajustando as propriedades dos materiais de forma a reproduzir as características reais do sinistro. Após o ajuste da dinâmica de incêndio, se efetuou um estudo comparativo das curvas de temperatura atuantes em alguns elementos de interesse, estimadas pela simulação, e indícios obtidos por ensaios de amostras coletadas após o incêndio. Os resultados obtidos indicam que as ferramentas de simulação são promissoras, mas que é necessário investir na formação de bancos de dados mais amplos e precisos sobre as características dos materiais encontrados nas edificações, para poder fornecer aos programas informações sobre comportamento de ignição e propriedades em temperatura ambiente e sob aquecimento. Ficou evidente que a introdução de estratégias para consideração do fenômeno de deterioração brusca dos materiais por spalling é fundamental para que se possa reproduzir a dinâmica de alguns incêndios reais. Com os ajustes e adaptações efetuados foi possível ter uma boa aproximação do comportamento registrado na estrutura real através da simulação numérica. Esta pesquisa foi desenvolvida junto ao Centro Nacional de Supercomputação da Universidade Federal do Rio Grande do Sul. / Due to the high cost of studies concerning the analysis of the effects caused by heating in structural members of a complete structure, arising from the complexity of facilities and equipment required for experimental tests of this kind, this kind of research is still scarce in Brazil and worldwide. As an alternative it is possible to use computational simulations that enable fire behavior analysis during a fire as well as testing different hypothesis for their causes and estimated temperature and particulate flows. However, there is still a lot of uncertainty about the performance of such simulation tools to represent real situations, and their validity is often questionable. Thus, it is necessary to analyze their efficiency through the use of case studies, context in which this study fits. This study attempted to represent, using one of the most modern tools of computer simulation, the software "Fire Dynamics Simulator, " NIST, a fire occurred in an real structure. The case chosen was the real fire that occurred at the Shopping Total, in Porto Alegre, RS, due to availability of data about damage and estimates of temperatures reached in different locations, obtained from a detailed inspection that was conducted in the building after the fire occurrence, in order to reconstruct the dynamics of the fire and identify the damaged elements. This dissertation discusses the difficulties involved in the generation of a model capable of adequately representing the fire. After reproducing the building structure, it was necessary to test several fire scenes using different forms of ignition and representation of the fire load and adjusting the material properties to reproduce the real fire characteristics. After adjusting the dynamics of the fire, was then conducted a comparative study of the temperature curves acting on the targeted structural elements, estimated by simulation, and evidence obtained by testing samples collected after the fire. The results indicated that the simulation tools are promising, but it is necessary to invest in the formation of larger databases and precise about the characteristics of the materials found in buildings in order to provide information to programs about ignition behavior and properties at room temperature and under heating. It was evident that the introduction of strategies for consideration by the sharp deterioration of materials by spalling is essential to reproduce the dynamics of some real fires. With the adjustments and adaptations made was possible to have a good approximation of the real structural behavior recorded by numerical simulation. This research was developed at the National Center of Supercomputing from the Federal University of Rio Grande do Sul.
|
262 |
Microssimulação da travessia de pedestresJacobsen, André Cademartori January 2011 (has links)
Esta dissertação apresenta uma análise sobre a modelagem de travessias de pedestres. Os simuladores de tráfego recentemente incorporaram modelos de pedestres, porém, as habilidades e limitações para a representação dos comportamentos em travessias não foram analisadas e apresentadas na literatura. Esta dissertação é composta por três artigos, nos quais são apresentados: (i) caracterizações dos comportamentos de pedestres e motoristas em travessias, (ii) análises dos modelos que representam o comportamento em travessias, (iii) a metodologia desenvolvida para coleta de dados de travessias, (iv) a calibração dos modelos de movimentação de pedestres, aceitação de brechas e da decisão dos pedestres sobre desrespeitar semáforos em travessias semaforizadas de pedestres e (v) uma análise da habilidade e limitações dos modelos para representar os atrasos de pedestres em travessias semaforizadas. Observou-se que a representação dos comportamentos em travessias depende de diversos modelos, que representam a escolha de rotas dos pedestres, movimentação, aceitação de brechas, decisão dos motoristas sobre dar preferência em travessias e decisão dos pedestres sobre obedecer aos semáforos. Os modelos de aceitação de brechas de pedestres utilizados, por exemplo, são baseados nos modelos desenvolvidos para representar interseções não semaforizadas de veículos e simplificam consideravelmente os comportamentos de pedestres e motoristas. As dificuldades para coletar dados de pedestres em travessias é um dos fatores que limitam o desenvolvimento de novos modelos. Nesta dissertação foi desenvolvida uma metodologia semiautomática, na qual os pedestres e veículos são rastreados com softwares livres, que facilita a obtenção de dados. As coletas de dados desenvolvidas permitiram a calibração dos modelos do VISSIM para representar uma travessia semaforizada com múltiplas faixas de tráfego, onde a maioria dos pedestres não obedece ao semáforo. Apesar de que parâmetros como as velocidades desejadas e brechas mínimas aceitas pelos pedestres predefinidas nos modelos foram inadequadas para a simulação da travessia, a calibração da movimentação, aceitação de brechas e decisão sobre desrespeitar os semáforos permitiu que o atraso médio de pedestres fosse representado adequadamente. As principais limitações dos modelos estão associadas à representação do comportamento oportunista, como no caso dos pedestres que desrespeitam os semáforos, analisados nesta dissertação. / This dissertation presents an analisys about pedestrians’ crossings modeling. Traffic simulators recently incorporated pedestrians’ models, however, the hability and limitations to represent conflicts in pedestrians’ crossings have not been analysed and presented on the literature. This dissertation is composed by three articles that present: (i) characterizations of pedestrians as motorist behaviors on crossings, (ii) analisys of models that represent the behavior on crossings, (iii) a methodology developed for collecting data from crossings, (iv) a calibration of pedestrian movement, gap acceptance and the decision about disrespecting siganilzation on signalized pedestrian crossings and (v) an analysis of the hability and limitations of the models in representing pedestrian’s delays. It is observed that the representations of the behaviors on pedestrian crossings depend on several models that represent the route choice, movement, gap acceptance, motorist yielding and the decision os pedestrians about obeying the signalization. The models used on simulation correspond, generally, for deterministic models that simplify pedestrians and motorists’ behavior. Pedestrians’ gap acceptance models, for example, were based on models developed to represent vehicle’s unsignilized intersections. Difficulties in pedestrians’ data collection are one factor that limits the development of new models. On this dissertation, a semi-automatic methodology was developed, on which pedestrians and vehicles are tracked with free software that facilitates data obtainment. The collected data allowed the calibration of VISSIM models to represent a signalized pedestrian crossing with multiple traffic lanes where most pedestrians do not obey the siganization. Altough default parameters as desired speed and minimum rear gap accepted by pedestrians were inadequate for the crossing simulation, the calibration of movement, gap acceptance and the decision about disrespecting the signalization allowed the representation of adequate average delays. The main limitations of the models are associated to the representation of opportunistic behavior, as pedestrians disrespecting sigalizations, analyzed on this dissertation.
|
263 |
Simulações computacionais para análise e minimização das tensões residuais no processo de trefilaçãoSouza, Tomaz Fantin de January 2011 (has links)
Este trabalho é parte da cooperação internacional BRAGECRIM (Iniciativa Brasil-Alemanha para Pesquisa em Tecnologia de Fabricação) do projeto "Investigation and improvement of a manufacturing process chain from cold drawing processes to induction hardening – reducing dimensional changes and distortion" (Investigação e Melhoramento de uma Rota do Processo de Trefilação Combinada e Endurecimento por Indução para Minimização de Distorções e Mudanças de Forma) e está diretamente relacionado ao tema de estudo. As tensões residuais são aquelas presentes em um material quando não há atuação de forças externas ou presença de gradientes de temperatura, podendo gerar distorções de forma e empenamentos. Elas podem atuar de forma benéfica, para o caso de possuírem sentido contrário ao da carga de trabalho; ou maléfica, no caso do seu sinal ser o mesmo da carga aplicada em regime, o que gera, por exemplo, redução da vida em fadiga. Com a evolução dos softwares de modelagem e simulação numérica dos últimos 40 anos, a simulação computacional tem se mostrado uma importante ferramenta para prever o comportamento, as características geométricas e os parâmetros (velocidade, força, etc) dos processos de fabricação. Neste trabalho, foram simuladas numericamente através do método de elementos finitos as tensões residuais geradas durante a trefilação de barras redondas de aço AISI 1045, os resultados numéricos foram comparados com medições de tensões residuais via difração de nêutrons e com equações fornecidas pela literatura para avaliação de forças e deformações. Foram criados três modelos axissimétricos (mecânico axissimétrico, mecânico axissimétrico com fieira elástica, termomecânico axissimétrico) e outro tridimensional mecânico com o objetivo de reproduzir o processo de fabricação. Os parâmetros que alimentaram o software foram adquiridos de processos industriais em uso corrente e na literatura, dentre eles: o coeficiente de atrito do processo, a curva tensão-deformação das barras, as dimensões das barras e a velocidade de trefilação. A necessidade do conhecimento prévio do valor do coeficiente de atrito como um dado de entrada para o software impôs a realização de simulação computacional para o ensaio do anel, criando uma curva de calibração posteriormente confrontada com os resultados experimentais do mesmo ensaio. A curva de escoamento do material foi obtida através de ensaio de tração e as tensões residuais foram medidas via difração de nêutrons e comparadas com os resultados simulados. O modelo que indicou maior aproximação com os valores de força teórica foi escolhido para a variação de alguns parâmetros como: taxas de deformação, ângulos de fieira e configuração geométrica das reduções para se estimar a influência destes na geração de tensões residuais. A comparação entre os resultados de força e deformação analíticos e numéricos demonstrou que os modelos desenvolvidos descrevem corretamente o processo. Observou-se uma grande diferença entre os resultados de tensões residuais simulados e medidos via difração de nêutrons para o centro das barras na direção axial, principal responsável pelo surgimento de tensões residuais, que podem ser originados de erros da medição experimental e da não consideração de importantes fenômenos físicos que ocorrem no comportamento do material como o efeito Bauschinger e a anisotropia do material. A magnitude das tensões residuais na direção axial aumenta com o aumento do semi-ângulo de fieira; e as taxas de deformação não modificaram significativamente os resultados, demonstrando não afetar em grande escala o desenvolvimento das tensões residuais. O modelo com duas reduções de feira mostrou-se o que gera menores gradientes de tensão residual, diminuindo os valores compressivos no centro da barra, sendo este o sugerido como melhoramento do processo. / This work is part of international cooperation BRAGECRIM (Brazil-German Initiative for Research in Manufacturing Technology) of the project "Investigation and improvement of the manufacturing process chain from cold drawing to induction hardening processes - Reducing dimensional changes and distortion" is directly related to the topic of this study. Residual stresses are those present in a material when there is no action of external forces or presence of temperature gradients, it may lead distortions of form and warping. They can act in a beneficial way, in case they have opposite direction of the loading, or evil, in case your signal is the same under the applied stresses, which generates, for example, reduction of life in fadigue. The evolution of software modeling and numerical simulation of the last 40 years, computer simulation has become an important tool to predict the behavior, geometric characteristics and parameters (speed, strength, etc.) of manufacturing processes. In this work, the residual stresses generated during the drawing of round bars of steel AISI 1045 were numerically simulated using the finite element method, the numerical results were compared with measurements of residual stresses via neutron diffraction and equations given in the literature for evaluating forces and deformations. It was carried out three axisymmetric models (mechanical axisymmetric, axisymmetric with elastic die, thermomechanical axisymmetric) and other three-dimensional mechanical aiming to replicate the manufacturing process. The parameters that fed the software were acquired from industrial processes in current use and literature, among them: the coefficient of friction of the process, the stress-strain curve of the bars, the dimensions of the bars and wire drawing speed. The necessity of knowing the coefficient of friction as an input for the software imposed the implementation of computer simulation to ring test, to create a calibration curve to compare with the experimental results of the same test. The flow curve of the material was taken by tensile test and the residual stresses were measured via neutron diffraction and compared with the simulated results. The model that indicated closer values with theoretical force was chosen for the variation of some parameters such: strain rates, die angle and geometric configuration of the reductions to estimate their influence on the generation of residual stresses. The comparison between the results of theric force and deformation and numerical models developed showed that the models correctly describe the process. There was a big difference between the results of simulated and measured residual stresses via neutron diffraction in the center of the bars to the axial direction, the main responsible to the level of residual stresses, which can be derived from errors in the experimental measurement and the for not consider important physical phenomena occurring in the material behavior as the Bauschinger effect and anisotropy of the material. The magnitude of residual stresses in the axial direction increases with increasing die angle, and the strain rate did not change significantly the results showing no affect on a large field development of residual stresses. The model with two reductions showed lower gradients of residual stress, low compressive values in the center of the bar, which is suggested as a process improvement.
|
264 |
Metodologia para o desenvolvimento de sistemas de controle de APM (Automated People Movers) com aplicação ao sistema aeromovel de transporte de passageirosKunz, Guilherme de Oliveira January 2012 (has links)
Este trabalho consiste na proposição de uma metodologia que garanta o projeto efetivo de controladores para utilização em sistemas de proteção, operação e supervisão de sistemas APM (Automated People Movers), utilizando como estudo de caso o Sistema Aeromovel. Automated People Movers (APM) são sistemas de transporte de passageiros com operação completamente automatizada (sem tripulação), trafegando em vias exclusivas e com alta frequência de serviço. Geralmente são operados em via elevada, acima dos obstáculos encontrados no nível do solo, de maneira a manter o espaço urbano de circulação. A automação completa de trens para transporte de passageiros é geralmente condição essencial para sua viabilidade financeira nos casos onde tem-se veículos pequenos para prover alta frequência de serviço. Em parte, a confiabilidade de um veículo com operação completamente automatizada aumenta com o uso de vias exclusivas impedindo a interferência de outros veículos ou pessoas na via, porém, uma metodologia de desenvolvimento do sistema de proteção, operação e supervisão que diminua a taxa de falhas e suas consequências é necessária por tratar-se de um sistema crítico. Este trabalho apresenta uma revisão das soluções utilizadas na construção de Sistemas APM e daquelas adotadas no controle digital de sistemas automáticos. Descreve-se o processo de construção do sistema de proteção, operação e supervisão baseados na proposta de ampliação da norma IEC 61850 e prova-se a importância do uso do processo de simulação, verificação formal e os testes de conformidade no desenvolvimento de um sistema de controle seguro para aplicação em Sistemas APM. Para cada etapa do trabalho são apresentados os testes de conformidade para verificação do modelo de controle proposto. / This work consists in the proposition of a methodology that guarantees the effective design of controllers for use in protection, operation and monitoring Automated People Movers System, using as a case study Aeromovel system. Automated People Mover (APM) are systems of passenger transport with entirely automated operation (without crew), traveling in exclusive ways and with high service frequency. They are usually operated at elevated highway above the obstacles encountered on the ground level, so as to keep the urban space circulation. The complete automation of trains for passenger condition is necessary for their economic viability in the cases where they have small vehicles to supply high frequency of service. The reliability of an fully automated vehicle operation increases with the use of exclusive right-of-way preventing access from other vehicles or people on the track, however, the development of a methodology for protection, operation and monitoring systems is necessary to decrease the rate of failures and their consequences. This work presents a review of the solutions used in the construction of APM systems and the digital control of automated systems. We describe the construction process of the protection, operation and supervision systems based on the proposed extension of IEC 61850 and proves the importance use of the simulation, formal verification and conformity tests to develop a safe control system. For each stage of the work, the compliance tests to verify the proposed control model are presented.
|
265 |
Modeling and simulation of device variability and reliability at the electrical levelBrusamarello, Lucas January 2011 (has links)
O efeito das variações intrínsecas afetando parâmetros elétricos de circuitos fabricados com tecnologia CMOS de escala nanométrica apresenta novos desafios para o yield de circuitos integrados. Este trabalho apresenta modelos para representar variações físicas que afetam transistores projetados em escala sub-micrônica e metodologias computacionalmente eficientes para simular estes dispositivos utilizando ferramentas de Electronic Design Automation (EDA). O trabalho apresenta uma investigação sobre o estado-da-arte de modelos para variabilidade em nível de simulação de transistor. Modelos de variações no processo de fabricação (RDF, LER, etc) e confiabilidade (NBTI, RTS, etc) são investigados e um novo modelo estatístico para a simulação de Random Telegraph Signal (RTS) e Bias Temperature Instability (BTI) para circuitos digitais é proposta. A partir desses modelos de dispositivo, o trabalho propõe modelos eficientes para analisar a propagação desses fenômenos para o nível de circuito através de simulação. As simulações focam no impacto de variabilidade em três diferentes aspectos do projeto de circuitos integrados digitais: caracterização de biblioteca de células, análise de violações de tempo de hold e células SRAM. Monte Carlo é a técnica mais conhecida e mais simples para simular o impacto da variabilidade para o nível elétrico do circuito. Este trabalho emprega Monte Carlo para a análise do skew em redes de distribuição do sinal de relógio e em caracterização de células SRAM considerando RTS. Contudo, simulações Monte Carlo exigem tempo de execução elevado. A fim de acelerar a análise do impacto de variabilidade em biblioteca de células este trabalho apresenta duas alternativas aMonte Carlo: 1) propagação de erros usando aproximação linear de primeira ordem e 2)Metodologia de Superfície de Resposta (RSM). As técnicas são validados usando circuitos de nível comercial, como a rede de clock de um chip comercial utilizando a tecnologia de 90nm e uma biblioteca de células usando um nó tecnológico de 32nm. / In nanometer scale complementary metal-oxide-semiconductor (CMOS) parameter variations pose a challenge for the design of high yield integrated circuits. This work presents models that were developed to represent physical variations affecting Deep- Submicron (DSM) transistors and computationally efficient methodologies for simulating these devices using Electronic Design Automation (EDA) tools. An investigation on the state-of-the-art of computer models and methodologies for simulating transistor variability is performed. Modeling of process variability and aging are investigated and a new statistical model for simulation of Random Telegraph Signal (RTS) in digital circuits is proposed. The work then focuses on methodologies for simulating these models at circuit level. The simulations focus on the impact of variability to three relevant aspects of digital integrated circuits design: library characterization, analysis of hold time violations and Static Random Access Memory (SRAM) cells. Monte Carlo is regarded as the "golden reference" technique to simulate the impact of process variability at the circuit level. This work employs Monte Carlo for the analysis of hold time and SRAM characterization. However Monte Carlo can be extremely time consuming. In order to speed-up variability analysis this work presents linear sensitivity analysis and Response Surface Methodology (RSM) for substitutingMonte Carlo simulations for library characterization. The techniques are validated using production level circuits, such as the clock network of a commercial chip using 90nm technology node and a cell library using a state-of-theart 32nm technology node.
|
266 |
Alocação dinâmica de tarefas periódicas em NoCs malha com redução do consumo de energia / Energy-aware dynamic allocation of periodic tasks on mesh NoCsWronski, Fabio January 2007 (has links)
O objetivo deste trabalho é propor técnicas de alocação dinâmica de tarefas periódicas em MPSoCs homogêneos, com processadores interligados por uma rede emchip do tipo malha, visando redução do consumo de energia do sistema. O foco principal é a definição de uma heurística de alocação, não se considerando protocolos de escalonamento distribuído, uma vez que este ainda é um primeiro estudo para o desenvolvimento de um alocador dinâmico. Na arquitetura alvo utilizada, cada nodo do sistema é dado como autônomo, possuindo seu próprio escalonador EDF. Além disso, são aplicadas técnicas de voltage scaling e power managmenent para redução do consumo de energia durante o escalonamento. Durante a pesquisa do estado da arte, não foram encontradas técnicas de alocação dinâmica em NoCs com restrições temporais e minimização do consumo de energia. Por isso, esse trabalho se concentra em avaliar técnicas de alocação convencionais, como bin-packing e técnicas baseadas em teoria de grafos, no contexto de sistemas embarcados. Dessa forma, o modelo de estimativas do consumo de energia de alocações é baseado no escalonamento de grafos de tarefas, e foi utilizado para implementar a ferramenta Serpens com este propósito. Os grafos de tarefas utilizados nos experimentos são tirados do benchmark E3S – Embedded System Synthesis Benchmark Suite, composto por um conjunto de grafos de tarefas gerados aleatoriamente com a ferramenta TGFF – Task Graph for Free, a partir de dados de aplicações comuns em sistemas embarcados obtidos no EEMBC – Embedded Microprocessor Benchmark Consortium. Entre as heurísticas de bin-packing, Best-Fit, First-Fit e Next-Fit geram alocações com concentração de carga, enquanto a heurística Worst-Fit faz balanceamento de carga. O balanceamento de carga favorece a aplicação de voltage scaling enquanto a concentração favorece o power management. Como o bin-packing não contempla comunicação e dependência entre tarefas em seu modelo, o mesmo foi reformulado para atender esta necessidade. Nos experimentos, a alocação inicial com bin-packing original apresentou perdas de deadlines de até 84 % para a heurística Worst-Fit, passando para perdas em torno de 16% na alocação final, praticamente com o mesmo consumo de energia, após a reformulação do modelo. / The goal of this work is to offer dynamic allocation techniques of periodic tasks in mesh networks-on-chip, aiming to reduce the system power consumption. The main focus is the definition of an allocation heuristic, which does not consider distributed scheduling protocols, since this is the beginning of a study for the development of a dynamic partitioning tool. In the target architecture, each system node is self-contained, that is, the nodes contain their own EDF scheduler. Besides, voltage-scaling and power management techniques are applied for reducing power consumption during the scheduling. To the best of our knowledge, this is the first research effort considering both temporal constraints and power consumption minimization on the dynamic allocation of tasks in a mesh NoC. This way, our concentrates in the evaluation of dynamic allocation techniques, which are generally used in distributed systems, in the embedded systems context, as bin-packing and graph theory based techniques. Therefore, the estimation model for power consumption is based on task graph scheduling, and it was used for implementing the Serpens tool with this purpose. The task graphs used in the experiments were obtained from the E3S benchmark (Embedded System Synthesis Benchmark Suite), which is composed by a set of task graphs randomly generated with the TGFF tool (Task Graph for Free), from common application data obtained from the EEMBC (Embedded Microprocessor Benchmark Consortium). Among the bin-packing heuristics, Best-Fit, First-Fit, and Next-Fit generate allocations with load concentration, while the Worst-Fit heuristics works with load balancing. Load balancing favors the application of voltage scaling, while load concentration favors the utilization of power management. Since the bin-packing model does not consider inter-task communication and dependency, it has been modified to fulfill this need. In the experiments, the initial allocation using the original bin-packing model presented deadline losses of up to 84% for the Worst-Fit heuristic, changing for losses around 16% in the final allocation, after modification of the model, maintaining almost the same power consumption.
|
267 |
Extensão do suporte para simulação de defeitos em algoritmos distribuídos utilizando o Neko / Extension to support failures in distributed algorithm simulation using NekoRodrigues, Luiz Antonio January 2006 (has links)
O estudo e desenvolvimento de sistemas distribuídos é uma tarefa que demanda grande esforço e recursos. Por este motivo, a pesquisa em sistemas deste tipo pode ser auxiliada com o uso de simuladores, bem como por meio da emulação. A vantagem de se usar simuladores é que eles permitem obter resultados bastante satisfatórios sem causar impactos indesejados no mundo real e, conseqüentemente, evitando desperdícios de recursos. Além disto, testes em larga escala podem ser controlados e reproduzidos. Neste sentido, vem sendo desenvolvido desde 2000 um framework para simulação de algoritmos distribuídos denominado Neko. Por meio deste framework, algoritmos podem ser simulados em uma única máquina ou executados em uma rede real utilizando-se o mesmo código nos dois casos. Entretanto, através de um estudo realizado sobre os modelos de defeitos mais utilizados na literatura, verificou-se que o Neko é ainda bastante restrito nesta área. A única classe de defeito abordada, lá referida como colapso, permite apenas o bloqueio temporário de mensagens do processo. Assim, foram definidos mecanismos para a simulação das seguintes classes de defeitos: omissão de mensagens, colapso de processo, e alguns defeitos de rede tais como quebra de enlace, perda de mensagens e particionamento. A implementação foi feita em Java e as alterações necessárias no Neko estão documentadas no texto. Para dar suporte aos mecanismos de simulação de defeitos, foram feitas alterações no código fonte de algumas classes do framework, o que exige que a versão original seja alterada para utilizar as soluções. No entanto, qualquer aplicação desenvolvida anteriormente para a versão original poderá ser executada normalmente independente das modificações efetuadas. Para testar e validar as propostas e soluções desenvolvidas foram utilizados estudos de caso. Por fim, para facilitar o uso do Neko foi gerado um documento contendo informações sobre instalação, configuração e principais mecanismos disponíveis no simulador, incluindo o suporte a simulação de defeitos desenvolvido neste trabalho. / The study and development of distributed systems is a task that demands great effort and resources. For this reason, the research in systems of this type can be assisted by the use of simulators, as well as by means of the emulation. The advantage of using simulators is that, in general, they allow to get acceptable results without causing harming impacts in the real world and, consequently, preventing wastefulness of resources. Moreover, tests on a large scale can be controlled and reproduced. In this way, since 2000, a framework for the simulation of distributed algorithms called Neko has been developed. By means of this framework, algorithms can be simulated in a single machine or executed in a real network, using the same code in both cases. However, studying the most known and used failure models developed having in mind distributed systems, we realized that the support offered by Neko for failure simulation was too restrictive. The only developed failure class, originally named crash, allowed only a temporary blocking of process’ messages. Thus, mechanisms for the simulation of the following failure classes were defined in the present work: omission of messages, crash of processes, and some network failures such as link crash, message drop and partitioning. The implementation was developed in Java and the necessary modifications in Neko are registered in this text. To give support to the mechanisms for failure simulation, some changes were carried out in the source code of some classes of the framework, what means that the original version should be modified to use the proposed solutions. However, all legacy applications, developed for the original Neko version, keep whole compatibility and can be executed without being affected by the new changes. In this research, some case studies were used to test and validate the new failure classes. Finally, with the aim to facilitate the use of Neko, a document about the simulator, with information on how to install, to configure, the main available mechanisms and also on the developed support for failure simulation, was produced.
|
268 |
Simulação de uso de solo urbano utilizando uma abordagem baseada em sistemas multiagentes reativos / Land use simulation based in Multi-Agents Reactive SystemsBastos, André Dias January 2007 (has links)
O planejamento urbano é muito importante para garantir o desenvolvimento sustentável das cidades modernas. Para isso, muitos aspectos devem ser considerados, tais como o crescimento urbano das mesmas, uma vez que, o entendimento das dinâmicas desse fenômeno é um pré-requisito para modelar e prever tendências futuras de mudanças de uso do solo/cobertura da terra (LUCC) e seus impactos ecológicos. Como as cidades são sistemas complexos, que envolvem vários atores com diferentes padrões de comportamento, uma das mais promissoras classes de modelos urbanos designados para simular e analisar mudanças de uso do solo são as baseadas em Sistemas Multiagentes (SMA). Sendo assim, este trabalho descreve uma proposta de abordagem baseada em agentes reativos aplicados na tarefa de simulação de crescimento urbano para a cidade de Bauru/SP, utilizando dados geográficos, extraídos de imagens de satélite, da ocupação e utilização efetiva do uso do solo dessa cidade em um período de aproximadamente trinta e cinco anos, para calibrar e validar o simulador. / Urban planning is a very important issue to guarantee the sustainable development of modern cities. For this, many aspects must be considered such as the urban growth. Understanding the dynamics of this phenomenon is a prerequisite for modelling and forecasting future trends of urban land use/cover change (LUCC) and its ecological impacts. Cities being complex systems, which involve various actors with different patterns of behaviour, one of the most promising class of urban models designed to simulate and analyze LUCC are based in Multi-Agent System (MAS). Hence, this work describes a proposal based in reactive agents applied in the simulation of urban growth of the city of Bauru/SP, using geographic data, extracted from satellite images, of the occupation and land use in this city in a time span of approximately thirty five years, to calibrate and validate the simulator developed.
|
269 |
Estudo da linearidade da produção em células de manufatura através de simulação a eventos discretosBraghirolli, Lynceo Falavigna January 2009 (has links)
O atual meio no qual as empresas estão inseridas é caracterizado por mudanças freqüentes na demanda de seus produtos. Para que obtenham sucesso frente à concorrência, é necessário que as empresas saibam lidar com estas variações. No contexto da manufatura celular, uma das possibilidades de ajuste da produção à demanda é através da alteração do número de operadores que atuam nas células. Entretanto, o ambiente competitivo exige que tais mudanças não interfiram na produtividade da mão-de-obra, devido ao seu impacto nos custos. Assim, este trabalho visa estudar o efeito da alteração do número de operadores sobre a produtividade da mão-de-obra em células de manufatura. Neste contexto, é afirmado na literatura que existe uma relação linear entre o número de operadores e a produção das células, chamada linearidade da mão-de-obra. Esta linearidade é resultado da produtividade constante dos operadores, independentemente do número de operadores na célula. Através de três estudos de caso no setor metal-mecânico, foram observadas células em funcionamento para verificar esta relação. Utilizando-se a simulação computacional, para cada célula estudada foi gerado um modelo do estado atual que representa o funcionamento observado na célula, e um modelo alternativo que representa a célula com outro número de operadores. Os resultados obtidos na simulação do cenário alternativo foram confrontados com estimativas realizadas através da hipótese de linearidade da mão-de-obra. Dos três casos observados, apenas um apresentou comportamento linear. Os outros dois casos apresentaram um comportamento não-linear. Como fontes desta não-linearidade foram encontrados: o balanceamento das atividades entre os operadores, a relação entre os operadores e o tempo de ciclo automático dos equipamentos e a alteração nos deslocamentos dos operadores. / The current environment where companies operate is characterized by frequent changes in the demand for their products. To achieve success against competitors, it is necessary for companies to know how to deal with these variations. One of the possibilities of adjusting production to demand in the context of cellular manufacturing is by changing the number of operators in the cells. However, the competitive environment requires that such changes do not interfere in the labor productivity due to its impact on costs. This work aims to study the effect of changing the number of operators on the labor productivity in manufacturing cells. In this context, it is stated in the literature that there is a linear relationship between the number of operators and the cells production, called labor linearity. This linearity is a result of constant operator productivity, irrespective of the number of operators in the cell. Through three case studies in metal-mechanical sector, cells operations were observed to verify this relationship. Using computer simulation, a model was created that represents the current operational state observed in the cell for each cell studied, and an alternative model that represents a cell with another number of operators. The results obtained from the simulation of the alternative model were compared with estimates made on the assumption of labor linearity. Only one of the three cases observed showed linear behavior. The other two cases showed a nonlinear behavior. As sources of nonlinearity we found: the balance of activities between operators, the relation between the operators and the equipment automatic cycle time and the change in the displacement of the operators.
|
270 |
Análise das potencialidades e vantagens do uso da simulação computacional em operações logísticas complexas, como ferramenta de auxílio à tomada de decisões: estudo de caso em uma organização industrial.Carvalho, Leonardo Sanches de January 2006 (has links)
p. 1-114 / Submitted by Santiago Fabio (fabio.ssantiago@hotmail.com) on 2013-02-26T18:04:20Z
No. of bitstreams: 1
1313.pdf: 1362140 bytes, checksum: ff39c33519d140d7e1ab48e0d1f792c7 (MD5) / Approved for entry into archive by Maria Alice Ribeiro(malice@ufba.br) on 2013-05-02T14:32:27Z (GMT) No. of bitstreams: 1
1313.pdf: 1362140 bytes, checksum: ff39c33519d140d7e1ab48e0d1f792c7 (MD5) / Made available in DSpace on 2013-05-02T14:32:27Z (GMT). No. of bitstreams: 1
1313.pdf: 1362140 bytes, checksum: ff39c33519d140d7e1ab48e0d1f792c7 (MD5)
Previous issue date: 2006 / Esta dissertação se propõe a analisar potencialidades e vantagens de uso da modelagem e
simulação computacional em operações logísticas complexas como ferramenta de auxílio à
tomada de decisões. Para tanto, foi realizado um estudo de caso em uma organização
industrial baiana, localizada no Pólo Petroquímico de Camaçari, onde se aplicou a ferramenta
segundo o método de desenvolvimento de projetos de simulação computacional proposto por
Law & Kelton (1991). O desenvolvimento do projeto de simulação foi focado nas operações
logísticas de carregamento e expedição de caminhões com produtos a granel e embalados
(sacaria ou tambores). Essas operações foram caracterizadas de alta complexidade devido a
fatores como: existência de carregamentos mistos, diversos pontos de carregamentos,
problemas de contra-fluxo de caminhões, além de questões relacionadas à segurança
industrial, pelo fato de existir grande fluxo de caminhões próximo a áreas de produção.
Por conta de sua proposta de estudo, essa dissertação tem como substrato teórico uma
abordagem sobre a logística e sua evolução, processos de tomada de decisões em cenários
complexos, além de uma abordagem dos principais conceitos da modelagem e simulação
computacional.
No desenvolvimento da pesquisa, foram identificadas diversas aplicações vantajosas da
modelagem e simulação computacional, no entanto, decidiu-se focar na minimização do
contra-fluxo de caminhões existente. Daí a criação do índice de contra-fluxo e sua
metodologia de obtenção usando a ferramenta de modelagem e simulação computacional.
Após a análise dos resultados da simulação, em diversos cenários desenvolvidos e do
entendimento sistêmico da situação em estudo, identificou-se como oportunidade de melhoria
a relocação de um armazém, a transferência de alguns produtos críticos (grande demanda)
para outra área de carregamento, além da implantação de duas novas balanças rodoviárias.
A partir da análise dos resultados obtidos e das conclusões efetuadas é possível ter-se uma
idéia clara das vantagens e potencialidades do uso da modelagem e simulação computacional
como ferramenta de apoio em processos decisórios complexos nas operações logísticas de
unidades industriais. / Salvador
|
Page generated in 0.0866 seconds