• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 337
  • 14
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 357
  • 357
  • 173
  • 151
  • 108
  • 52
  • 51
  • 48
  • 45
  • 45
  • 41
  • 36
  • 35
  • 35
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Desenvolvimento de algoritmos para análise e modelagem variográfica

Drumond, David Alvarenga January 2016 (has links)
A análise da continuidade espacial inclui uma série de ferramentas para estimar e modelar a continuidade de variáveis aleatórias regionalizadas. Ela é a base para muitas das avaliações de depósitos minerais baseadas na geoestatísitca. O modelo ajustado é de grande importância e influencia nos resultados em vários algoritmos de krigagem e simulações subsequentes. Tanto os softwares acadêmicos e comerciais podem melhorar no desenvolvimento dos gráficos, na interatividade com o usuário e no uso de formas automáticas de modelagem. O SGeMS (Stanford Geoestatistical Modeling Software) é um programa gratuito usado entre a comunidade de geoestatísticos ao qual tem um grande potencial de desenvolvimento, mas que, no entanto, ainda não possui todas as ferramentas de análise da continuidade espacial incorporadas. Diferentemente do SGeMS, o GSLIB é uma boa biblioteca gratuita para análise geoestatística e é mais completa, mas as estradas do programa são modificadas pela edição de arquivos .txt e usando linhas de comando o que torna a utilização do software pouco amigável com o usuário, apesar da robustez e qualidade dos programas da biblioteca. Dada as limitações dos mais usados e completos softwares gratuitos de geoestatística, essa dissertação objetiva a transcrição e adaptação do algoritmo do GSLIB (GamV .f) para o software SGeMS, modificando a lógica de programação para criar diferentes ferramentas auxiliares como h-scatterplots e mapas de variograma e covariograma. Os resultados demonstraram que a adaptação de algoritmos antigos leva a uma solução gratuita. Além disso, um algoritmo para a otimização da modelagem de variogramas pelo método dos mínimos quadrados foi desenvolvido. As rotinas foram desenvolvidas ambas em C++ e em Python. Os algoritmos foram validados com os valores obtidos pelo software GSLIB. Todos os desenvolvimentos dos plug-ins foram testados e validados usando dois casos ilustrativos: um depósito de ferro e um caso polimetálico. Os resultados provaram ser consistentes e similares com aqueles obtidos com softwares comerciais e renomados. / The spatial continuity analysis includes a serie of tools to estimate and model the continuity of regionalized random variables. It is the basics for many mineral deposit evaluation methods based on geostatistics. The model adjusted is of paramount importance and influences the results in many subsequent kriging and simulation algorithms. Both commercial and academic softwares can be improved in graphics, users interactivity with and automated tools for modeling spatial continuity. SGeMS (Stanford Geoestatistical Modeling Software) is a freeware program used among the geostatistical community which has an extremely potential for development however it does not have enough variographic or graphical tools. Unlike SGeMS, GSLIB is a good and more complete free library for geostatistical analysis, however the program inputs are modified by editing of .txt files and uses DOS command lines. This makes the software less user friendly, despite its robustness and quality. Given the limitation on both most used and complete freeware geostatistical softwares, this dissertation aims at transcripting and adpating an algorithm from GSLIB(GamV.f) into SGeMS software, handling the programming logic to create different auxiliary tools as h-scatterplot and variomaps. The results demonstrated that the adaptation of the old and stable algortihms lead to an inexpensive solution. Futhermore, an algorithm was developed for optimizing variogram modeling based on weigthed least squares method. The routines were developed in both C++ and Phyton. The algorithms were validated against actual values generated by GSLIB. All developed of plug-ins were tested and validated using two illustration studies: an iron ore deposit and a polymetallic one. The results proved to be consistent and similar to the ones obtained by commercial well known sofwares.
72

Identificando fontes de dados em modelos de processos de negócios com base em elementos de BPMN

Balbinot, Marcelo January 2017 (has links)
A Notação e Modelo de Processo de Negócio (BPMN - Business Process Model and Notation) possibilita apresentar informações sobre o fluxo de dados de um processo por meio de dados e artefatos, tais como objetos, associações e repositórios de dados. No entanto, esses elementos apresentam poder de expressão limitado, principalmente quando se referem ao mapeamento das fontes de dados (ex.: serviço web) em um modelo de processo. Neste contexto, o presente trabalho propõe uma abordagem para associar fontes de dados a elementos de BPMN (ex.: tarefa de serviço). Tal abordagem deve servir como um ponto de partida para profissionais de gerenciamento de processos de negócio quanto ao mapeamento, na etapa de modelagem, da fonte de dados que está sendo utilizada pelo processo, através da utilização de elementos de BPMN. Visando demonstrar os resultados, foram evidenciadas cinco correlações, que são chamadas de “propostas de definições”, seguidas por sua descrição textual e um exemplo de uso. Essas propostas de definições, juntamente com as fontes de dados utilizadas, foram avaliadas por meio de uma pesquisa de opinião. Como resultado, destaca-se que as fontes de dados selecionadas foram validadas pelos participantes da pesquisa de opinião, que demonstraram conhecimento em ao menos uma das fontes de dados, fornecendo indícios que as fontes de dados selecionadas são as mais apropriadas para o trabalho em questão. Ainda, como resultados, as propostas de definições foram validadas com os participantes, obtendo resultados positivos quanto aos fragmentos de processo elaborados para representar as fontes de dados internos, transferência de arquivos e base de dados compartilhada. A principal contribuição deste trabalho é auxiliar na identificação de fontes de dados de um processo de negócio, a partir do conjunto de elementos disponibilizado pela BPMN 2.0.2, onde, anteriormente, tal identificação era possível apenas através da documentação do processo. / Business Process Model and Notation (BPMN) makes it possible to display information about the data flow of a process through data and artifacts such as objects, associations and data stores. However, these elements provide a limited capacity, especially when referring to the mapping of the data sources (e.g. web service) in a process model. In this context, this paper proposes an approach to associate data sources to BPMN elements (e.g. service task). Such approach aims to serve as a starting point to business process management professionals in order to map, in design time, the data source that is being used by the process, through the use of BPMN elements. In order to demonstrate the results, five correlations were evidenced, which are called “definitions proposals”, followed by their textual description and an example of use. These definitions proposals, together with the data sources used, were evaluated through a survey. As a result, the selected data sources were validated by the participants of the survey that demonstrated knowledge in at least one of the data sources, providing evidence that the selected data sources are the most appropriated for the work concerned. Also, as results, the definitions proposals were validated with the participants, obtaining positive results regarding to the process fragments designed to represent the data sources internal data, file transfer and shared database. The main contribution of this thesis is to assist the identification of data sources of a business process, from the set of elements provided by BPMN 2.0.2, where, previously, such identification was only possible through the process documentation.
73

Análise da confiabilidade da ligação laje-pilar interno sob punção de acordo com a NBR-6118:2014 / Reliability analysis of the slab-column intersection under puching according to NBR 6118:2014

Silva, Gustavo Ribeiro da January 2017 (has links)
As demandas do mercado da construção civil têm exigido vãos cada vez maiores e ao mesmo tempo alturas cada vez menores das vigas. Isto tem levado muitos projetistas à adoção da solução do pavimento em laje lisa em concreto armado ou protendido. No entanto, a ausência das vigas torna possível a ruptura das lajes por puncionamento junto aos pilares. A norma NBR-6118:2014 prescreve as disposições para o projeto de lajes sob punção. O trabalho proposto teve como objetivo principal a análise da confiabilidade da ligação laje-pilar interno sob o efeito da punção em lajes que se apoiam diretamente sobre pilares de acordo com a NBR-6118:2014. Primeiramente, com o intuito de se entender melhor o fenômeno da punção, realizou-se uma breve revisão bibliográfica, identificando os principais parâmetros que influenciam na resistência da ligação, assim como os principais métodos de análise e trabalhos realizados na área. Em seguida, estudou-se o software de análise em elementos finitos ANSYS (Analysis Systems Incorporated), especificamente a ferramenta UPF (User Programmable Features), que foi utilizada para adoção de um modelo constitutivo para o concreto. Utilizando o software, foram modeladas lajes estudadas por outros autores, visando a validação do modelo numérico. Para o estudo da confiabilidade foi dimensionado um conjunto de lajes lisas seguindo as prescrições da NBR 6118:2014. A análise da confiabilidade foi realizada utilizando a ferramenta PDS (Probabilistic Design System), empregando o método de simulação numérica de Monte Carlo com amostragem por Latin Hypercube. Por fim, determinou-se o índice de confiabilidade em cada projeto e realizaram-se análises paramétricas com as variáveis adotadas no trabalho. Os resultados obtidos mostraram que as lajes lisas sem armadura de cisalhamento projetadas segundo a NBR 6118:2014 obtiveram, em sua maioria, índices de confiabilidade adequados. Porém, para as lajes lisas com armadura de cisalhamento, o índice de confiabilidade foi, em grande parte, menor que o índice de confiabilidade alvo adotado. / The demands of the construction market have required increasingly large spans while diminishing of the beam heights. This has led many designers to adopt the pavement solucion of reinforced or prestressed concrete flat slab. However, the absence of the beams makes it possible to slabs failure by punching shear. The Standard NBR-6118: 2014 prescribes the requirements for the design of slabs under punching. The aim of this work was to analyze the reliability of the internal slab-column intersection under punching in slabs supported directly on columns according to NBR-6118: 2014. Firstly, in order to better understand the punching phenomenon, a brief bibliographic review was carried out, identifying the main parameters that influence the connection strength, as well as the main methods of analysis and published in the area. Then, the finite element analysis software ANSYS (Analysis Systems Incorporated), specifically the UPF (User Programmable Features) tool, was used to adopt a concrete constitutive model. Using the software, slabs studied by other authors were modeled, aiming at the validation of the numerical model. For the reliability study, a set of flat slabs was designed following the requirements of NBR 6118: 2014. The reliability analysis was performed using the PDS (Probabilistic Design System) tool, using the Monte Carlo numerical simulation method with Latin Hypercube sampling. Finally, the reliability index was determined in each project and parametric analyzes were performed with the variables adopted in the study. The results from this study show that the flat slabs without shear reinforcement designed according to NBR Standarts obtained appropriate reliability index. However, for the flat slabs with shear reinforcement, the reliability index, in most cases, did not achieve the target reliability index.
74

Modelagem geológica implícita com funções distância assinaladas

Rolo, Roberto Mentzingen January 2017 (has links)
Previamente à cada estimativa ou simulação geoestatística os domínios geológicos do depósito devem ser modelados, o que tradicionalmente é feito de forma manual por um geomodelador, em um processo laborioso, demorado e subjetivo. Por essa razão novas técnicas conhecidas como métodos implícitos veem surgindo. Essas técnicas fornecem algoritmos que substituem o processo de digitalização manual dos métodos explícitos por alguma forma de procedimento automático. Essa dissertação visita alguns métodos implícitos bem estabelecidos com atenção especial à modelagem geológica implícita com funções distância assinalada. Um estudo de caso em um banco de dados real é apresentado e a aplicabilidade do método discutida. Embora não substitua por completo um geomodelador experiente, o método provou ser capaz de gerar modelos geológicos semi-automáticos realistas a partir dos dados amostrais, e se mostra útil principalmente nas fases iniciais da pesquisa mineral. / Prior to every geostatistical estimation or simulation study there is a need for delimiting the geologic domains of the deposit, which is traditionally done manually by a geomodeler in a laborious, time consuming and subjective process. For this reason, novel techniques referred to as implicit modelling have appeared. These techniques provide algorithms that replace the manual digitization process of the traditional methods by some form of automatic procedure. This dissertation covers a few well established implicit methods currently available with special attention to the signed distance function methodology. A case study based on a real dataset was performed and its applicability discussed. Although it did not replace an experienced geomodeler, the method proved to be capable in creating semi-automatic geological models from the sampling data, especially in the early stages of exploration.
75

Pedestrian simulation : a route choice model to assess urban environments

Werberich, Bruno Rocha January 2017 (has links)
The design of new facilities - buildings, shopping centers, public transport stations, airports, or intersections of urban roads - should consider delays resulting from intense pedestrians’ flows in order to make its' operation more efficient. The general objective of this doctoral thesis is to propose a simulation model to represent pedestrians’ behavior in urban environments. Simulation models should allow planning these environments in order to provide greater levels of comfort and safety for the pedestrian. Agent-based abstraction has been widely used for pedestrian modeling, mainly due to its capacity to represent complex entities. Agent-based models represent agents’ decision-making ability based on their profile and perception over the environment. One of the most important pedestrians’ activities is the route choice. This document describes the development of a route choice model based on friction forces. The route cost calculation considers a balance between distance and the impedance generated by other pedestrians. Simulations runs shown that pedestrians choosing longer routes can have similar or better travel times. The ability of choosing not only the shorter route brings more realistic behaviors for the pedestrians’ representation, especially with small differences in route lengths and higher congestion. On the proposed model agents were modeled with partial knowledge of the network conditions. The knowledge was limited considering the pedestrian estimated field of view. In the real world it is not possible to know the network state before turning the corner. The model was validated and calibrated with real data. Calibrating a pedestrian route choice model is a complex task mainly for two reasons: (i) Many factors interfere on pedestrians’ route choice; (ii) data collection is difficult. To overcome these difficulties real pedestrians were studied in a controlled environment. An experiment was set up inside the university campus. After the calibration process the model was able to simulate a real scenario. Proposed model was applied to simulate a shopping mall environment. Simulate the pedestrians shopping behavior is particularly complex once route choice in shopping malls may be defined by a number of causal factors. Shoppers may follow a pre-defined schedule; they may be influenced by other people walking, or may want to get a glimpse of a familiar shopping. Analysis from simulations indicates that the agents’ behavior provides a promising approach for real case applications.
76

Um banco de dados de perfis sigma aberto e extensível

Ferrarini, Fabrício January 2017 (has links)
Modelos de atividade baseados em COSMO se apresentam como uma interessante alternativa para a predição do comportamento de substâncias em mistura. Estes modelos dependem apenas de informações das substâncias puras, como volume e área superficial e outra informação conhecida como perfil sigma, que podem ser determinados através de cálculos de química quântica computacional. O presente trabalho tem por objetivo criar e disponibilizar gratuitamente um banco de dados de perfis sigma para um vasto conjunto de moléculas utilizando o software GAMESS. Para a criação desse banco de dados com informações confiáveis de perfis sigma, foram testados diferentes níveis de teoria para o cálculo da estrutura eletrônica das moléculas, bem como conjuntos de bases distintos, considerando funções de polarização e efeitos difusos. Para realizar a validação dos perfis sigma obtidos, foram estimados valores de coeficientes de atividade em diluição infinita, obtidos através do modelo COSMO-SAC para um conjunto de 689 misturas, as quais não apresentam ligação de hidrogênio. A correlação com os valores de coeficiente de atividade em diluição infinita (IDAC) experimentais, foram construídos gráficos do logaritmo natural de IDAC experimentais e aqueles calculados pelo modelo. O tempo computacional total para obter os perfis sigma também foi avaliado com o intuito de escolher a melhor combinação de teoria e função de base. Dentre os métodos analisados, a teoria de Hartree-Fock (HF) com a função de base 6-311G(d,p) apresentou um bom custo benefício no que se refere ao tempo computacional e a precisão dos resultados frente a dados experimentais, apresentando um coeficiente de determinação superior a 0,94. A partir desses resultados, foi possível criar outros perfis sigma para um número maior de moléculas e disponibilizar essas informações em um banco de dados criado na plataforma do GitHub. / COSMO-based activity coefficient models are widely used to predict non-ideality in mixtures. They require only pure substance properties, such as the -profile, a representation of the screening charge density along the molecular surface. The present work aims to create and freely distribute a -profile database which can be easily extended by the community using the free GAMESS quantum chemistry (QC) package. Different combinations of QC methods and basis sets were tested in the calculation of the -profiles, aiming to define an efficient approach to create the database. The accuracy of COSMO-SAC predictions using these -profiles was evaluated by comparison with experimental infinite dilution activity coefficients and phase equilibrium diagrams. Among the studied alternatives, the Hartree-Fock method with the 6-311G(d,p) basis set led to results with a good balance between accuracy and computational cost. Our database was created using this approach, and it is already available to be used and extended by the community without requiring any commercial software.
77

Ecossistemas digitais de aprendizagem: autoria, colaboração, imersão e mobilidade. / Digital learning ecosystems: authoring, collaboration, immersion and mobility.

Ficheman, Irene Karaguilla 24 October 2008 (has links)
A rápida evolução e a ampla disseminação de tecnologias digitais estão mudando o contexto e o perfil dos aprendizes que hoje circulam naturalmente entre espaços físicos, espaços virtuais e espaços sociais diferentes, aprendendo em contextos formais e informais. Paradigmas educacionais atuais defendem a aprendizagem centrada no aprendiz que constrói seu conhecimento ao criar e desenvolver projetos, ao interagir com os objetos de estudo, com seus pares, com seus professores e mentores. A análise de requisitos etapa fundamental do desenvolvimento de uma ferramenta digital - concentra-se essencialmente em aspectos computacionais a partir da identificação de fluxos de entrada e saída e dos processos que a ferramenta deverá executar. Entretanto, a análise de requisitos é difícil de ser conduzida quando os conteúdos e inter-relações são complexos e dinâmicos. Recentemente, a abordagem de ecossistemas tem sido usada para entender ou modelar fenômenos que surgem da tecnologia e de seu uso. Propomos utilizar esta abordagem para conceber novas ferramentas digitais de aprendizagem ao analisar seus requisitos, ou para analisar ferramentas existentes. Assim, propomos neste trabalho uma definição e um modelo de Ecossistema Digital de Aprendizagem, que podem ser aplicados tanto na concepção de novas ferramentas educacionais quanto na análise para melhoria de ferramentas existentes. Um conjunto de artefatos, resultantes do detalhamento do modelo, é apresentado a fim de auxiliar na utilização do mesmo. A avaliação da aplicabilidade do modelo foi realizada por meio de sua utilização em estudos de caso de ferramentas educacionais desenvolvidas anteriormente. A aplicação do modelo evidenciou aspectos que não foram contemplados com abordagens tradicionais e permitiu levantar possíveis modificações e ampliações que podem levar a um estágio mais maduro do ecossistema. Os resultados obtidos com a aplicação do modelo na análise de ferramentas existentes apontam caminhos promissores para que esta estratégia seja usada na concepção de novas ferramentas educacionais de aprendizagem. / The rapid evolution and dissemination of digital technology are changing the learners context and profile. Learners move naturally between different physical spaces, different virtual spaces and different social spaces, engaging in learning activities in formal and informal contexts. Educational paradigms defend a learner centered approach, where learners construct their knowledge creating and developing projects, interacting with learning objects, with their peers, their teachers and mentors. Requirements analysis is a fundamental phase in the development of digital tools and concentrates essentially on computational aspects consisting on the identification of the tools input and output flows as well as processing. Nevertheless, requirements analysis is difficult to conduct when contents and relations are complex and dynamic. Recently, the ecosystem approach has been used to understand and to model phenomena that appear from the technology and its use. We propose to use this approach to conceive new digital learning tools, analyzing its requirements, or to use this approach to analyze existing tools. Therefore we propose in this research a Digital Learning Ecosystem definition and model that can be applied to the conception of new educational tools, as well as to analyze and improve existing tools. The detailed model includes a set of artifacts that can support its application. The model applicability evaluation was achieved by applying it on previously developed study cases. The model application showed some aspects that were not considered with traditional approaches and raised possible modifications and extensions that can lead to a mature stage of the ecosystem. The model application analysis of existing tools showed promising results and indicate that this approach can be used to conceive new educational learning tools.
78

Uma modelagem computacional de áreas corticais do sistema visual humano associadas à percepção de profundidade

Oliveira, Hallysson 15 July 2005 (has links)
Made available in DSpace on 2016-12-23T14:33:34Z (GMT). No. of bitstreams: 1 dissertacao.pdf: 7639680 bytes, checksum: bafdf34994fbf543be654c45e264bc74 (MD5) Previous issue date: 2005-07-15 / The images formed on the human retinas has only two dimensions, however the brain is capable of synthesizing a three-dimensional representation with color, shape and depth information about the environment surroundings. For in such a way, after choosing a point in the 3-D space, the eyes verge to this fixation point and, at the same time, the visual system is fed back with eyes placement information, supplied by ocular motor system, considering them as the distance of this point to the observer. The depth perception around the vergence point may be got by estimating the disparity, the positional difference between the two retinal projections of a given point in space results from the horizontal separation of the eyes. Most of the depth perception processing is done by visual cortex, mainly in V1 and MT areas. This work presents a modeling and implementation of a mathematical computational neural architecture that represents the V1 and MT cortical areas, based in visual cortex neurophysiology, used to create in a computer a 3-D representation of the surrounds, using images from two cameras connected to this computer. This model implementation was based upon Gabor filters and log-polar mapping. With this model it is possible to make a disparity map of the images and thus calculate the 3-D spatial position of each image point represented in the disparity map. This way it is possible to create a 3-D representation of the surrounds in a computer. / As imagens projetadas nas retinas humanas são bidimensionais, entretanto o cérebro é capaz de sintetizar uma representação tridimensional com informações sobre cor, forma e profundidade a respeito os objetos no ambiente ao seu redor. Para tanto, após escolher um ponto no espaço 3-D, os olhos vergem para este ponto de fixação e, em paralelo, o sistema visual é realimentado com informações sobre o posicionamento dos olhos, fornecidas pelo sistema óculo-motor, interpretando-as como a distância deste ponto ao observador. A percepção de profundidade ao redor do ponto de vergência pode ser obtida estimando a disparidade, isto é, a diferença de posição entre pontos correspondentes nas retinas, causada pela separação horizontal dos olhos na cabeça. A maior parte do processamento necessário à percepção da profundidade é realizada pelo córtex visual, principalmente nas áreas V1 e MT. Neste trabalho é apresentada uma modelagem e implementação matemático-computacional de uma arquitetura neural, representando as áreas corticais V1 e MT, baseada em estudos da neurofisiologia do córtex visual com o intuito de criar num computador uma representação tridimensional do mundo externo, a partir de imagens obtidas de duas câmeras acopladas a este computador. A implementação deste modelo foi baseada em filtros de Gabor e mapeamento log-polar da retina para o córtex. Com este modelo é possível construir um mapa das disparidades entre as imagens e, a partir deste mapa, calcular a posição no espaço tridimensional de cada ponto da imagem representado no mapa. Desta forma, é possível criar uma representação tridimensional interna ao computador do ambiente ao seu redor.
79

Desenvolvimento de uma ferramenta para aquisição de pontos em imagens digitais para a utilização no cálculo de temperaturas através de modelagem computacional

Karla da Silva Lemos Santos, Sylvana January 2007 (has links)
Made available in DSpace on 2014-06-12T17:39:56Z (GMT). No. of bitstreams: 2 arquivo7546_1.pdf: 4605862 bytes, checksum: 4ed4e70877f0b091f38b763ca545e9b2 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2007 / A hipertermia é um dos procedimentos médicos usados para tratar diversos tumores não-operáveis. Alguns tumores da próstata encontram-se nessa categoria, podendo ser submetidos, por exemplo, à radiofreqüência. Este procedimento pode elevar a temperatura em tecidos sadios vizinhos ao tumor, chegando a causar dano térmico aos mesmos. A dificuldade na medição das temperaturas in vivo motivou o desenvolvimento de um modelo numérico bidimensional para cálculo do campo de temperaturas na região de interesse, usando o método dos volumes finitos (MVF), aplicado a malhas não-estruturadas. Para tal, foram usadas a Equação da Biotransferência de Calor (BHTE) e a função dano térmica. Estudos anteriores efetuaram cálculos transitórios de temperaturas em tumores de duodeno irradiados por fontes de laser, a partir de imagens obtidas em um atlas médico. No presente trabalho, foi desenvolvido um processo de aquisição de pontos do domínio das imagens de forma semi-automática, além de dar início ao uso de imagens reais, no caso uma imagem de ressonância magnética (RM) de um tumor de próstata. Estes dois pontos significam uma melhoria em relação ao processo anteriormente adotado, no qual a definição do domínio era feita manualmente, através de um programa de CAD. Tal melhoria faz com que alguns possíveis erros envolvidos na simulação numérica sejam minimizados. Para a obtenção dos pontos das regiões da imagem foi desenvolvido o programa APID Aquisição de Pontos em Imagens Digitais, utilizando a plataforma MATLAB. Nesta plataforma, foi desenvolvida uma interface gráfica com o usuário, onde os pontos do contorno das regiões a serem analisadas são adquiridos de forma mais automatizada, se comparada com a metodologia anteriormente utilizada. Em seguida, utilizando um gerador bidimensional de malhas não-estruturadas, denominado GERAMIX, é gerada a malha nos domínios pré-estabelecidos e as temperaturas são calculadas utilizando o programa HEATFVM2D, desenvolvido neste programa de pós-graduação. A técnica desenvolvida permite obter o campo de temperaturas de forma precisa, desde que se utilizem imagens radiográficas reais do tumor, independentemente de sua forma. São também necessários dados reais sobre a fonte de calor utilizada no processo de hipertermia e de parâmetros físicos dos tecidos vivos. A idéia subjacente desenvolvida no presente trabalho é se obter uma distribuição de temperaturas a partir daquela já conhecida, usando técnicas Monte Carlo (MC), ou seja, utilizando uma função densidade de probabilidade uniforme bidimensional, onde a média e o desvio padrão são ajustados para os valores anteriormente calculados. Finalmente, é feita uma avaliação dos resultados obtidos utilizando cada um dos métodos numéricos: o MVF e o MC
80

Modelagem computacional da dispersão da pluma do efluente dos emissários submarinos do TEBAR Petrobrás. / Computational modelling of dispersion plumme discharge from TEBAR / PETROBRÁS submarine outfalls.

Ricardo de Mattos Fortis 07 December 2005 (has links)
O Terminal Almirante Barroso – TEBAR, de propriedade da Petrobrás, está localizado no Canal de São Sebastião – CSS, onde lança seus efluentes através de dois emissários submarinos com sistema difusor, ambos de polietileno de alta densidade - PEAD. Cada seção difusora é constituída de três risers com 0,15m de diâmetro e 1,5m de altura, a uma profundidade que varia entre 19,15 e 25,45m. A intensidade média de corrente no canal é da ordem de 0,40 a 0,60m/s, com direção preferencial NE. O efluente possui altas concentrações de amônia (máxima de 125,5,mg/L em abril de 2001) que ultrapassam o padrão de emissão estabelecido pela Resolução Conama 20/86 (Artigo 21 - 5,0mg NH3/L), além de ser caracterizado como um efluente denso devido a alta concentração de salinidade. Para compreender o processo de dispersão do contaminante amônia e o perfil hidrodinâmico da pluma do efluente dos emissários submarinos do TEBAR, utilizou-se a modelagem computacional como uma ferramenta de análise do processo da dispersão de efluentes em corpos d’água, e também como suporte na decisão das agências ambientais e dos processos industriais frente a exigência de atendimento à legislação. Dois diferentes métodos foram utilizados, o método integral (software CORMIX) e o método dos volumes finitos (software FLUENT). O CORMIX é um programa especialista largamente utilizado na análise do campo próximo do lançamento de efluentes por emissários submarinos, enquanto que, no FLUENT pode-se considerar os efeitos da batimetria (Carta Náutica n0 1643 da Marinha do Brasil) e analisar tanto o campo próximo quanto o campo distante. Os resultados de ambos os métodos apresentaram uma pluma com empuxo negativo, que submerge após alguns metros do lançamento, acarretando em um forte impacto bêntico na área circunvizinha do sistema difusor. Os resultados da dispersão do contaminante apresentados pelo CORMIX, para este estudo, foram extremamente conservadores, onde o padrão de qualidade das águas somente é atingido a grandes distâncias do lançamento (200m). Os resultados do FLUENT estão de acordo com os estudos de monitoramento da qualidade da água e de diluição de traçadores fluorimétricos, atingindo o padrão de qualidade das águas a poucos metros do lançamento (15m). / The Almirante Barroso Oil Terminal – TEBAR, property of Petrobrás, is located at São Sebastião Channel – CSS, which effluent is discharged through two submarine outfalls build of HDPE – High Density Polyethylene. Both of them has three risers with 0.15m of diameter and 1.5m of height, and are located between 19.15m and 25.45m of depth. The medium current velocity is between 0.40m/s and 0.60m/s to northward (NW). The effluent was sampled from April 2000 to March 2002 by Petrobrás. In this period, it was founded high concentrations of ammonia (125.5mg/L in April 2001), trespassing the limit value for emission of CONAMA 20 Resolution – Art.21 (5mg/L). The salinity of effluent is of order 52.8% at a temperature of 27.3ºC for the same period. This range of values results in a density of 1037 kg/m3. Computer modeling uses for the waste water dispersion process and the hydrodynamic profile description in water bodies is a modern tool as a decision support for the environmental agencies and for the industries in order to verify the standard water quality. Two different computer techniques are used in this present work, integral methods (software CORMIX) ), which conduct to the dilution results of the plume in the near field, and finite volume methods (software FLUENT) where its possible to analyze the effects of a variable batimetries (Nautical Map n0 1643 - Marinha do Brasil) and to consider the near and far dispersion process. Both softwares showed that effluent plume has negative buoyancy, ocurring a strong impact benthic in the vicinity area of submarine outfall. The FLUENT application permits obtain results for near-field and far-field with no restrictions of bathymetry and port discharge geometry but the computational cost is higher compared with classical software used to prevent plume dispersion from submarine outfalls and which are based in gaussian integral methods (CORMIX). In this present work, the CONAMA 20 Resolution for ammonia (C = 0,4mg/L) is attended around 15m for FLUENT and 200m for CORMIX, far from ports.

Page generated in 0.1096 seconds