• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 191
  • 13
  • 13
  • 13
  • 13
  • 12
  • 8
  • 5
  • 2
  • 1
  • 1
  • Tagged with
  • 208
  • 208
  • 85
  • 72
  • 29
  • 24
  • 21
  • 20
  • 19
  • 19
  • 19
  • 18
  • 17
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Modelagem de microbomba peristaltica de elastomero usando a tecnica de analogias eletro-mecanicas / Modeling peristaltic micropump with electro-mechanical analogies

Espindola, Alexey Marques 24 February 2006 (has links)
Orientador: Luiz Otavio Saraiva Ferreira / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica / Made available in DSpace on 2018-08-06T16:27:32Z (GMT). No. of bitstreams: 1 Espindola_AlexeyMarques_M.pdf: 1293939 bytes, checksum: 66ab2d16dc552294762d6c3708cda71b (MD5) Previous issue date: 2006 / Resumo: Os sistemas microfluidicos estão evoluindo rapidamente, encontrando vastas aplicações na mais diversas áreas do conhecimento. Os Lab-on-Chips, LOCs, são dispositivos capazes de realizar análises químicas e bioquímicas em um único chip. Este dispositivo pode causar grande impacto no mercado de análises laboratoriais, por este motivo vem ganhando grande atenção Para realizar estas análises os LOCs necessitam de microbombas capazes de transportar quantidades ínfimas de fluidos em seus canais de maneira acurada e uniforme. Desta forma, o interesse em modelar e fabricar microbombas tomou-se uma área fértil para a pesquisa. Neste trabalho foi desenvolvida a modelagem de uma microbomba peristáltica de elastõmero, tipo de bomba mais conveniente para Lab-on-Chips, utilizando a técnica de analogias eletro-mecânicas que consiste em representar um dispositivo por um circuito elétrico equivalente. As análises das simulações podem ser realizadas usando programas de análise de circuitos elétricos. Dois modelos foram apresentados neste trabalho. O primeiro é a reprodução do modelo de bomba criado por Jacques Goulpeau, em que o modelo de uma válvula é extrapolando para toda a microbomba. O segundo contém o circuito elétrico equivalente da bomba completa mostrando a interações entre suas partes. Os resultados mostram que o comportamento da microbomba não pode ser completamente descrito pelo modelo extrapolado a partir de uma válvula, devido às interações entre três válvulas. As simulações do circuito equivalente da bomba completa mostraram que os efeitos das interações entre as válvulas explicam claramente a diferença entre a vazão prevista pelo modelo de Goulpeau e os dados experimentais por ele obtidos, sendo possível ajustar o modelo aos dados experimentais / Abstract: Microfluidies systems are growing rapidly, finding a large nwnber of applications in many fields. Lab-on-ehips, LOC, are deviees that ean perform ehemical and biochemical analyses in a ehip. This device ean cause high impact on laboratorial analyses market, and then it is gaining large attention. In order to execute these analyses on LOC, mieropumps are necessary to transport a tiny quantity of fluid between the channeIs with accuracy and uniformity. Thus, the interests of modeling and fabrication mieropwnps are increasing and become a fertile research field. The goal of this work were a modeling of elastomer peristaltic micropwnp, the most suitable pwnp for LOCs, using the electro- mechanical analogy technique that consist in represent the device in a electrical equivalent networks. Then the simulation analyses can be done on electrical simulation tools. Two models were presented in this work. The first is reproduction of the pwnp model made by Jacques Goulpeau et aI., where the valve model is extrapolated to the whole mieropwnp. The second contains the electrical equivalent circuit that represents the whole device showing the interactions between its eomponents. The results showed that micropump behavior eouldn't completely deseribe by the extrapolated model ftom a valve, because the interactions between the three valves. The simulations of electrical equivalent eircuit of the whole pwnp showed that the interaction between the valves explain the difference between of flow rate foreseen by Goulpeau model and his experimental data, being possible to adjust the model to the experimental data / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestre em Engenharia Mecânica
182

Gerenciamento baseado em modelos da configuração de sistemas de segurança em ambientes de redes complexos / Model-based configuration management of security systems in complex network environments

Pereira, João Porto de Albuquerque 24 May 2006 (has links)
Orientador: Paulo Licio de Geus / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-07T08:33:59Z (GMT). No. of bitstreams: 1 Pereira_JoaoPortodeAlbuquerque_D.pdf: 3410336 bytes, checksum: b604fcebba7d50ce5939b35de40ce518 (MD5) Previous issue date: 2006 / Resumo: Os mecanismos de segurança empregados em ambientes de redes atuais têm complexidade crescente e o gerenciamento de suas configurações adquire um papel fundamental para proteção desses ambientes. Particularmente em redes de computadores de larga escala, os administradores de segurança se vêem confrontados com o desafio de projetar, implementar, manter e monitorar um elevado número de mecanismos, os quais possuem sintaxes de configuração heterogêneas e complicadas. Uma conseqüência dessa situação é que erros de configuração são causas freqüentes de vulnerabilidades de segurança. O presente trabalho oferece uma sistemática para o gerenciamento da configuração de sistemas de segurança de redes que corresponde especialmente às necessidades dos ambientes complexos encontrados em organizações atuais. A abordagem, construída segundo o paradigma de Gerenciamento Baseado em Modelos, inclui uma técnica de modelagem que trata uniformemente diferentes tipos de mecanismos e permite que o projeto de suas configurações seja executado de forma modular, mediante um modelo orientado a objetos. Esse modelo é segmentado em Subsistemas Abstratos, os quais encerram um grupo de mecanismos de segurança e outras entidades relevantes do sistema ¿ incluindo seus diferentes tipos de mecanismo e as inter-relações recíprocas entre eles. Uma ferramenta de software apóia a abordagem, oferecendo um diagrama para edição de modelos que inclui técnicas de visualização de foco e contexto. Essas técnicas são particularmente adaptadas para cenários de larga escala, possibilitando ao usuário a especificação de certa parte do sistema sem perder de vista o contexto maior no qual essa parte se encaixa. Após a conclusão da modelagem, a ferramenta deriva automaticamente parâmetros de configuração para cada mecanismo de segurança do sistema, em um processo denominado refinamento de políticas. Os principais resultados deste trabalho podem ser sumarizados nos seguintes pontos: (i) uma técnica de modelagem uniforme e escalável para o gerenciamento de sistemas de segurança em ambientes complexos e de larga escala; (ii) um processo para o projeto de configurações apoiado por uma ferramenta que inclui técnicas de foco e contexto para melhor visualização e manipulação de grandes modelos; (iii) uma abordagem formal para a validação do processo de refinamento de políticas / Abstract: The security mechanisms employed in current networked environments are increasingly complex, and their configuration management has an important role for the protection of these environments. Especially in large scale networks, security administrators are faced with the challenge of designing, deploying, maintaining and monitoring a huge number of mechanisms, most of which have complicated and heterogeneous configuration syntaxes. Consequently, configuration errors are nowadays a frequent cause of security vulnerabilities. This work offers an approach to the configuration management of network security systems specially suited to the needs of the complex environments of today¿s organizations. The approach relies upon the Model-Based Management (MBM) paradigm and includes a modelling framework that allows the design of security systems to be performed in a modular fashion, by means of an object-oriented model. This model is segmented into logical units (so-called Abstract Subsystems) that enclose a group of security mechanisms and other relevant system entities, offering a more abstract representation of them. In this manner, the administrator is able to design a security system¿including its different mechanism types and their mutual relations¿by means of an abstract and uniform modelling technique. A software tool supports the approach, offering a diagram editor for models, which includes focus and context visualization techniques. These techniques are particularly suitable to large scale scenarios, enabling a designer to precisely specify a given part of the system without losing the picture of the context to which this part belongs. After the model is complete, the tool automatically derives configuration parameters for each security mechanism in the system, in a process called policy refinement. The major results of this work can be summarised as follows: (i) definition of a uniform and scalable object-oriented modelling framework for the configuration management of large, complex network security systems; (ii) development of a configuration design process assistes by a tool that implements focus and context techniques to improve visualization and manipulation of large models; (iii) a formal validation approach of the policy refinement process / Doutorado / Doutor em Ciência da Computação
183

Modelagem do equilíbrio liquido-vapor em misturas contendo liquidos ionicos / Modeling of the liquid-vapor equilibrium in mixtures contend ionic liquids

Álvarez Álvarez, Víctor Hugo 14 February 2007 (has links)
Orientador: Martin Aznar / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Quimica / Made available in DSpace on 2018-08-08T09:32:38Z (GMT). No. of bitstreams: 1 AlvarezAlvarez_VictorHugo_M.pdf: 1355509 bytes, checksum: c9710252adab51dca90a695fc91a5aa6 (MD5) Previous issue date: 2007 / Resumo: Os líquidos iônicos têm recebido considerável interesse devido a seu potencial como solventes projetados, que podem ser adaptados a vários tipos de processos industriais. A razão principal do interesse nos líquidos iônicos como solventes é sua baixa pressão de vapor, a qual minimiza os riscos de exposição e contaminação ambiental. Esta pesquisa visa realizar um estudo completo e sistemático sobre duas regras de mistura utilizando a equação de estado cúbica de Peng-Robinson para correlacionar o equilíbrio líquido-vapor em sistemas contendo líquidos iônicos. O problema principal nesta modelagem é a predição da baixa concentração do líquido iônico na fase vapor.Até o momento são escassas as publicações das propriedades críticas dos líquidos iônicos, motivo pelo qual escolheu-se uma equação com baixa quantidade de parâmetros, como a equação de estado cúbica de Peng-Robinson. Estudou-se o parâmetro dependente da temperatura a(T) e a regra de mistura de van der Waals. Os parâmetros a(T) comparados foram os propostos por Soave (1972) e por Almeida et al. (1991). Nos primeiros testes da modelagem foi utilizada a regra de mistura de van der Waals, mas para melhores resultados utilizou-se a regra de mistura de Wong-Sandler com os modelos UNIQUAC ou NRTL. Desenvolveu-se uma estratégia de modelagem molecular para calcular os parâmetros estruturais de área e volume do modelo UNIQUAC para os líquidos iônicos. Os parâmetros de interação foram calculados independentes da temperatura e concentração. Foram estudadas misturas binárias para descrever o equilíbrio líquido-vapor em altas pressões (CO2 ou CHF3 supercrítico + líquido iônico) e a baixas pressões (hidrocarbonetos + líquidos iônicos). Logo, os parâmetros de interação binária foram utilizados na correlação de sistemas ternários a baixa pressão com a regra de mistura de Wong-Sandler. A estimação dos parâmetros de interação binários foi realizada em um primeiro momento com o método de Levenberg-Marquardt e depois, com melhor sucesso, utilizou-se um algoritmo genético. A função objetivo utilizada contém a pressão do sistema e a composição do líquido iônico na fase gás. Os resultados para a modelagem com a regra de mistura de van der Waals apresentam altos desvios na pressão, mas com a regra de mistura de Wong-Sandler têm-se baixos desvios na pressão e uma baixa concentração do líquido iônico na fase gás até 100 atm. Os resultados mostram uma boa correlação dos sistemas ternários. Foi usado um teste de consistência termodinâmica para o sistema CO2 + hexafluorofosfato de 1-butil-3-metilimidazolio, para o qual há quatro conjuntos de dados conflitantes na literatura. Os resultados mostraram que, um conjunto de dados é termodinamicamente consistente, outro é não inteiramente consistente e os outros dois são termodinamicamente não consistentes / Abstract: The ionic liquids have received considerable interest due to his potential as designer solvents, that can be adapted in several types of industrial processes. The main reason of the interest in the ionic liquid as solvent is his negligible vapor pressure, which decreases the risks of exposition and environmental contamination. This research tries realize a complete and systematic study of two mixing rule in the Peng-Robinson equations of state for correlate and predict the equilibrium liquid-vapor in systems containing ionic liquids. The main problem in modeling the liquid-vapor equilibrium is the prediction of the negligible concentrations of ionic liquid in the phase vapor. Up to the moment the publications of the critical properties of the ionic liquids are scarce, reason for which chose an equation with low amount of parameters, as the cubic equation of state of Peng-Robinson. In this work, was studied the a(T): parameter dependent of the temperature and the mixing rule of van der Waals. The compared a(T): parameters were proposed for Soave 1972) and Almeida et al. (1991). In the first moment of the modeling was used the van der Waals mixing rule, after for good results was used the Wong-Sandler mixing rule with the UNIQUAC or NRTL model. A molecular modeling strategy was used to calculate the volume and surface area parameters of ionic liquids for UNIQUAC. Independent temperature and concentration interaction parameters were calculated. The binary mixtures were studied to describe the liquid-vapor equilibrium included high pressures (CO2 or CHF3 supercritical + ionic liquid) and low pressures (hydrocarbons + ionic liquid). After, the binary interaction parameters were used for correlated the ternary system at low pressure with the Wong-Sandler mixing rule. For evaluating the binary interaction parameters was used in first moment the Levenberg-Marquardt method and after, with best results was used a genetic algorithm. The objective function uses the pressure of the systems and the ionic liquid fraction mol in the gas phase. The results for correlation with van der Waals mixing rule show high deviations in the pressure system, but the Wong-Sandler mixing rule had low deviations in the pressure system and low concentration of the ionic liquid in the gas phase, up to 100 atm. The ternary system can be correlate with acceptable accuracy. A test of thermodynamic consistency was used for a binary system CO2 + 1-n-butyl-3-methylimidazolium hexafluorophosphate, it has four conflicts data set in the literature. The results show one data set thermodynamically consistent, one data set not fully consistent and two data set thermodynamically inconsistent / Mestrado / Desenvolvimento de Processos Químicos / Mestre em Engenharia Química
184

Esquema de controle adaptativo de fluxos de trafego baseado em modelagem fuzzy preditiva / Predictive Fuzzy modeling for adaptive control of network traffic flows

Sousa, Ligia Maria Carvalho 24 May 2007 (has links)
Orientadores: Lee Luan Ling, Flavio Henrique Teles Vieira / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-09T03:15:16Z (GMT). No. of bitstreams: 1 Sousa_LigiaMariaCarvalho_M.pdf: 2110733 bytes, checksum: 2417de66d2ca06dcb86fbce5e919906e (MD5) Previous issue date: 2007 / Resumo: O presente trabalho propõe um esquema de controle adaptativo de ?uxos baseado no modelo fuzzy TSK. Neste esquema de controle, o modelo fuzzy TSK é utilizado para prever adaptativamente o tamanho da ?la no buffer em um enlace. Com o objetivo de ajustar dinamicamente os parâmetros do modelo fuzzy TSK, propomos um algoritmo de treinamento adaptativo. Na primeira etapa do algoritmo de treinamento proposto, os parâmetros das partes premissas e das partes conseqüentes do modelo são obtidos. A segunda etapa consiste de um algoritmo de re?namento dos parâmetros do modelo baseado em gradiente descendente. A e?ciência do preditor proposto é avaliada através da comparação com outros preditores adaptativos fazendo uso de traços de tráfego reais. A partir dos parâmetros do modelo fuzzy TSK, derivamos uma expressão para a taxa da fonte controlável a qual minimiza a variância do tamanho de ?la no buffer. O controle de congestionamento proposto é então aplicado em diferentes cenários de rede com vários nós. Comparações realizadas com outros métodos de controle de congestionamento demonstram que o controle de congestionamento proposto obtém menores taxas de perdas e consegue de fato manter o tamanho da ?la no buffer abaixo do valor desejado / Abstract: The present work proposes a adaptive control of traf?c ?ows based in the TSK fuzzy model. In this control, the TSK fuzzy model is used to predict in a manner adaptive the buffer length in one output link. With the objective of dynamically adjust the parameters of the TSK fuzzy model, we proposed a adaptive training algorithm. In the ?rst stage of the proposed training algorithm, the parameters of the premise and consequent parts of the model are obtained. The second stage consists of a re?ning algorithm of the parameters based in descent gradient. The effectiveness of the proposed predictor is evaluated through comparison with other adaptive predictors by using real network traf?c traces. With the parameters of the TSK model, we derive an expression for the controllable source rate which minimizes the variance of the buffer length. The proposed congestion control is applied in different network sceneries with several nodes. Comparison made with others congestion control methods demonstrates that the proposed congestion control obtain lesser loss rate and gets in fact to keep the buffer length below of the reference level / Mestrado / Telecomunicações e Telemática / Mestre em Engenharia Elétrica
185

Modelagem computacional de válvula de expansão eletrônica para sistema de refrigeração e ar condicionado / Computational modeling of electronic expansion valve in a refrigeration system and air conditioning

Ramirez Buitrago, Ana Maria 15 August 2018 (has links)
Orientador: Gilmar Barreto / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-15T23:40:38Z (GMT). No. of bitstreams: 1 RamirezBuitrago_AnaMaria_M.pdf: 759461 bytes, checksum: 2948f7c4d961f0f71c8c3d790e304829 (MD5) Previous issue date: 2010 / Resumo: Neste trabalho apresentamos a modelagem computacional de uma válvula de expansão eletrônica a partir de dados experimentais de entradas e saídas através de modelos no espaço de estado, usando técnicas de subespaços, com objetivo de ter um sistema de refrigeração e ar condicionado eficiente, combinando eletrônica de potência e computação de modo a fornecer uma melhor solução para conservação de energia. A modelagem e a validação são feitas usando uma implementação computacional dos algoritmos de subespaços do espaço de estado. Os resultados apresentados mostram a validade e vantagens da técnica de modelagem realizada / Abstract: This research shows the computational modeling of a electronic expansion valve based on input and output experimental data using Models in State Space and subspace methods. The aim of this work was to obtain an efficient Cooling and Air Conditioning system by the combination of power electronics and computation, as a result, a better solution for energy conservation was obtained. Modeling and validation are made using a computational implementation of subspace methods algorithms in state space. Achieved results show the validity and advantages of the modeling technique implemented / Mestrado / Automação / Mestre em Engenharia Elétrica
186

Mapeamento do potencial mineral para niquel e ouro no Cinturão Metassedimentar Nova Brasilandia - Rondonia por meio de logica nebulosa (fuzzi) e redes neurais artificiais / Mineral potential mapping for nickel and gold in Nova Brasilandia Metassedimentar Belt - Rondonia trough fuzzy logic and artificial neuraL networks

Andrade, Lucas de Barros 13 February 2008 (has links)
Orientadores: Adalene Moreira Silva, Carlos Roberto de Souza Filho / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Geociencias / Made available in DSpace on 2018-08-11T21:03:33Z (GMT). No. of bitstreams: 1 Andrade_LucasdeBarros_M.pdf: 8901456 bytes, checksum: a7ac0b35b3104846888a31399dd84c90 (MD5) Previous issue date: 2008 / Resumo: A análise e integração de dados espaciais de naturezas diversas, especialmente em sistemas de informações geográficas (SIG), é prática já consagrada em prospecção mineral. As técnicas disponíveis e as recentemente desenvolvidas podem auxiliar campanhas de prospecção em áreas onde é parco o conhecimento geológico e metalogenético, como no Cinturão Metassedimentar Nova Brasilândia (CMNB), localizado no sudeste do Estado de Rondônia, um orógeno desenvolvido durante o limite Esteniano - Toniano na porção sudoeste do Cráton Amazônico. Esse cinturão apresenta relações tectônicas com o Cinturão Orogenético Greenville e é interpretado como resultado da colisão entre o Cráton Amazônico e a Laurentia nos estágios finais da aglutinação do Supercontinente de Rodínia, no final do Mesoproterozóico. Neste trabalho, duas técnicas de interpolação de dados pontuais, krigagem e IDW-Multifractal, foram utilizadas para produzir mapas geoquímicos de teores de Co, Cu e Ni em sedimentos de corrente para posteriormente integrá-los a dados geofísicos, litológicos e estruturais por meio de lógica fuzzy e redes neurais artificiais, técnicas de análise e integração disponíveis em um SIG, para mapear o potencial mineral regional para Ni e Au no CMNB. A krigagem, uma das técnicas mais tradicionais de interpolação baseada em conceitos geostatísticos, teve como principais efeitos a redução do desvio padrão e dos valores de máximo dos dados originais, obliterando possíveis anomalias. Já o IDW-Multifractal, técnica fundamentada na geometria fractal, manteve a variabilidade dos dados e à vezes extrapolou os valores máximos, o que pode vir a ressaltar importantes anomalias. Os dois métodos interpolatórios não alteraram significativamente a distribuição das populações dos teores observada nos histogramas. Quando comparados pelo Índice Normalizado Residual - INR, os resultados da interpolação multifractal obtiveram melhores ajustes aos dados originais de teores de Co e Ni, enquanto que para teores de Cu ambos os métodos obtiveram ajustes similares. O método C-A para definição de anomalias geoquímicas, também baseado nos conceitos fractais, auxiliou a determinação de valores de base e anômalos de teores nos mapas interpolados. Para modelagem e mapeamento do potencial mineral no CMNB, foram utilizadas a lógica nebulosa (fuzzy) para o Ni, baseada em critérios litológicos, geofísicos e geoquímicos, e uma rede neural artificial baseada em funções de base radial para o Au, desenvolvida sobre dados lito-estruturais. Os dois modelos gerados apresentaram resultados coerentes na localização de áreas com alto potencial para Ni e Au quando comparadas com as ocorrências conhecidas. Os resultados das modelagens invariavelmente dependem da escala e da resolução dos dados, que neste trabalho adequam-se à escala 1:500.000, úteis em definir áreas para prospecção mais detalhada na região. / Abstract: Analysis and integration of spatial data from different natures, particularly on Geographic Information Systems (GIS), is a well known technique in mineral prospection. The available tools and other ones recently developed can help prospection campaigns where there is not enough geologic and metalogenetic knowledge, as the Nova Brasilândia Metassedimentar Belt (NBMB), localized on the south eastern of Rondonia State, a orogeny developed during the Stenian-Tonian limit on the SW Amazon Craton. This belt presents tectonic relationships with the Greenville Orogenic Belt and is interpreted as the result of the colision between the Amazonic Craton and Laurentia, during the final sates of the Rodinia Supercontinent agglutination in the Late Mesoproterozoic. In this work, two punctual data interpolation techniques, kriging and IDW-Multifractal, were used to produce geochemical maps of Co, Cu and Ni concentrations in stream sediments that were integrated with geophisics, lithological and structural data by fuzzy logic and neural artificial networks, tools for analysis and integration in GIS environment, in order to map the regional mineral potential for Ni and Au on the MBNB. Kriging, one of the most traditional techniques for interpolation based on geostatistics concepts, presented as principal results a decreasing on the standard deviation and the maximum values of the original data, obliterating possible anomalies. The IDW-Multifractal, a technique settled on the fractal geometry, maintained the data variability and sometimes has extrapolated the maximums values, evidencing possible anomalies. Both methods have not altered the distribution of the populations of elements concentrations observed in the histograms. When compared by the Residual Normalized Index - RNI, the results of multifractal interpolation presented a best fit to original data for Co and Ni, while for Cu both methods presented similar fits. The C-A method for geochemical anomalies identification, also based on fractal concepts, assisted the definition of background and anomalous concentration on the interpolated maps. The mineral potential modeling and mapping on the NBMB were achieved by fuzzy logic for Ni, settled on lithological, geophisical and geochemical criteria, and by a artificial neural network based on radial basis functions for Au, developed on litho-structural data. Both models presented coherent results with the distribution of known mineral occurrences. Modeling results depend invariably of the data scale and resolutions, which in this work a compatible with a 1:500.000 scale, useful to define targets for detailed prospection. / Mestrado / Geologia e Recursos Naturais / Mestre em Geociências
187

Mapeamento de perigo de escorregamento na bacia hidrográfica do Rio Grande de Ubatuba - Ubatuba (SP): comparação dos métodos analítico e sintético / Landslide Hazard Mapping in the basin of the Rio Grande Ubatuba - Ubatuba ( SP ): comparison of analytical and synthetic methods

Pedro Carignato Basilio Leal 24 October 2014 (has links)
O perigo geológico de escorregamentos é a probabilidade da ocorrência de eventos ou fenômenos desta natureza, induzidos ou não pela atividade humana que podem causar danos humanos, socioeconômicos e ambientais. A cartografia de perigos geológicos de escorregamentos é um importante instrumento para gestão dos territórios para Estados Nacionais, setor privado, ONGs, comunidades locais, organizações científicas, etc. O desenvolvimento da ciência e das técnicas fez surgir diversos métodos de avaliação de perigos de escorregamento. No presente trabalho, o método sintético e o método analítico foram comparados com base em Sistemas de Informação Geográfica (SIG), técnicas de geoprocessamento e modelagem de dados cartográficos. Os atributos utilizados, na forma de matrizes numéricas foram declividade do terreno, densidade de drenagem e de lineamentos, excedente hídrico e cobertura vegetal e uso da terra (índice NDVI). Por meio de procedimentos de álgebra de mapas foi obtido o índice de perigo e elaborados os mapas de perigo de escorregamento. No método analítico o mapa de perigo ficou com uma textura mais granulada e no método sintético aparentou uma textura mais homogênea. A comparação da medida de classes em m² dos métodos coincidiu em 92% na classe muito alto, 90% na classe alto, 89% na classe médio e 90% na classe baixo. Já na tabulação cruzada a porcentagem de intersecção foi de 50% para a classe muito alto, 41% para a classe alto, 52% para a classe médio e 68% para a classe baixo. Concluiu-se que ao invés de opostos, os métodos se mostram adequados para um uso complementar. / Geological hazard due landslides is the likelihood of occurrence of such events or phenomena, either induced or not by human activities that can cause human, social-economic or environmental loss. Landslide hazard maps are important tools for territory management among government, private sector, Non-Governmental Organizations (NGO), local communities and academy. The development of science and techniques brought about many methods for landslide assessment. This work aims to compare two approaches: the syntethic and analytical methods based on Geographical Information Systems (GIS), geoprocessing and cartographic data modeling. The used attributes, organised in numeric rasters were declivity, drainage and lineaments density, water excess and vegetation cover and land use (NDVI). Procedures of map algebra resulted in the Landslide Hazard Indexes, from which the hazard maps were generated. The maps were compared and validated across previous risk and suscetibility maps with high correlation results. It was concluded that rather than opposites both methods are suitable for an complementary use.
188

Modelagem estatística de extremos espaciais com base em processos max-stable aplicados a dados meteorológicos no estado do Paraná / Statistical modelling of spatial extremes based on max-stable processes applied to environmental data in the Parana State

Ricardo Alves de Olinda 09 August 2012 (has links)
A maioria dos modelos matemáticos desenvolvidos para eventos raros são baseados em modelos probabilísticos para extremos. Embora as ferramentas para modelagem estatística de extremos univariados e multivariados estejam bem desenvolvidas, a extensão dessas ferramentas para modelar extremos espaciais integra uma área de pesquisa em desenvolvimento muito ativa atualmente. A modelagem de máximos sob o domínio espacial, aplicados a dados meteorológicos é importante para a gestão adequada de riscos e catástrofes ambientais nos países que tem a sua economia profundamente dependente do agronegócio. Uma abordagem natural para tal modelagem é a teoria de extremos espaciais e o processo max-stable, caracterizando-se pela extensão de dimensões infinitas da teoria de valores extremos multivariados, podendo-se então incorporar as funções de correlação existentes na geoestatística e consequentemente, verificar a dependência extrema por meio do coeficiente extremo e o madograma. Neste trabalho descreve-se a aplicação de tais processos na modelagem da dependência de máximos espaciais de precipitação máxima mensal do estado do Paraná, com base em séries históricas observadas em estações meteorológicas. Os modelos propostos consideram o espaço euclidiano e uma transformação denominada espaço climático, que permite explicar a presença de efeitos direcionais, resultantes de padrões meteorológicos sinóticos. Essa metodologia baseia-se no teorema proposto por De Haan (1984) e nos modelos de Smith (1990) e de Schlather (2002), verifica-se também o comportamento isotrópico e anisotrópico desses modelos via simulação Monte Carlo. Estimativas são realizadas através da máxima verossimilhança pareada e os modelos são comparados usando-se o Critério de Informação Takeuchi. O algoritmo utilizado no ajuste é bastante rápido e robusto, permitindo-se uma boa eficiência computacional e estatística na modelagem da precipitação máxima mensal, possibilitando-se a modelagem dos efeitos direcionais resultantes de fenômenos ambientais. / The most mathematical models developed for rare events are based on probabilistic models for extremes. Although the tools for statistical modeling of univariate and multivariate extremes are well-developed, the extension of these tools to model spatial extremes data is currently a very active area of research. Modeling of maximum values under the spatial domain, applied to meteorological data is important for the proper management of risks and environmental disasters in the countries where the agricultural sector has great influence on the economy. A natural approach for such modeling is the theory of extreme spatial and max-stable process, characterized by infinite dimensional extension of multivariate extreme value theory, and we can then incorporate the current correlation functions in geostatistics and thus, check the extreme dependence through the extreme coefficient and the madogram. This thesis describes the application of such procedures in the modeling of spatial maximum dependency of monthly maximum rainfall of Paraná State, historical series based on observed meteorological stations. The proposed models consider the Euclidean space and a transformation called climatic space, which makes it possible to explain the presence of directional effects resulting from synoptic weather patterns. This methodology is based on the theorem proposed by De Haan (1984) and Smith (1990) models and Schlather (2002), checking the isotropic and anisotropic behavior these models through Monte Carlo simulation. Estimates are performed using maximum pairwise likelihood and the models are compared using the Takeuchi information criterion. The algorithm used in the fit is very fast and robust, allowing a good statistical and computational efficiency in monthly maximum rainfall modeling, allowing the modeling of directional effects resulting from environmental phenomena.
189

Avaliação das ferramentas de modelagem preditiva de nicho fundamental para espécies de aves do Parque Estadual da Serra do Mar e Núcleo São Sebastião - SP / Evaluation of predictive modelling tools of fundamental niche for species of birds in the Parque Estadual da Serra do Mar e Núcleo São Sebastião

Rodrigo da Silva Matos 30 April 2010 (has links)
Os modelos de distribuição de espécies (MDEs) utilizam dados de ocorrência de campo e variáveis ambientais para indicar locais adequados para a ocorrência de uma espécie. Apesar dos inúmeros trabalhos que avaliam diversos aspectos deste tipo de modelagem, a aplicação desses métodos para predição do distribuição potencial de espécies de aves em escala local para o Parque Estadual da Serra do Mar (PESM) São Paulo, ainda não foi avaliada. Este trabalho analisa o potencial dos MDEs para o referido parque a partir das variáveis ambientais disponíveis para modelagem da área. Para isso, foram desenvolvidos modelos para 23 espécies de aves a partir de dados coletados em levantamento sistemático da avifauna do Núcleo São Sebastião um dos 8 núcleos que integram o PESM. Numa primeira etapa foi utilizado o algoritmo Maxent, por ser um dos mais utilizados segundo a literatura e por sua habilidade em realizar predições a partir de informações incompletas. A seguir a performance do Maxent foi comparada com as performances dos algoritmos GARP e Enviromental Distance. O parâmetro utilizado para analisar o desempenho e definir os melhores modelos preditivos foi a analise do valor de AUC. Os modelos ainda foram avaliados através da matriz de confusão, para estabelecer a taxa de omissão, e realizar o Teste Binomial Duas proporções do BioEstat 5.0 a fim de estabelecer a probabilidade dos acertos destes modelos serem diferentes do acaso. E finalmente foi determinada a área mínima estimada, baseado na premissa que um bom modelo deve prever a menor área possível com o maior numero de acertos ao mesmo tempo. Apesar de existir um número reduzido de camadas disponíveis para modelagem da área em escala local 8 mapas - O Maxent, teve o melhor desempenho entre os algoritmos testados, esse algoritmo se mostrou capaz de gerar mapas estatisticamente bons e biologicamente confiáveis para aves, nas áreas estudadas. São necessários cuidados específicos com relação a escolha das espécies a serem modeladas, assegurando que os camadas disponíveis representem premissas das necessidades ecológicas dessas espécies. Estudos posteriores sobre as respostas do algoritmo a diferentes quantidades e padrões de distribuição dos dados de ocorrência podem elucidar a aplicabilidade do algoritmo como ferramenta para auxiliar nos trabalhos de conservação. / Species Distribution Models (SDM) use Field occurrence data and environmental variables to indicate adequate places for the presence of a species. Despite a number of papers evaluate various aspects on these methodologies, the application of such models in order to predict the potential niche for bird species in Parque Estadual da Serra do Mar (PESM) in Sao Paulo, hasnt been analyzed yet. This paper examines the potential of SDM for the referred park from available variable to the modelling of the area. In order to do so, models were developed for 23 bird species form data collected in a systematic survey in the avifauna in Núcleo Sao Sebastião which is one of the 8 centers that are part of PESM. At first, Maxent algorithm was used as it is one of the most used algorithms according to current literature and due to its ability to accomplish predictions from incomplete information. Maxent performance was then compared to GARP and Environmental Distance algorithms performances. The parameter used to analyze skill and define the best predicting models was AUC value analyses. They were also evaluated though the confusion matrix as to establish the omission rate and take the binomial test of two proportions in order to define the correctness of such models as being different from chance and finally the estimated minimum area was determined based on the premise that a good model must predict the smallest possible area with the biggest number of correctness allowed. Although there are a few number of layers for modelling the area in local scale (just 8 maps), maxent results to be potentially useful for generating maps for potential distribution of the birds from the park. It was the best result shown by the 3 algorithms methods tried out. More studies are necessary as to evaluate the algorithms behavior from a smaller number of records occurrences well as different patterns en these records for the definition of the best method of distribution modelling of the avifauna in the park. Maxent proved itself to be capable of generating maps that are mathematically good and ecologically reliable for the birds in studied areas, It was the best result shown shown by the 3 algorithms methods tried out. Specific care is necessary in relation to the species to be modeled so as to assure the feasible layers represent premises of the ecological needs for such species. Further studies on the algorithm responses to different quantities and distributions patterns of occurrence data may elucide its applicability as a tool to help conservation work.
190

Modelagem de dados contínuos censurados, inflacionados de zeros / Modeling censored continous, zero inflated

Vanderly Janeiro 16 July 2010 (has links)
Muitos equipamentos utilizados para quantificar substâncias, como toxinas em alimentos, freqüentemente apresentam deficiências para quantificar quantidades baixas. Em tais casos, geralmente indicam a ausência da substância quando esta existe, mas está abaixo de um valor pequeno \'ksi\' predeterminado, produzindo valores iguais a zero não necessariamente verdadeiros. Em outros casos, detectam a presença da substância, mas são incapazes de quantificá-la quando a quantidade da substância está entre \'ksai\' e um valor limiar \'tau\', conhecidos. Por outro lado, quantidades acima desse valor limiar são quantificadas de forma contínua, dando origem a uma variável aleatória contínua X cujo domínio pode ser escrito como a união dos intervalos, [ómicron, \"ksai\'), [\"ksai\', \'tau\' ] e (\'tau\', ?), sendo comum o excesso de valores iguais a zero. Neste trabalho, são propostos modelos que possibilitam discriminar a probabilidade de zeros verdadeiros, como o modelo de mistura com dois componentes, sendo um degenerado em zero e outro com distribuição contínua, sendo aqui consideradas as distribuições: exponencial, de Weibull e gama. Em seguida, para cada modelo, foram observadas suas características, propostos procedimentos para estimação de seus parâmetros e avaliados seus potenciais de ajuste por meio de métodos de simulação. Finalmente, a metodologia desenvolvida foi ilustrada por meio da modelagem de medidas de contaminação com aflatoxina B1, observadas em grãos de milho, de três subamostras de um lote de milho, analisados no Laboratório de Micotoxinas do Departamento de Agroindústria, Alimentos e Nutrição da ESALQ/USP. Como conclusões, na maioria dos casos, as simulações indicaram eficiência dos métodos propostos para as estimações dos parâmetros dos modelos, principalmente para a estimativa do parâmetro \'delta\' e do valor esperado, \'Epsilon\' (Y). A modelagem das medidas de aflatoxina, por sua vez, mostrou que os modelos propostos são adequados aos dados reais, sendo que o modelo de mistura com distribuição de Weibull, entretanto, ajustou-se melhor aos dados. / Much equipment used to quantify substances, such as toxins in foods, is unable to measure low amounts. In cases where the substance exists, but in an amount below a small fixed value \'ksi\' , the equipment usually indicates that the substance is not present, producing values equal to zero. In cases where the quantity is between \'\'ksi\' and a known threshold value \'tau\', it detects the presence of the substance but is unable to measure the amount. When the substance exists in amounts above the threshold value ?, it is measure continuously, giving rise to a continuous random variable X whose domain can be written as the union of intervals, [ómicron, \"ksai\'), [\"ksai\', \'tau\' ] and (\'tau\', ?), This random variable commonly has an excess of zero values. In this work we propose models that can detect the probability of true zero, such as the mixture model with two components, one being degenerate at zero and the other with continuous distribution, where we considered the distributions: exponential, Weibull and gamma. Then, for each model, its characteristics were observed, procedures for estimating its parameters were proposed and its potential for adjustment by simulation methods was evaluated. Finally, the methodology was illustrated by modeling measures of contamination with aflatoxin B1, detected in grains of corn from three sub-samples of a batch of corn analyzed at the laboratory of of Mycotoxins, Department of Agribusiness, Food and Nutrition ESALQ/USP. In conclusion, in the majority of cases the simulations indicated that the proposed methods are efficient in estimating the parameters of the models, in particular for estimating the parameter ? and the expected value, E(Y). The modeling of measures of aflatoxin, in turn, showed that the proposed models are appropriate for the actual data, however the mixture model with a Weibull distribution fits the data best.

Page generated in 0.0919 seconds