• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 46
  • 32
  • 4
  • 4
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 110
  • 110
  • 49
  • 47
  • 22
  • 17
  • 16
  • 15
  • 12
  • 12
  • 12
  • 11
  • 10
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Modelagem de dados espaciais para Sistemas de Informações Geográficas: pesquisa na emergência médica / Spatial data modeling for Geographic Information Systems: research in medical emergency

Sá, Lucilene Antunes Correia Marques de 22 March 2001 (has links)
Os sistemas de Informações Geográficas foram desenvolvidos com os avanços das Ciências da Computação, com base nos conceitos das Ciências Geodésicas, para serem aplicados em áreas onde os dados espaciais são utilizados. Procura-se obter uma otimização desta tecnologia, possibilitando o desenvolvimento de sistemas aplicativos interativos. Abordam-se conceitos relativos a modelagem de dados espaciais. Analisam-se a aplicação no mundo real e no modelo conceitual decorrentes. Formula-se um modelo físico com base na Emergência Médica, obtendo-se um sistema que integra programas de saúde para localização de pacientes. / The Geographic Information Systems has been developed based on the progress of the computer sciences, using concepts of the geodesic sciences, to by applied where spatial data are need. This technology is optimized and interactive systems are made. Concepts relative to spatial data modeling are discussed. The application on the real world and the conceptual model is analyzed. The physical model is formulated based on the medical emergency, to obtain a system that integrates health programs to find patients.
42

Implicações funcionais de eventos de splicing alternativo no proteoma humano / Functional implications of alternative splicing in the human proteome

Passetti, Fabio 16 May 2007 (has links)
A pós-genômica surgiu como um próspero campo para que as infinidades de seqüências provenientes dos projetos genoma tenham os seus significados biológicos elucidados. Um dos mecanismos descritos na literatura capaz de gerar surpreendente diversidade protéica é o splicing alternativo (AS). Próximo de 22% das proteínas com estruturas tridimensionais resolvidas por difração de raios-X ou ressonância magnética nuclear (RMN) são humanas e pouco se sabe dos efeitos de eventos de splicing alternativo em suas funções. Uma vez que estas estruturas tridimensionais (3D) protéicas humanas são de alguma forma redundantes, o conjunto de genes humanos únicos que as correspondem é muito reduzido, em torno de 1%. Hoje em dia ainda são escassos os exemplos de duas isoformas de splicing alternativo de um mesmo gene com estruturas tridimensionais experimentais disponíveis. A variedade de proteínas que este evento pode potencialmente produzir é demasiado grande para que projetos de genômica estrutural em andamento consigam determinar suas estruturas. Isto tem inviabilizado, ainda que temporariamente, estudos sobre implicações funcionais de splicing alternativo no proteoma quando se utilizando dados estruturais experimentais. Entretanto, a bioinformática possibilita estudos deste porte com base nos dados de mapeamento no genoma, tanto de transcritos como de proteínas com estrutura tridimensional (3D) determinada. Torna-se possível, então, a prospecção de genes com isoformas de AS com estruturas 3D contendo informação adicional quando comparada à isoforma de AS. Produzimos para tal finalidade uma nova metodologia para detecção de eventos de AS no transcriptoma humano utilizando matrizes binárias para cada transcrito e estrutura de proteína 3D. Selecionadas as isoformas protéicas putativas, foram construídas 73 estruturas 3D utilizando conceitos de modelagem molecular por homologia. Foram escolhidas aleatoriamente 21 isoformas de AS para simulações por dinâmicas moleculares (SDM), e que cerca de 80% destes modelos se apresentaram estruturalmente estáveis. A anotação biológica relativa a cada fragmento não inserido na seqüência da proteína devido à sua remoção no mRNA resultante do evento de AS foi obtida e mostrou que mais de 80% delas possuem algum tipo de relevância funcional para a proteína. Concluímos que, para o nosso conjunto de dados, os eventos de splicing alternativo produzem isoformas que podem atuar como dominantes negativas, antagonistas ou atenuadoras da sua atividade biológica. / The post-genomic era has emerged as one prosper field to deal with the huge amount of sequences produced by genome projects and increase the understanding of its biological meaning. One of the most surprising mechanisms capable to generate a lot of protein diversity is alternative splicing in immature mRNAs. No more than 22% of the known protein structures elucidated by X-ray diffraction or nuclear magnetic resonance (NMR) were made using human proteins and the knowledge about alternative splicing functional implications is weak. Since those human protein three-dimensional structures (3D) are redundant, the unique number of human genes represented by them is estimated around 1%. Nowadays there are only a few cases describing two isoforms that have their own protein 3D structures done experimentally. The variety that alternative splicing can produce is large enough to structural genome projects undergoing could determinate its structures, fact that have negating, at least for a while, large-scale studies about functional implications of alternative splicing using experimental data. However, bioinformatics turn possible this kind of projects using the mapping onto the genome of transcripts and the sequence of the known protein 3D structures. Using this approach we searched for alternative splicing isoforms which have at least one known protein structure with additional biological information when compared against the isoform. We have produced a new methodology for detecting alternative splicing in the human transcriptoma using binary matrices for each transcript and known 3D protein structure. After the selection of putative isoforms, there were constructed 73 3D protein using concepts of molecular modelling by homology. There were randomly selected 21 of them to the submitted to molecular dynamics simulations and 80% of them showed that they were structurally stable. The biological annotation of each non-inserted fragment due to alternative splicing shows that 80% of them have in some degree functional importance. Then, we conclude that, for our dataset, the alternative splicing events produce isoforms that can act as negative dominants, antagonists or even regulators of their biological activity.
43

Estimativa de erosão pela Equação Universal de Perda de Solo (USLE) e transferência de sedimentos para todo território Brasileiro / Estimation of erosion by the Universal soil loss Equation (USLE) and sediment transfer for Brazilian territory

Javier Dario Pulido Gomez 28 August 2012 (has links)
O presente trabalho é uma tentativa de validar uma metodologia para estimar a produção de sedimentos para todo território Brasileiro. Foram utilizadas ferramentas de sistemas de informação geográfi ca (GIS), estatística espacial, modelagem e gerenciamento de bancos de dados aplicados a conservação de solos, permitindo combinar a equação Universal de Perda do Solo (USLE) com diferentes modelos de taxa de transferência de sedimentos (SDR). A metodologia utilizou como base de teste dados da rede sedimentométrica brasileira composta de 201 bacias. As estimativas foram analisadas por regressão linear múltipla obtendo valores de R2 de até de 46% entre dados observados e modelados. Observou-se a pouca sensibilidade do modelo USLE em relação ao fator de erosividade (fator R) quando duas observações por métodos diferentes diferem espacialmente em seus valores máximos entre 18000 MJ.mm.ha-1.h-1.ano-1 e 28000 MJ.mm.ha-1.h-1.ano-1 . Por outro lado o modelo mostrou-se sensível ao fator de cobertura do solo (Fator C da USLE) afetando as taxas máximas estimadas de erosão entre 160 Mg.ha-1.ano-1 ate 460 Mg.ha-1.ano-1. Nesse sentido a metodologia sugerida pode ser utilizada para dar indicativos sobre mudanças de uso da terra em escalas regionais e subsidiar tomadas de decisões quanto ao planejamento e gestão territorial. / This work is an attempt to validate a methodology for estimating sediment production for the whole Brazilian territory. Tools were used geographic information systems (GIS), spatial statistics, modeling and database management applied to soil conservation, allowing combine the Universal Soil Loss Equation (USLE) with different models of sediment transfer rate (SDR). The methodology used as test data of Brazilian sedimentometric network composed of 201 basins. The estimates were analysed by multiple linear regression getting values of R2 to 46% between observed and modelled data. Noted the low sensitivity of USLE model in relation to the erosivity factor (R factor) when two observations by different methods differ in their maximum values and spatial distribution of 18000 MJ.mm.ha-1.h-1.year-1 and 28000 MJ.mm.ha-1.h-1.year-1. the other aspects the model proved to be sensitive to soil coverage factor (factor C of USLE) affecting the estimated maximum rates of erosion between 160 Mg.ha-1.year-1 up to 460 Mg.ha-1.year-1.
44

Modelagem de dados espaciais para Sistemas de Informações Geográficas: pesquisa na emergência médica / Spatial data modeling for Geographic Information Systems: research in medical emergency

Lucilene Antunes Correia Marques de Sá 22 March 2001 (has links)
Os sistemas de Informações Geográficas foram desenvolvidos com os avanços das Ciências da Computação, com base nos conceitos das Ciências Geodésicas, para serem aplicados em áreas onde os dados espaciais são utilizados. Procura-se obter uma otimização desta tecnologia, possibilitando o desenvolvimento de sistemas aplicativos interativos. Abordam-se conceitos relativos a modelagem de dados espaciais. Analisam-se a aplicação no mundo real e no modelo conceitual decorrentes. Formula-se um modelo físico com base na Emergência Médica, obtendo-se um sistema que integra programas de saúde para localização de pacientes. / The Geographic Information Systems has been developed based on the progress of the computer sciences, using concepts of the geodesic sciences, to by applied where spatial data are need. This technology is optimized and interactive systems are made. Concepts relative to spatial data modeling are discussed. The application on the real world and the conceptual model is analyzed. The physical model is formulated based on the medical emergency, to obtain a system that integrates health programs to find patients.
45

Modeling geospatial events during flood disasters for response decision-making

Hubbard, Shane A. 01 December 2013 (has links)
A model that emphasizes possible alternative sequences of events that occur over time is presented in paper 1 (chapter 2) of this dissertation. Representing alternative or branching events captures additional semantics unrealized by linear or non-branching approaches. Two basic elements of branching, divergence and convergence are discussed. From these elements, many complex branching models can be built capturing a perspective of events that take place in the future or have occurred in the past. This produces likely sequences of events that a user may compare and analyze using spatial or temporal criteria. The branching events model is especially useful for spatiotemporal decision support systems, as decision-makers are able to identify alternative locations and times of events and, depending on the context, also identify regions of multiple possible events. Based on the formal model, a conceptual framework for a branching events model for flood disasters is presented. The framework has five parts, an event handler, a query engine, data assimilator, web interface, and event database. A branching events viewer application is presented illustrating a case study based on a flood response scenario. A spatiotemporal framework for building evacuation events is developed to forecast building content evacuation events and building vulnerabilities and is presented in paper 2 (chapter 3) of this dissertation. This work investigates the spatiotemporal properties required to trigger building evacuation events in the floodplain during a flood disaster. The spatial properties for building risks are based on topography, flood inundation, building location, building elevation, and road access to determine five categories of vulnerability, vulnerable basement, flooded basement, vulnerable first-floor, flooded first-floor, and road access. The amount of time needed to evacuate each building is determined by the number of vulnerable floors, the number of movers, the mover rate, and the weight of the contents to be moved. Based upon these properties, six possible evacuation profiles are created. Using this framework, a model designed to track the spatiotemporal patterns of building evacuation events is presented. The model is based upon flood forecast predictions that are linked with building properties to create a model that captures the spatiotemporal ordering of building vulnerabilities and building content evacuation events. Applicable to different communities at risk from flooding, the evacuation model is applied a historical flood for a university campus, demonstrating how the defined elements are used to derive a pattern of vulnerability and evacuation for a campus threatened by severe flooding. Paper 3 (Chapter 4) of this dissertation presents a modeling approach for representing event-based response risk. Surveys were sent to emergency managers in six states to determine the priorities of decision makers during the response phase of flood disasters. Based on these surveys, nine response events were determined to be the most important during a flood response, flooded roads, bridges closed, residential evacuations, residential flooding, commercial flooding, agricultural damage, power outage, sheltering, sandbagging. Survey participants were asked to complete pairwise comparisons of these nine events. An analytic hierarchy process analysis was completed to weight the response events for each decision-maker. A k-means clustering analysis was then completed to form 4 distinct profiles, mixed rural and urban, rural, urban, and high population - low population density. The average weights from each profile were calculated. The weights for each profile were then assigned to geospatial layers that identify the locations of these events. These layers are combined to form a map representing the event-based response risk for an area. The maps are then compared against the response events that actually occurred during a flood disaster in June 2008 in two communities.
46

Wi-Max tinklo duomenų modelio sudarymas ir tyrimas / Wi-Max network data modeling and analysis

Kostkevičius, Arvydas 16 August 2007 (has links)
Darbe “Modeling and analysis of Wi-Max network data” supažindinama su plačiajuosčio bevielio ryšio technologija – Wi-Max. Analizuojama literatūra, kuri aprašo Wi-Max veikimo principą, nagrinėjami šios technologijos ypatumai, ji lyginama su kitomis bevielio ryšio technologijomis. Apžvelgiamos šios technologijos perspektyvos. Tinklo duomenų modelis suteikia galimybę teikti papildomas paslaugas vartotojams, leidžia stebėti ir analizuoti Wi-Max duomenų perdavimo tinklą. Rementis IEEE 802.16e standartu, sudaryta metodika tinklo duomenų modeliui kurti. Išanalizuota Wi-Max technologijos tinklo duomenų struktūra, kuri sėkmingai pritaikyta tinklo duomenų modelio metodikos kūrimui. Sudarytos tinklo duomenų modelio specifikacijos ir pagal jas sukurtas tinklo duomenų modelis. Atliktas tinklo duomenų modelio eksperimentinis tyrimas ir pateikti šio tyrimo rezultatai. Rementis eksperimento rezultatais įvertintos Wi-Max technologijos realios galimybės. / This master‘s thesis familiarizes with the wireless broadband networking technology – WiMAX. The work includes literature analysis of WiMAX performance principles, research of technological peculiarities and comparison with other wireless technologies. The perspective of this technology is also overviewed. The model of network data allows providing additional services to the customers, as well as monitoring and analyzing of WiMAX data transmission network. The methodology of creating the model is based on IEEE 802.11e standard. Structure of WiMAX data networks is analyzed and successfully applied to implementation of methodology for model of WiMAX network data. The specifications for network data model were created and the model implemented according to them. The experimental analysis of the model was performed and results presented herein. The realistic capabilities of WiMAX technology were evaluated using the results of experiment.
47

Modeling and enacting complex data dependencies in business processes

Meyer, Andreas, Pufahl, Luise, Fahland, Dirk, Weske, Mathias January 2013 (has links)
Enacting business processes in process engines requires the coverage of control flow, resource assignments, and process data. While the first two aspects are well supported in current process engines, data dependencies need to be added and maintained manually by a process engineer. Thus, this task is error-prone and time-consuming. In this report, we address the problem of modeling processes with complex data dependencies, e.g., m:n relationships, and their automatic enactment from process models. First, we extend BPMN data objects with few annotations to allow data dependency handling as well as data instance differentiation. Second, we introduce a pattern-based approach to derive SQL queries from process models utilizing the above mentioned extensions. Therewith, we allow automatic enactment of data-aware BPMN process models. We implemented our approach for the Activiti process engine to show applicability. / Die Ausführung von Geschäftsprozessen in Process Engines benötigt Informationen über den Kontrollfluss, die Rollenzuordnungen und die Datenabhängigkeiten. Während die ersten beiden Aspekte bereits automatisiert von Process Engines unterstützt werden, müssen die Datenabhängigkeiten durch einen Prozessingenieur manuell hinzugefügt und gewartet werden. Allerdings ist diese Aufgabe sehr fehleranfällig und zeitintensiv. In diesem Report zeigen wir wie Prozesse mit komplexen Datenabhängigkeiten, z.B. m:n Beziehungen, modelliert und automatisiert ausgeführt werden können. Dazu erweitern wir zuerst BPMN Datenobjekte mit wenigen Annotationen, um das Handling von Datenabhängikeiten sowie die Differenzierung von Datenobjektinstanzen zu ermöglichen. Danach beschreiben wir einen Pattern-basierten Ansatz, um SQL-Queries, unter Nutzung der oben erwähnten Erweiterungen, aus Prozessmodellen abzuleiten. Damit erlauben wir die automatisierte Ausführung von Daten-orientierten BPMN Prozessmodellen. Um die Anwendbarkeit unseres Ansatzen zu demonstieren, implementierten wir ihn für die Process Engine Activiti.
48

Modelagem matematica e termodinamica do equilibrio solido-liquido de sistemas graxos / Mathematical and thermodynamical modeling of solid-liquid equilibrium of fatty systems

Boros, Laslo Andre Djevi 08 May 2005 (has links)
Orientadores: Maria Alvina Krahenbuhl, Antonio Jose de Almeida Meirelles / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Quimica / Made available in DSpace on 2018-08-04T19:22:03Z (GMT). No. of bitstreams: 1 Boros_LasloAndreDjevi_M.pdf: 2305152 bytes, checksum: 3c079eaeca07d356820561decab9dffe (MD5) Previous issue date: 2005 / Resumo: O objetivo deste trabalho foi realizar a modelagem matemática e termodinâmica do equilíbrio sólido-líquido de sistemas constituídos pelos ácidos graxos e triglicerídeos. A importância deste estudo está relacionada ao fato destas substâncias serem os principais constituintes dos óleos e gordura, que possuem grande aplicação em diversas áreas das industrias alimentícias, farmacêutica e química. A principal característica do equilíbrio sólido-líquido dos sistemas graxos é a possibilidade de formação de um composto na fase sólida, identificado pela presença do ponto peritético na curva de equilíbrio. De posse desta informação foram empregados modelos que permitissem representar a formação deste composto. Para os sistemas graxos em que não há formação de compostos na fase sólida foram empregados os modelos derivados da abordagem tradicional do equilíbrio sólido-líquido e também a metodologia de COUTINHO e RUFFIER-MERAY (1998), que permite a obtenção do diagrama de fases a partir de poucas medidas experimentais obtidas através do DSC. Já para os casos em que há formação de composto na fase sólida foi aplicada a metodologia de SLAUGHTER e DOHERTY (1995), que trata a formação de composto como uma reação química, e também foi desenvolvido um novo modelo que representa a formação do composto como uma transição sofrida por um dos componentes presentes na mistura... Observação: O resumo, na íntegra, poderá ser visualizado no texto completo da tese digital / Abstract: The propose of this work was to carry through the mathematical and thermodynamical modeling of the solid-Iiquid equilibrium of systems consisting of fatty acids and triglycerides. The importance of this study is related to the fact that substances are the main constituent of oils and fats, which possess great application in several areas of the food, pharmaceutical and chemical industries. The main characteristic of solid-liquid equilibrium of the fatty systems is the possibility of formation of a compound in the solid phase, identified for the presence of the peritetic point in the equilibrium curve. Of ownership of this information models had been used that allowed to represent the formation of this compound. For the fatty systems where it does not have formation of compound in the solid phase had been used the models derived from the traditional treatment of the solid-liquid equilibrium and also the methodology of COUTINHO and RUFFIER-MERAY (1998), which allows the attainment of phases diagrams from few gotten experimental measures through the DSC. Already for the cases where it has formation of composition in the solid phase was applied the SLAUGHTER and DOHERTY (1995) methodology, which deals with the formation composition as a chemical reaction, and also was developed a new model that represents the formation of the composition as a polymorphic transition suffered for one from the components in the mixture... Note: The complete abstract is available with the full electronic digital thesis or dissertations / Mestrado / Desenvolvimento de Processos Químicos / Mestre em Engenharia Química
49

Modelagem e simulação do processo de destilação molecular e determinação experimental aplicado a residuos pesados de petroleos / Modeling and simulation of molecular distillation process and experimental prediction applied to heavy petroleum residues

Zuñiga Liñan, Lamia 14 August 2018 (has links)
Orientadores: Maria Regina Wolf Maciel, Rubens Maciel Filho, Cesar Benedito Batistella / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Quimica / Made available in DSpace on 2018-08-14T20:42:28Z (GMT). No. of bitstreams: 1 ZunigaLinan_Lamia_D.pdf: 4904290 bytes, checksum: ff30149b6ad2ecb12a9816623766e68c (MD5) Previous issue date: 2009 / Resumo: Este trabalho teve como finalidade principal formular as equações de modelagem e realizar a simulação do processo de destilação molecular de resíduos pesados de petróleo. Ele se insere no projeto "Caracterização de petróleos pesados e ultrapesados por destilação molecular visando otimização e desenvolvimento de processos de refino, Fase II", através do programa CT - PETRO - CENPES-Petrobras-UNICAMP. Para a modelagem, as equações de Kawala e Stephan e as condições de contorno definidas por Batistella, foram tomadas como ponto de partida e, além disso, foi introduzido no modelo um fator de correção para ajustar os efeitos da pressão (vácuo) no sistema. No processo, a temperatura do filme e a composição dos pseudo-componentes variam na direção axial e radial, a conseqüência da rápida evaporação dos pseudocomponentes voláteis na superfície do filme, às condições da destilação. Isto gera também, uma diminuição da espessura do filme desde a entrada do evaporador para a saída do mesmo. Para a simulação, foi considerado como caso de estudo a separação do resíduo Gamma + Sigma 400°C+, em um destilador de filme descendente aquecido, onde o condensador é circundado pelo evaporador. O resíduo total foi dividido em 06 pseudocomponentes, os quais foram caracterizados utilizando dados de propriedades físicoquímicas geradas pelo simulador de processos de refino e petroquímica PETROX 2.70 da Petrobras, e através de equações de predição, em função da temperatura media de ebulição e da densidade dos pseudo-componentes. As equações de balanço de massa e de energia, formuladas no filme descendente foram resolvidas numericamente através do método das diferenças finitas, especificamente o método de Crank Nicolson. Da discretização, foi obtido um sistema de (76x300) equações algébricas, que resolvidas permitiram calcular as temperaturas e as concentrações dos pseudo-componentes no filme. Um software em Fortran 90, nomeado de DESTMOL-P foi implementado para resolver todas as equações da modelagem matemática do processo em estudo. A simulação foi realizada em estado estacionário, onde foram definidas as variáveis mais relevantes do processo como a espessura do filme, a taxa de evaporação, o perfil de temperatura na superfície do filme, o perfil de concentração dos pseudo-componentes, na superfície do filme e a taxa global de destilado produzido. Outros objetivos deste trabalho foram realizar uma análise experimental da fenômeno da destilação molecular de dois resíduos de petróleo; realizar a caracterização físico-química dos produtos obtidos; estender a Curva do Ponto de Ebulição Verdadeiro (PEV) dos petróleos, e avaliar o desempenho do destilador molecular de filme descendente nacional (DMN) construído sob a direção do grupo de pesquisa do LOPCA/LDPS. Como resultado, foram obtidos dez cortes de destilados e dez resíduos do processo de destilação molecular, cujas propriedades de massa molar, massa específica, densidade e viscosidade, permitiram estimar a presença de estruturas naftênicas e aromáticas nos produtos da destilação. Por outro lado, puderam ser definidos parâmetros experimentais que serviram de suporte na simulação do processo. Com os rendimentos em porcentagem em massa de destilado, as curvas PEV dos petróleos puderam ser estendidas até 700°C. Por fim, análises qualitativa e quantitativa do DMN mostraram o alto potencial deste equipamento para realizar a separação de misturas complexas, lubrificantes, óleos minerais, cortes e resíduos de petróleo, com facilidades de manipulação da amostra e dos produtos obtidos, quando comparados com o destilador molecular importado. / Abstract: molecular distillation process of petroleum residues. It is part of project "Caracterização de petróleos pesados e ultrapesados por destilação molecular visando otimização e desenvolvimento de processos de refino", phase II, through of CT - PETRO - CENPES-Petrobras-UNICAMP. The mathematical modeling by Kawala e Stephan and the boundary conditions introduced by Batistella were considered as a starting point, and, moreover, it was introduced a factor for correcting the pressure (vacuum). During of process a radial and axial distribution of the temperature of the film and the composition of pseudocomponents is presented. It is a result of rapid evaporation of the most volatiles components that takes place at the free surface of the liquid film, at conditions of distillation. Consequently, the thickness of the film decreases continuously through the evaporator For simulation, the split of heavy residue Gamma + Sigma 400°C+ on a falling film distiller, a heater and an extremely low pressure evaporator, with centered internal condenser was considered. The total residue was divided into six pseudocomponents, which were characterized using the steady state refining process simulator of Petrobras, PETROX 2.70 data bank and correlations for characterization of the heavy fractions, as a function of average boiling point, specific gravity of pseudocomponents. Heat and material balances on the liquid film were numerically solved by using a finite-difference method. Specifically, the Crank-Nicolson method is adopted. As a result of discretization, a system of (76x300) algebraic equations was obtained, which defines the temperature profile and the concentration profiles of pseudocomponents in the liquid film. The software DESTMOL-P in Fortran 90 was developed to solve the overall system. The simulation is carried out at the steady-state conditions, where the relevant process variables, such as film thickness, surface evaporation rate, liquid interface temperature, concentration profiles, and amount of distillate flow rate were computed. Other objectives developed, as a result of this work were to study the experimental dynamics of molecular distillation process of two petroleum residues; o develop the physicochemical characterization of the products obtained, to extend the True Boiling Point curves, TBP of crude oils, and to evaluate the performance of the national falling film molecular distiller (DMN), built up under the coordination of the research group from LOPCA/LDPS. As a result, ten distillate cuts and ten residues of molecular distillation were obtained. The properties of molecular weight, density, specific gravity and viscosity allowed to confirm the presence of naphtenic and aromatic structures of products. On the other hand, experimental parameters were defined, which were used to support the simulation process. With the percentage of distillate (in mass) the TBP curves were extended up to 700°C. Finally, the qualitative and quantitative analysis of the DMN showed the high potential of this prototype to perform the separation of complex mixtures, lubricants, mineral oil, cuts and heavy residues. This device provides better facilities for handling the sample and the products obtained, when compared with the imported molecular distiller. / Doutorado / Desenvolvimento de Processos Químicos / Doutor em Engenharia Química
50

Modelos baseados em data mining para classificação multitemporal de culturas no Mato Grosso utilizando dados de NDVI/MODIS / Models based on data mining for classification multitemporal crop in Mato Grosso data using NDVI/MODIS

Lopes, Kelly Marques de Oliveira, 1982- 08 September 2013 (has links)
Orientadores: Laércio Luis Vendite, Stanley Robson de Medeiros Oliveira / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica / Made available in DSpace on 2018-08-23T13:40:19Z (GMT). No. of bitstreams: 1 Lopes_KellyMarquesdeOliveira_M.pdf: 10053877 bytes, checksum: 2126c76ce80f71b89ec947645274c384 (MD5) Previous issue date: 2013 / Resumo: O desenvolvimento de estudos na área de geotecnologia e o aumento na capacidade de armazenar dados têm melhorado a exploração e os estudos de imagens de satélites obtidas através de sensores orbitais. O mapeamento da cobertura da terra, estimativas de produtividade de culturas e a previsão de safras são informações importantes para o agricultor e para o governo, pois essas informações são essenciais para subsidiar decisões relacionadas à produção, estimativas de compra e venda, e cálculos de importação e exportação. Uma das alternativas para analisar dados de uso e cobertura da terra, obtidos por meio de sensores, é o uso de técnicas de mineração de dados, uma vez que essas técnicas podem ser utilizadas para transformar dados e informações em conhecimentos que irão subsidiar decisões relativas ao planejamento agrícola. Neste trabalho, foram utilizados dados multitemporais sobre o índice de vegetação NDVI, derivados de imagens do sensor MODIS, para o monitoramento das culturas de algodão, soja e milho no estado do Mato Grosso, no período do ano-safra de 2008/2009. O conjunto de dados, fornecido pela Embrapa Informática Agropecuária, foi composto por 24 colunas e 728 linhas, onde as 23 primeiras colunas referem-se aos valores do NVDI, e a última, à cobertura do solo. A metodologia utilizada teve como base o modelo CRISP-DM (Cross Industry Standard Process for Data Mining). Modelos preditivos para classificar dados sobre essas culturas foram elaborados e avaliados por algoritmos de aprendizado de máquina, tais como árvores de decisão (J48 e PART), florestas aleatórias (Random Forest). A seleção de atributos melhorou os valores do índice Kappa e a acurácia dos modelos. Foram geradas regras de classificação para mapear as culturas estudadas (soja, milho e algodão). Os resultados revelaram que os algoritmos de aprendizado de máquina são promissores para o problema de classificação de cobertura do solo. Em particular o algoritmo J48, utilizado em conjunto com a seleção de atributos feito por meio de análise de componentes principais, destacou-se em relação ao demais pela simplicidade e pelos valores apresentados. Os resultados também evidenciaram a presença regiões de cultivo do algodão em outras áreas do estado, fora daquelas estudadas / Abstract: The development of studies in the field of geotechnology and increased ability to store data have improved the exploration and study of satellite images obtained by satellite sensors. The mapping of land cover, estimates of crop productivity and crop forecasting is important information for the farmer and for the government, because this information is essential to support decisions related to production, estimates of purchase and sale, import and calculations and export. An alternative use for data analysis and coverage will be obtained by means of sensors, is the use of data mining techniques since these techniques can be used to transform data and information on the knowledge that will support decisions on agricultural planning. In this work, we used data on the multitemporal vegetation index NDVI derived from MODIS images for monitoring crops of cotton, soybean and corn in the state of Mato Grosso, in the period of the crop year 2008/2009. The dataset supplied by Embrapa Agricultural Informatics, comprised 24 columns and 728 rows, where the 23 first columns refer to the values of NVDI, and the last, the soil cover. The methodology used was based on the model CRISP-DM (Cross Industry Standard Process for Data Mining). Predictive models to classify data on these cultures were prepared and analyzed by machine learning algorithms such as decision trees (J48 and PART), Random Forests (Random Forest). The feature selection improved the Kappa index values and accuracy of the models. Classification rules were generated to map the cultures studied (soy, corn and cotton). The results show that the machine learning algorithms are promising for the problem of classification of land cover. In particular, the J48 algorithm, used in conjunction with feature selection done by principal component analysis, stood out against the other by the simplicity and the values presented. The results also revealed the presence of regions of cotton cultivation in other areas of the state, out of those studied / Mestrado / Matematica Aplicada e Computacional / Mestra em Matemática Aplicada e Computacional

Page generated in 0.4819 seconds