• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 191
  • 13
  • 13
  • 13
  • 13
  • 12
  • 8
  • 5
  • 2
  • 1
  • 1
  • Tagged with
  • 208
  • 208
  • 85
  • 72
  • 29
  • 24
  • 21
  • 20
  • 19
  • 19
  • 19
  • 18
  • 17
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Metodologia e diretrizes para desenvolvimento de um ambiente computacional para ensino a distância

Morais, Érica Vasconcelos de [UNESP] 28 November 2007 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:22:35Z (GMT). No. of bitstreams: 0 Previous issue date: 2007-11-28Bitstream added on 2014-06-13T19:28:08Z : No. of bitstreams: 1 morais_ev_me_ilha.pdf: 510161 bytes, checksum: 6af6d69fa6200a199ca042b9537fb4e4 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Antigamente, eram utilizados para o ensino à distância apenas os meios de comunicação tradicionais (revistas, livros, TV e rádio) para passar informações e conteúdos. Com o surgimento de novos meios de comunicação, surgiu a necessidade de desenvolver novos métodos de ensino para integrar pessoas de diversas áreas e regiões. Com isso, faz-se necessário o estudo de metodologias e desenvolvimento de novas tecnologias de comunicação. O presente trabalho tem como objetivo apresentar a modelagem para o desenvolvimento de uma ferramenta de Ensino à Distância. Apresentou-se também a Metodologia OOHDM – Object Oriented Hypermedia Design Method, na qual foi utilizada o Modelo Navegacional onde apresenta o mapeamento do caminho que o usuário deverá fazer na navegação do sistema. A UML - Unified Modeling Language com o uso dos diagramas de casos de uso, apresentou as opções que podem ser realizadas na manipulação da interface. A camada de regra de negócio ofereceu o funcionamento do sistema através do DFD Diagrama de Fluxo de Dados. A camada de dados proporcionou a estrutura conceitual e lógica do banco de dados através do Modelo E-R (Entidade – Relacionamento) e do Modelo relacional, para que, através da análise dos diagramas e modelos obtidos, consiga-se compreender o sistema como um todo e possibilite a tomada de decisões mais precisas e em menor tempo, caso seja necessário efetuar alterações nesta aplicação. / The old traditional medias (magazines, books, TV and radio) were used for education at distance only to pass information and contends. With the creating of new medias, appeared the necessity to develop new methods of education to integrate people of different areas and regions. Therefore, study of methodologies and development of new technologies of communication becomes necessary. The present work had as objective to present a modeling for the development of an Education at Distance tool. Methodology OOHDM – Object Oriented Hypermedia Design Method was also presented, in which was used the Navigational Model where it presents the mapping of the way that the user will have to make in the navigation system. The UML, United Modeling Language with the use of the diagrams of use cases, presented the options that can be realized through the manipulation of the interface. The business service offered the functioning of the system through the DFD (Diagram of Data Flow). The data service provided the conceptual structure and logical of data base through model E-R (entity – Relationship) and relation Model, so that, through the gotten analysis of diagrams and models, it’s possible to understand the system as a whole and make it possible to take more precise decisions in less time, if it is necessary to provide alterations in this application.
132

Avaliação de qualidade cartográfica e extração de bordas de objetos não pertencentes ao terreno em produtos gerados pelo sistema de varredura a laser aerotransportado. / Map quality evaluation and edge extraction of off-terrain objects on airbone laser scanner products.

André Luiz Neves de Souza 26 May 2009 (has links)
O sistema de varredura a LASER aerotransportado é uma tecnologia competitiva para levantamentos que visam à geração de modelos digitais de superfície (MDS) e modelos digitais de terreno (MDT). Esta tecnologia sofreu certa resistência por parte das empresas de aerolevantamento e de alguns usuários, porém vem conquistando o mercado, graças à grande quantidade de trabalhos recentemente publicados. Uma das limitações associadas ao levantamento a LASER é a correta detecção de objetos não pertencentes ao terreno como árvores e edificações. Esses objetos, quando devidamente identificados, são essenciais para várias aplicações como cadastro e avaliação da qualidade cartográfica. Este trabalho propõe uma metodologia de identificação de edificações através da detecção de suas bordas, em uma rede triangular (TIN) construída sobre a nuvem de pontos. A utilização da TIN preserva os valores originais da amostra e, representa o universo real com melhor fidelidade que os modelos matriciais. A detecção é realizada calculando-se as declividades para todos os triângulos da TIN. Após esta etapa, são segmentados todos os triângulos que possuem valor de declividade acima de um limiar, pois representam variações abruptas no terreno, condizentes com edificações. A definição do limiar depende da resolução da nuvem de pontos, padrão de varredura e natureza do terreno. O trabalho apresenta ferramentas preliminares para automatizar a vetorização das bordas detectadas. As edificações extraídas pela metodologia e ferramentas apresentadas, podem ser utilizadas para avaliação da qualidade cartográfica do MDS/MDT. Para isso, compara-se o MDS a um documento cartográfico de referência, e realizam-se testes para: detecção e eliminação de erros grosseiros, detecção de tendências e minimização de erros sistemáticos, testes de precisão e de atendimento ao Padrão de Exatidão Cartográfico (PEC). Após análises, conclui-se que a metodologia de detecção de bordas propostas é eficiente, porém as ferramentas de automatização precisam ser aperfeiçoadas. Conclui-se também que o MDS oriundo do levantamento a LASER tem qualidade cartográfica compatível com o produto cartográfico de referência. Recomenda-se aplicação das metodologias propostas em outros conjuntos de dados. / The airborne LASER scanner is competitive technology for surveys that generates digital surface models (DSM) and Digital Terrain Models (DTM). This technology suffered some resistance by the aerosurvey enterprise (and some users), but is conquering its market share due the amount of papers recently published in this field. A limitation associated with this technique is the correct detection of the offterrain objects, like trees and buildings. These objects, when well identified, are essential to a sort of applications like cadastre e map quality evaluation. This dissertation proposes a methodology to identify buildings by the edge detection of a triangular irregular net (TIN) built over the point cloud. The utilization of TIN preserves the original values, representing the real 3D universe with fidelity despite the raster models. The detection is done calculating the slopes for all triangles of the TIN. After that, the triangles with slope values above a threshold are segmented. The Threshold definition depends on resolution of the point cloud, scan pattern and target behavior. Triangles with high slope values represent hard variation and may mean buildings. This work shows preliminary tools to automate the vectorization of the detected edges. The extracted buildings may be used for map quality evaluation of the DSM/DTM, by comparing it with a reference map. This means: test for detection e elimination of bundles, test for detection and minimization of systematic errors, precision tests and evaluate the meeting the Brazilian cartographic accuracy standard (PEC). Theses analysis concludes that the proposed methodology of edge detection is efficient but the developed tools of automation may be sharpened. Also, concludes that the DSM built with LASER scanner survey is compatible with reference map. Its recommended the application of the methodology on other collections of data.
133

Distance estimation for mixed continuous and categorical data with missing values

Azevedo, Glauco Gomes de 04 June 2018 (has links)
Submitted by Glauco Gomes de Azevedo (glaucogazevedo@gmail.com) on 2018-08-28T20:54:50Z No. of bitstreams: 1 dissertacao_glauco_azevedo.pdf: 1909706 bytes, checksum: 6636e75aa9da1db2615932f064fd1138 (MD5) / Approved for entry into archive by Janete de Oliveira Feitosa (janete.feitosa@fgv.br) on 2018-09-10T19:38:08Z (GMT) No. of bitstreams: 1 dissertacao_glauco_azevedo.pdf: 1909706 bytes, checksum: 6636e75aa9da1db2615932f064fd1138 (MD5) / Made available in DSpace on 2018-09-12T17:39:51Z (GMT). No. of bitstreams: 1 dissertacao_glauco_azevedo.pdf: 1909706 bytes, checksum: 6636e75aa9da1db2615932f064fd1138 (MD5) Previous issue date: 2018-06-04 / Neste trabalho é proposta uma metodologia para estimar distâncias entre pontos de dados mistos, contínuos e categóricos, contendo dados faltantes. Estimação de distâncias é a base para muitos métodos de regressão/classificação, tais como vizinhos mais próximos e análise de discriminantes, e para técnicas de clusterização como k-means e k-medoids. Métodos clássicos para manipulação de dados faltantes se baseiam em imputação pela média, o que pode subestimar a variância, ou em métodos baseados em regressão. Infelizmente, quando a meta é a estimar a distância entre observações, a imputação de dados pode performar de modo ineficiente e enviesar os resultados na direção do modelo. Na proposta desse trabalho, estima-se a distância dos pares diretamente, tratando os dados faltantes como aleatórios. A distribuição conjunta dos dados é aproximada utilizando um modelo de mistura multivariado para dados mistos, contínuos e categóricos. Apresentamentos um algoritmo do tipo EM para estimar a mistura e uma metodologia geral para estimar a distância entre observações. Simulações mostram que um método proposto performa tanto dados simulados, como reais. / In this work we propose a methodology to estimate the pairwise distance between mixed continuous and categorical data with missing values. Distance estimation is the base for many regression/classification methods, such as nearest neighbors and discriminant analysis, and for clustering techniques such as k-means and k-medoids. Classical methods for handling missing data rely on mean imputation, that could underestimate the variance, or regression-based imputation methods. Unfortunately, when the goal is to estimate the distance between observations, data imputation may perform badly and bias the results toward the data imputation model. In this work we estimate the pairwise distances directly, treating the missing data as random. The joint distribution of the data is approximated using a multivariate mixture model for mixed continuous and categorical data. We present an EM-type algorithm for estimating the mixture and a general methodology for estimating the distance between observations. Simulation shows that the proposed method performs well in both simulated and real data.
134

Modelagem matematica e termodinamica do equilibrio solido-liquido de sistemas graxos / Mathematical and thermodynamical modeling of solid-liquid equilibrium of fatty systems

Boros, Laslo Andre Djevi 08 May 2005 (has links)
Orientadores: Maria Alvina Krahenbuhl, Antonio Jose de Almeida Meirelles / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Quimica / Made available in DSpace on 2018-08-04T19:22:03Z (GMT). No. of bitstreams: 1 Boros_LasloAndreDjevi_M.pdf: 2305152 bytes, checksum: 3c079eaeca07d356820561decab9dffe (MD5) Previous issue date: 2005 / Resumo: O objetivo deste trabalho foi realizar a modelagem matemática e termodinâmica do equilíbrio sólido-líquido de sistemas constituídos pelos ácidos graxos e triglicerídeos. A importância deste estudo está relacionada ao fato destas substâncias serem os principais constituintes dos óleos e gordura, que possuem grande aplicação em diversas áreas das industrias alimentícias, farmacêutica e química. A principal característica do equilíbrio sólido-líquido dos sistemas graxos é a possibilidade de formação de um composto na fase sólida, identificado pela presença do ponto peritético na curva de equilíbrio. De posse desta informação foram empregados modelos que permitissem representar a formação deste composto. Para os sistemas graxos em que não há formação de compostos na fase sólida foram empregados os modelos derivados da abordagem tradicional do equilíbrio sólido-líquido e também a metodologia de COUTINHO e RUFFIER-MERAY (1998), que permite a obtenção do diagrama de fases a partir de poucas medidas experimentais obtidas através do DSC. Já para os casos em que há formação de composto na fase sólida foi aplicada a metodologia de SLAUGHTER e DOHERTY (1995), que trata a formação de composto como uma reação química, e também foi desenvolvido um novo modelo que representa a formação do composto como uma transição sofrida por um dos componentes presentes na mistura... Observação: O resumo, na íntegra, poderá ser visualizado no texto completo da tese digital / Abstract: The propose of this work was to carry through the mathematical and thermodynamical modeling of the solid-Iiquid equilibrium of systems consisting of fatty acids and triglycerides. The importance of this study is related to the fact that substances are the main constituent of oils and fats, which possess great application in several areas of the food, pharmaceutical and chemical industries. The main characteristic of solid-liquid equilibrium of the fatty systems is the possibility of formation of a compound in the solid phase, identified for the presence of the peritetic point in the equilibrium curve. Of ownership of this information models had been used that allowed to represent the formation of this compound. For the fatty systems where it does not have formation of compound in the solid phase had been used the models derived from the traditional treatment of the solid-liquid equilibrium and also the methodology of COUTINHO and RUFFIER-MERAY (1998), which allows the attainment of phases diagrams from few gotten experimental measures through the DSC. Already for the cases where it has formation of composition in the solid phase was applied the SLAUGHTER and DOHERTY (1995) methodology, which deals with the formation composition as a chemical reaction, and also was developed a new model that represents the formation of the composition as a polymorphic transition suffered for one from the components in the mixture... Note: The complete abstract is available with the full electronic digital thesis or dissertations / Mestrado / Desenvolvimento de Processos Químicos / Mestre em Engenharia Química
135

Pre-alinhamento de imagens de profundidade via malhas simplificadas / Crude registration of range images through simplified meshes

Gonzales Marquez, Mercedes Rocio 14 August 2018 (has links)
Orientador: Wu Shin-Ting / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-14T00:50:34Z (GMT). No. of bitstreams: 1 GonzalesMarquez_MercedesRocio_D.pdf: 9448340 bytes, checksum: 4c3f5a018922f90ac08152dbf85aeaf6 (MD5) Previous issue date: 2009 / Resumo: O pré-alinhamento de duas imagens de profundidade parcialmente sobrepostas de objetos rígidos consiste na determinação automática de uma transformação rígida T que coloca ambas imagens em um mesmo referencial. Ele deve ser independente da geometria da imagem e deve ser eficiente, no sentido de reduzir a complexidade temporal da tarefa de determinação e casamento de pares de correspondências. A solução mais popular consiste na extração de n pares de pontos correspondentes nas regiões comuns de ambas imagens para, a partir desses pares, estimar a transformação T. As técnicas existentes na literatura ainda apresentam diversas limitações quanto à restrição geométrica das imagens e à eficiência. Este trabalho propõe uma solução alternativa eficiente. Tendo como hipótese de que a forma de um objeto pode ser essencialmente capturada por um subconjunto finito dos seus pontos, esta tese propõe o uso de uma malha triangular simplificada, em lugar de uma imagem de profundidade densa, para reduzir o espaço de busca de correspondências. Propõe-se ainda a construção de um descritor, denominado triedro, com alta capacidade discriminante para possibilitar uma busca mais eficiente de correspondências no espaço reduzido de amostras. O algoritmo proposto foi validado através de testes com diversas imagens reais / Abstract: The crude registration of two partially overlapping range images from rigid objects consists of the determination of a rigid transformation T which brings both images into the same reference system. A crude registration should be independent of data geometry, and be efficient, in the sense that has low time complexity in finding the correspondence pairs. The most popular solution consists of extracting n pairs of correspondences in the overlapping regions and estimating from them the transformation T. Current works on crude registration still present drawbacks in relation to data geometry and efficiency. This work proposes an alternative solution for crude registration. Based on the hypothesis that the shape of an object is essentially captured by a finite subset of its points, this thesis proposes the use of a simplified triangular mesh, instead of a dense range image, to reduce the search space of correspondences. Besides, the construction of a descriptor, called trihedron is proposed. It has higher discriminating capacity which makes correspondence search still more efficient. The proposed algorithm has been validated through experiment tests with several real images / Doutorado / Engenharia de Computação / Doutor em Engenharia Elétrica
136

Implementação e analise de ferramentas de quimica comoutacional aplicada ao desenvolvimento de processos / Implentation and analysis of computational chemistry tools applied to the processes development

Pinto, Jefferson Ferreira, 1972- 22 February 2006 (has links)
Orientador: Rubens Maciel Filho / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Qumica / Made available in DSpace on 2018-08-09T18:17:35Z (GMT). No. of bitstreams: 1 Pinto_JeffersonFerreira_D.pdf: 2614838 bytes, checksum: 839b2ff15752c4919e502eaf94e81822 (MD5) Previous issue date: 2006 / Resumo: As indústrias vêm mudando profundamente nos últimos anos, principalmente para redução de consumo energético, melhoria na qualidade dos produtos e adequação às leis ambientais. Estas mudanças podem ser auxiliadas pelas técnicas de modelagem e simulação, incluindo o detalhamento do modelo em nível atômico, quando então recebe o nome de química computacional. Diversas ferramentas abrangendo todas as áreas de química computacional, em sua maioria gratuitas ou de domínio público, foram implementadas em um microcomputador e analisadas para aplicação no desenvolvimento de processos. Foi analisado também o desempenho computacional em função do sistema operacional, que apresentou diferenças no desempenho de até 353% para cálculos de ponto flutuante, 18% para acesso a memória RAM e 67% para acesso a disco. Para melhorar o desempenho computacional, foi elaborado o projeto de um ambiente computacional paralelo de alto desempenho, no qual o custo ficou limitado à aquisição de hardware, de fácil disponibilidade no mercado, sendo que os softwares utilizados são gratuitos ou de domínio público / Abstract: lndustries are changing in the last years, mainly for reduction of energy consumption, improvement in the product quality and adequacy to the environmental laws. These changes can be assisted by the modeling and simulation techniques, including the detailing of the model in atomic leveI, when then it receives the name of computational chemistry. Several tools enclosing all the areas of computational chemistry, in its mainly free or of public domain, had been implemented in a microcomputer and analyzed for application in the processes development. The computational performance in function of the operational system was also analyzed, that presented differences in the performance of up to 353% for floating-point calculations, 18% for access the RAM memory and 67% for access the hard disk. To improve the computational performance the project of high performance computer system was elaborated, in which the cost was limited the acquisition of the hardware, of easy availability in the market, being that software used is free or of public domain / Doutorado / Desenvolvimento de Processos Químicos / Doutor em Engenharia Química
137

Modelagem e simulação do processo de destilação molecular e determinação experimental aplicado a residuos pesados de petroleos / Modeling and simulation of molecular distillation process and experimental prediction applied to heavy petroleum residues

Zuñiga Liñan, Lamia 14 August 2018 (has links)
Orientadores: Maria Regina Wolf Maciel, Rubens Maciel Filho, Cesar Benedito Batistella / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Quimica / Made available in DSpace on 2018-08-14T20:42:28Z (GMT). No. of bitstreams: 1 ZunigaLinan_Lamia_D.pdf: 4904290 bytes, checksum: ff30149b6ad2ecb12a9816623766e68c (MD5) Previous issue date: 2009 / Resumo: Este trabalho teve como finalidade principal formular as equações de modelagem e realizar a simulação do processo de destilação molecular de resíduos pesados de petróleo. Ele se insere no projeto "Caracterização de petróleos pesados e ultrapesados por destilação molecular visando otimização e desenvolvimento de processos de refino, Fase II", através do programa CT - PETRO - CENPES-Petrobras-UNICAMP. Para a modelagem, as equações de Kawala e Stephan e as condições de contorno definidas por Batistella, foram tomadas como ponto de partida e, além disso, foi introduzido no modelo um fator de correção para ajustar os efeitos da pressão (vácuo) no sistema. No processo, a temperatura do filme e a composição dos pseudo-componentes variam na direção axial e radial, a conseqüência da rápida evaporação dos pseudocomponentes voláteis na superfície do filme, às condições da destilação. Isto gera também, uma diminuição da espessura do filme desde a entrada do evaporador para a saída do mesmo. Para a simulação, foi considerado como caso de estudo a separação do resíduo Gamma + Sigma 400°C+, em um destilador de filme descendente aquecido, onde o condensador é circundado pelo evaporador. O resíduo total foi dividido em 06 pseudocomponentes, os quais foram caracterizados utilizando dados de propriedades físicoquímicas geradas pelo simulador de processos de refino e petroquímica PETROX 2.70 da Petrobras, e através de equações de predição, em função da temperatura media de ebulição e da densidade dos pseudo-componentes. As equações de balanço de massa e de energia, formuladas no filme descendente foram resolvidas numericamente através do método das diferenças finitas, especificamente o método de Crank Nicolson. Da discretização, foi obtido um sistema de (76x300) equações algébricas, que resolvidas permitiram calcular as temperaturas e as concentrações dos pseudo-componentes no filme. Um software em Fortran 90, nomeado de DESTMOL-P foi implementado para resolver todas as equações da modelagem matemática do processo em estudo. A simulação foi realizada em estado estacionário, onde foram definidas as variáveis mais relevantes do processo como a espessura do filme, a taxa de evaporação, o perfil de temperatura na superfície do filme, o perfil de concentração dos pseudo-componentes, na superfície do filme e a taxa global de destilado produzido. Outros objetivos deste trabalho foram realizar uma análise experimental da fenômeno da destilação molecular de dois resíduos de petróleo; realizar a caracterização físico-química dos produtos obtidos; estender a Curva do Ponto de Ebulição Verdadeiro (PEV) dos petróleos, e avaliar o desempenho do destilador molecular de filme descendente nacional (DMN) construído sob a direção do grupo de pesquisa do LOPCA/LDPS. Como resultado, foram obtidos dez cortes de destilados e dez resíduos do processo de destilação molecular, cujas propriedades de massa molar, massa específica, densidade e viscosidade, permitiram estimar a presença de estruturas naftênicas e aromáticas nos produtos da destilação. Por outro lado, puderam ser definidos parâmetros experimentais que serviram de suporte na simulação do processo. Com os rendimentos em porcentagem em massa de destilado, as curvas PEV dos petróleos puderam ser estendidas até 700°C. Por fim, análises qualitativa e quantitativa do DMN mostraram o alto potencial deste equipamento para realizar a separação de misturas complexas, lubrificantes, óleos minerais, cortes e resíduos de petróleo, com facilidades de manipulação da amostra e dos produtos obtidos, quando comparados com o destilador molecular importado. / Abstract: molecular distillation process of petroleum residues. It is part of project "Caracterização de petróleos pesados e ultrapesados por destilação molecular visando otimização e desenvolvimento de processos de refino", phase II, through of CT - PETRO - CENPES-Petrobras-UNICAMP. The mathematical modeling by Kawala e Stephan and the boundary conditions introduced by Batistella were considered as a starting point, and, moreover, it was introduced a factor for correcting the pressure (vacuum). During of process a radial and axial distribution of the temperature of the film and the composition of pseudocomponents is presented. It is a result of rapid evaporation of the most volatiles components that takes place at the free surface of the liquid film, at conditions of distillation. Consequently, the thickness of the film decreases continuously through the evaporator For simulation, the split of heavy residue Gamma + Sigma 400°C+ on a falling film distiller, a heater and an extremely low pressure evaporator, with centered internal condenser was considered. The total residue was divided into six pseudocomponents, which were characterized using the steady state refining process simulator of Petrobras, PETROX 2.70 data bank and correlations for characterization of the heavy fractions, as a function of average boiling point, specific gravity of pseudocomponents. Heat and material balances on the liquid film were numerically solved by using a finite-difference method. Specifically, the Crank-Nicolson method is adopted. As a result of discretization, a system of (76x300) algebraic equations was obtained, which defines the temperature profile and the concentration profiles of pseudocomponents in the liquid film. The software DESTMOL-P in Fortran 90 was developed to solve the overall system. The simulation is carried out at the steady-state conditions, where the relevant process variables, such as film thickness, surface evaporation rate, liquid interface temperature, concentration profiles, and amount of distillate flow rate were computed. Other objectives developed, as a result of this work were to study the experimental dynamics of molecular distillation process of two petroleum residues; o develop the physicochemical characterization of the products obtained, to extend the True Boiling Point curves, TBP of crude oils, and to evaluate the performance of the national falling film molecular distiller (DMN), built up under the coordination of the research group from LOPCA/LDPS. As a result, ten distillate cuts and ten residues of molecular distillation were obtained. The properties of molecular weight, density, specific gravity and viscosity allowed to confirm the presence of naphtenic and aromatic structures of products. On the other hand, experimental parameters were defined, which were used to support the simulation process. With the percentage of distillate (in mass) the TBP curves were extended up to 700°C. Finally, the qualitative and quantitative analysis of the DMN showed the high potential of this prototype to perform the separation of complex mixtures, lubricants, mineral oil, cuts and heavy residues. This device provides better facilities for handling the sample and the products obtained, when compared with the imported molecular distiller. / Doutorado / Desenvolvimento de Processos Químicos / Doutor em Engenharia Química
138

Modelagem termodinâmica de sistemas aquosos bifásicos contendo sais e polímeros. / Thermodynamic modeling of aqueous two phase systems containing salts and polymers.

Kelly Cristina Nascimento Alves 18 March 2008 (has links)
Neste trabalho estudou-se a modelagem termodinâmica do equilíbrio de fases de sistemas aquosos bifásicos formados por um polímero neutro, especificamente o poli(etileno glicol), e um sal. O modelo implementado é baseado na equação de Pitzer para soluções de eletrólitos, dele diferindo ao considerar a influência das propriedades do polímero no cálculo da constante dielétrica e da densidade do meio, presentes no cálculo do termo relativo às interações de longo alcance da energia de Gibbs excedente. Além disso, procurou-se também considerar a dependência dos parâmetros relativos ao polímero com respeito ao tamanho de sua cadeia. Dados experimentais obtidos da literatura foram utilizados para a obtenção dos parâmetros ajustáveis do modelo, em cuja implementação foi utilizada a linguagem FORTRAN. A alteração nas propriedades do meio modificou o estado de equilíbrio calculado, fato que pôde ser observado por meio da análise de fatores como o desvio entre a composição calculada pelos modelos e os valores experimentais em cada fase e a inclinação da linha de amarração. Em alguns sistemas o desempenho do modelo modificado foi superior nesses parâmetros, mas em termos gerais a modificação no cálculo da constante dielétrica e da densidade não resultou em melhora no cálculo do equilíbrio de fases, por vezes piorando-o, de modo que investigações específicas sobre o termo de longo alcance foram conduzidas para verificar a razão deste comportamento. A inclusão de parâmetros ternários aumentou a capacidade de correlação de ambos os modelos. No que diz respeito à possibilidade de correlação dos parâmetros de interação como função do tamanho da cadeia polimérica, que poderia levar a um modelo preditivo, observou-se que somente para tamanhos grandes de cadeia foi possível estabelecer uma dependência direta e inequívoca. / The thermodynamic modeling of phase equilibrium in aqueous two phase systems containing the neutral polymer poly(ethylene glycol) and a salt was studied in this work. The implemented model is based on the Pitzer equation for electrolytes solutions, modified in order to account for the influence of polymer properties in both the medium dielectric constant and the medium density, values which are present in long range term of the excess Gibbs energy. The dependence of the adjustable parameters on the polymer molecule size was also investigated. Experimental data from literature were used to obtain the adjustable parameters of the model, in whose implementation the FORTRAN computer language was used. The changes introduced into the long range term resulted in a shift of the calculated equilibrium compositions, which could be observed by analyzing the deviation between calculated and experimental compositions and tie-line slopes. For some systems the performance of the modified model was superior, but in most cases the changes introduced did not result in a significant improvement in phase equilibrium calculations, and even worsened them. Specific investigations on the long range term were carried out to verify the reason for such behavior. The insertion of ternary parameters increased the correlation capacity of both models. Concerning the hypothesis that the interaction parameters can be directly related to the polymer chain size, which might eventually lead to a predictive model, it was noticed that a direct dependency holds only for larger chain sizes.
139

Estimação de contrastes de médias de tratamentos, de um experimento em blocos ao acaso, utilizando as análises clássica e espacial / Estimation of treatments means contrasts, in a random blocks model, using the classical and spatial analysis

Marina Rodrigues Maestre 08 October 2008 (has links)
Em um experimento, é comum ocorrerem fatores não controláveis, responsáveis pela heterogeneidade entre as parcelas. Mesmo executando os três princípios básicos da experimentação no planejamento (repetição, casualização e controle local), ainda assim, pode haver correlação nos erros e, portanto, dependência espacial na área estudada. Se for detectada essa estrutura de auto-correlação e se essa informação for utilizada na análise estatística, estimativas mais eficientes dos contrastes entre as médias dos tratamentos são garantidas, mas se tal estrutura for desconsiderada pode impedir que diferenças reais sejam detectadas. Neste trabalho, foram observadas as coordenadas dos centros das parcelas de um delineamento em blocos ao acaso. A variável resposta, deste experimento, é a concentração de carbono orgânico no solo, sendo as avaliações feitas no início do experimento, ou seja, antes da aplicaçao dos tratamentos, portanto, um ensaio em branco, um ano após a aplicação dos tratamentos e, novamente, depois de mais um ano. Para tanto, foram utilizadas as análises clássica e espacial na comparação dos métodos de estimação de contrastes de médias de tratamentos. O método estudado para a análise clássica, em que considera que os erros são não correlacionados, foi o dos mínimos quadrados ordinários. Já para a análise, levando em consideração a dependência espacial, foram utilizados o modelo geoestatístico, em que consiste na adição de um efeito aleatório com correlação, e o modelo de Papadakis, que consiste na adição de uma covariável construída a partir de observações em parcelas vizinhas. No modelo geoestatístico foi verificada a presença da dependência espacial através dos critérios de informação de Akaike e de informação Bayesiano ou de Schwarz e os métodos testados foram o do variograma seguido de mínimos quadrados generalizados e o da máxima verossimilhança. Para o modelo de Papadakis, foi testada a significância da covariável referente duas médias dos resíduos entre as parcelas vizinhas e a própria parcela tanto no modelo em blocos ao acaso quanto no modelo inteiramente casualizado, e o teste não foi significativo em nenhum dos dois casos. Mesmo assim, os cálculos foram realizados para esse método, mostrando que para esse conjunto de dados, este método não é indicado. Fazendo uso de algumas medidas de comparação desses métodos, para os dados em questão, o método de estimação dos contrastes de médias de tratamentos que apresentou as medidas de comparação mais dispersas foi o do modelo de Papadakis e o menos disperso foi o da máxima verossimilhança. Ainda, pelos intervalos de confiança, observou-se que na análise espacial, outros contrastes diferiram de zero significativamente, além daqueles que foram observados na análise clássica, o que se conclui que quando é levada em consideração a autocorrelação dos erros, os contrastes são estimados com maior eficiência / Not controllable factors is common occur in experiments, they are responsible for the heterogeneity among parcels. Even executing the three experimentation basic principles in the design (repetition, randomization and local control), even so, may have correlation in errors and, therefore, spatial dependence in the area of study. If that autocorrelation structure is detected and if this information is used in statistical analysis, estimates more efficient of contrasts among treatments means are guaranteed, but if this structure is disregarded can prevent that real diferences are detected. In this work, the coordinates of parcels centers in a design of random blocks were observed. The concentration of soil organic carbon is the response variable of this experiment, with the available made at the beginning of the experiment, ie, before the treatments application, therefore, a blank, a year after the treatments application and, again, after a year. Then, the classical and spatial analysis were used to compare the methods of estimation of treatments means contrasts. The method studied for the classical analysis, which considers that the errors are not correlated, was the ordinary least squares. For the analysis, considering the spatial dependence, were used the geostatistical model, where consists in the addition of a random effect with correlation, and the Papadakis model, which consists in the addition of a covariate built from observations in neighbouring. In geostatistical model was verified the spatial dependence through the Akaike and Bayesian or Schwarz criteria of information and the methods tested were the variogram followed by generalized least squares and the maximum likelihood. For the Papadakis model, was tested the significance of covariate referring to the average of residuals among neighbouring parcels and own parcel in the random blocks model and in the completely randomized model, and the test was not significant in any of both cases. Still, the calculus were made for this method, showing that for this data set, this method is not indicated. Using some measures to compare these methods, for these data, the method of estimation of treatments means contrasts which presented the measures of comparison more dispersed was the Papadakis model and the less dispersed was the maximum likelihood. Still, in the confidence intervals, it was observed that in spatial analysis other contrasts di®ered from zero significantly, besides of those which were observed in classical analysis, which concludes that when the autocorrelation of errors is considering, the contrasts are estimated with greater e±ciency.
140

Modelos baseados em data mining para classificação multitemporal de culturas no Mato Grosso utilizando dados de NDVI/MODIS / Models based on data mining for classification multitemporal crop in Mato Grosso data using NDVI/MODIS

Lopes, Kelly Marques de Oliveira, 1982- 08 September 2013 (has links)
Orientadores: Laércio Luis Vendite, Stanley Robson de Medeiros Oliveira / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica / Made available in DSpace on 2018-08-23T13:40:19Z (GMT). No. of bitstreams: 1 Lopes_KellyMarquesdeOliveira_M.pdf: 10053877 bytes, checksum: 2126c76ce80f71b89ec947645274c384 (MD5) Previous issue date: 2013 / Resumo: O desenvolvimento de estudos na área de geotecnologia e o aumento na capacidade de armazenar dados têm melhorado a exploração e os estudos de imagens de satélites obtidas através de sensores orbitais. O mapeamento da cobertura da terra, estimativas de produtividade de culturas e a previsão de safras são informações importantes para o agricultor e para o governo, pois essas informações são essenciais para subsidiar decisões relacionadas à produção, estimativas de compra e venda, e cálculos de importação e exportação. Uma das alternativas para analisar dados de uso e cobertura da terra, obtidos por meio de sensores, é o uso de técnicas de mineração de dados, uma vez que essas técnicas podem ser utilizadas para transformar dados e informações em conhecimentos que irão subsidiar decisões relativas ao planejamento agrícola. Neste trabalho, foram utilizados dados multitemporais sobre o índice de vegetação NDVI, derivados de imagens do sensor MODIS, para o monitoramento das culturas de algodão, soja e milho no estado do Mato Grosso, no período do ano-safra de 2008/2009. O conjunto de dados, fornecido pela Embrapa Informática Agropecuária, foi composto por 24 colunas e 728 linhas, onde as 23 primeiras colunas referem-se aos valores do NVDI, e a última, à cobertura do solo. A metodologia utilizada teve como base o modelo CRISP-DM (Cross Industry Standard Process for Data Mining). Modelos preditivos para classificar dados sobre essas culturas foram elaborados e avaliados por algoritmos de aprendizado de máquina, tais como árvores de decisão (J48 e PART), florestas aleatórias (Random Forest). A seleção de atributos melhorou os valores do índice Kappa e a acurácia dos modelos. Foram geradas regras de classificação para mapear as culturas estudadas (soja, milho e algodão). Os resultados revelaram que os algoritmos de aprendizado de máquina são promissores para o problema de classificação de cobertura do solo. Em particular o algoritmo J48, utilizado em conjunto com a seleção de atributos feito por meio de análise de componentes principais, destacou-se em relação ao demais pela simplicidade e pelos valores apresentados. Os resultados também evidenciaram a presença regiões de cultivo do algodão em outras áreas do estado, fora daquelas estudadas / Abstract: The development of studies in the field of geotechnology and increased ability to store data have improved the exploration and study of satellite images obtained by satellite sensors. The mapping of land cover, estimates of crop productivity and crop forecasting is important information for the farmer and for the government, because this information is essential to support decisions related to production, estimates of purchase and sale, import and calculations and export. An alternative use for data analysis and coverage will be obtained by means of sensors, is the use of data mining techniques since these techniques can be used to transform data and information on the knowledge that will support decisions on agricultural planning. In this work, we used data on the multitemporal vegetation index NDVI derived from MODIS images for monitoring crops of cotton, soybean and corn in the state of Mato Grosso, in the period of the crop year 2008/2009. The dataset supplied by Embrapa Agricultural Informatics, comprised 24 columns and 728 rows, where the 23 first columns refer to the values of NVDI, and the last, the soil cover. The methodology used was based on the model CRISP-DM (Cross Industry Standard Process for Data Mining). Predictive models to classify data on these cultures were prepared and analyzed by machine learning algorithms such as decision trees (J48 and PART), Random Forests (Random Forest). The feature selection improved the Kappa index values and accuracy of the models. Classification rules were generated to map the cultures studied (soy, corn and cotton). The results show that the machine learning algorithms are promising for the problem of classification of land cover. In particular, the J48 algorithm, used in conjunction with feature selection done by principal component analysis, stood out against the other by the simplicity and the values presented. The results also revealed the presence of regions of cotton cultivation in other areas of the state, out of those studied / Mestrado / Matematica Aplicada e Computacional / Mestra em Matemática Aplicada e Computacional

Page generated in 0.121 seconds