• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 1
  • Tagged with
  • 13
  • 13
  • 13
  • 13
  • 13
  • 4
  • 4
  • 4
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

[pt] MODELAMENTO DO CONSUMO DE CAL NO PROCESSO DE DESSULFURAÇÃO DE GASES DE COMBUSTÃO DE UMA COQUERIA DO TIPO HEAT RECOVERY USANDO REDES NEURAIS ARTIFICIAIS / [en] MODELING LIME CONSUMPTION OF A DESULFURIZATION PROCESS FROM GASES OF A HEAT RECOVERY COKE PRODUCTION PLANT USING NEURAL NETWORK DEVELOPMENT

FREDERICO MADUREIRA MATOS ALMEIDA 26 February 2021 (has links)
[pt] A produção de coque metalúrgico em plantas do tipo heat recovery convertem todo o calor gerado da combustão de gases destilados durante a coqueificação em vapor e eletricidade, portanto eliminando a necessidade de processamento de sub-produtos químicos e rejeitos perigosos. Os gases, após a etapa de inertização no interior dos fornos, são direcionados à planta de dessulfuração denominada flue gas dessulfurization que utiliza lama de cal para abatimento de compostos SOx (SO2 e SO3) e filtros de mangas para remoção do resíduo gerado, cinzas de cal, precedente ao descarte para a atmosfera. Em virtude do alto custo da cal torna-se importante modelar o processo e avaliar quais são as principais variáveis que impactam no re-sultado, logo permitindo atuação no processo para torna-lo mais competitivo e am-bientalmente sustentável. A proposta deste trabalho foi elaborar um modelo matemático usando redes neurais artificiais para determinar as principais variáveis que impactam o consumo específico de cal no processo. A literatura existente revela que os principais parâmetros que impactam a eficiência de remoção de enxofre, logo a redução de consumo específico de cal, são temperatura de aproximação e relação Ca/S no processo. Este estudo indicou que o consumo está relacionado, principal-mente, aos parâmetros de temperatura dos gases na entrada e saída do SDA, além de concentração de oxigênio na chaminé principal e densidade da lama de cal utilizada de acordo com a análise de sensibilidade de rede neural feedfoward backpropagation com arquitetura MLP 14-19-2 e função de transferência tangente hiperbólica na ca-mada intermediária e logística na camada de saída. A avaliação reforçou o efeito do aumento da temperatura de saída dos gases no consumo específico de cal conforme literatura e adicionou parâmetros relevantes: temperatura de entrada dos gases, con-centração de O2(g) na chaminé e densidade da lama. / [en] The production of metallurgical coke in heat recovery coke production plants converts all heat generated from the combustion of distilled gases during coking pro-duction to steam and electricity, thus eliminating the need of processing hazardous by-products chemical substances. The gases, after inertization inside the ovens, are directed to the desulphurization plant called flue gas desulphurization (FGD) which uses lime slurry to remove SOx compounds (SO2 and SO3) and bag filters to remove the generated residue, lime ash. Due to the high cost of lime, it is important to model the process and evaluate which are the main variables that affects its result, thus allowing action in the process to make it more competitive and environmentally sus-tainable. The purpose of this work was to develop a mathematical model using arti-ficial neural networks to determine the main variables that affect lime consumption in the desulphurization process. Literature reveals that the main parameters that in-fluence sulfur removal efficiency, thus reducing specific lime consumption, are ap-proach to adiabatic saturation temperature and Ca/S ratio in the process. This study indicated that consumption is mainly related to the inlet and outlet SDA gas temper-atures, oxygen concentration in stack and lime slurry density according to the feed-foward backpropagation neural network sensitivity analysis. MLP 14-19-2 and hy-perbolic tangent transfer function in the intermediate layer and logistics in the output layer. Thus, the evaluation reinforced the effect of the increase of the gas outlet tem-perature on the specific lime consumption according to the literature, but also added new parameters: gas inlet temperature, O2 (g) concentration in the outlet of stack and lime slurry density.
2

[pt] MODELAGEM HÍBRIDA WAVELET INTEGRADA COM BOOTSTRAP NA PROJEÇÃO DE SÉRIES TEMPORAIS / [en] MODELING HYBRID WAVELET INTEGRATED WITH BOOTSTRAP IN PROJECTION TEMPORAL SERIES

RICARDO VELA DE BRITTO PEREIRA 31 March 2016 (has links)
[pt] Na previsão de séries temporais, alguns autores supõem que um método de previsão individual (por exemplo, um modelo ARIMA) produz resíduos (ou erros de previsão) semelhantes a um processo de ruído branco (imprevisível). No entanto, principalmente devido às estruturas de autodependência não mapeadas por um método preditivo individual, tal suposição pode ser facilmente violada na prática. Esta tese propõe um Previsor Híbrido Wavelet (PHW) que integra as seguintes técnicas: decomposição wavelet; modelos ARIMA; redes neurais artificiais (RNAs); combinação de previsões; programação matemática não linear e amostrador Bootstrap. Em termos gerais, o PHW proposto aqui é capaz de capturar, ao mesmo tempo, estruturas com autodependência linear por meio de uma combinação linear wavelet (CLW) de modelos ARIMA, (cujo ajuste numérico ótimo ocorre por programação matemática não linear) e não linear (usando uma RNA wavelet automática) exibidas pela série de tempo a ser predita. Diferentemente de outras abordagens híbridas existentes na literatura, as previsões híbridas produzidas pela PHW proposto levam em conta implicitamente, através da abordagem de decomposição wavelet, as informações oriundas da frequência espectral presentes na série temporal subjacente. Os resultados estatísticos mostram que a metodologia híbrida supracitada alcançou ganhos de precisão relevantes no processo preditivo de quatro séries de tempo diferentes bem conhecidas, quando se compara com outras meteorologistas competitivas. / [en] In time series analysis some authors presume that a single model (an ARIMA for instance) may yield white noise errors. However that assumption can be easily violated, especially in scenarios where unmapped auto dependency structures are present inside the series. With that being said, this thesis proposes a new approach called Hybrid Wavelet Predictor (HWP) which integrates the following techniques: Wavelet Decomposition, ARIMA models, Neural Networks (NN), Combined Prediction, Non-linear mathematical programming and Bootstrap Sampling. In a broad sense, the proposed HWP is able to capture not only the linear auto-dependent structures from ARIMA using linear wavelet combination (where its optimal numerical adjustment is made through non-linear mathematical programming), but also the non-linear structures by using Neural Network. Differently from others hybrid approaches known to date, the hybrid predictions given by HWP model take into account. Statistical tests show that the hybrid approach stated above increased the prediction s effectiveness by a significant amount when compared with four well known processes.
3

[en] INFERENCE OF THE QUALITY OF DESTILLATION PRODUCTS USING ARTIFICIAL NEURAL NETS AND FILTER OF EXTENDED KALMAN / [pt] INFERÊNCIA DA QUALIDADE DE PRODUTOS DE DESTILAÇÃO UTILIZANDO REDES NEURAIS ARTIFICIAIS E FILTRO DE KALMAN ESTENDIDO

LEONARDO GUILHERME CAETANO CORREA 19 December 2005 (has links)
[pt] Atualmente cresce o interesse científico e industrial na elaboração de métodos de controle não lineares. Porém, estes modelos costumam ter difícil implementação e um custo elevado até que se obtenha uma ferramenta de controle confiável. Desta forma, estudos na área de métodos de apoio à decisão procuram desenvolver aplicações inteligentes com custos reduzidos, capazes de executar controles industriais avançados com excelentes resultados, como no caso da indústria petroquímica. Na destilação de derivados de petróleo, por exemplo, é comum fazer uso de análises laboratoriais de amostras para identificar se uma substância está com suas características físico-químicas dentro das normas internacionais de produção. Além disso, o laudo pericial desta análise permite regular os instrumentos da planta de produção para que se consiga um controle mais acurado do processo e, conseqüentemente, um produto final com maior qualidade. Entretanto, apesar da análise laboratorial ter maior acurácia nos resultados que avaliam a qualidade do produto final, exige, às vezes, muitas horas de análise, o que retarda o ajuste dos equipamentos de produção, reduzindo a eficiência do processo e aumentando o tempo de produção de certos produtos, que precisam ter sua composição, posteriormente, corrigida com outros reagentes. Outra desvantagem está relacionada aos custos de manutenção e calibração dos instrumentos localizados na área de produção, pois, como estes equipamentos estão instalados em ambientes hostis, normalmente sofrem uma degradação acelerada, o que pode gerar leituras de campo erradas, dificultando a ação dos operadores. Em contrapartida, dentre os métodos inteligentes mais aplicados em processos industriais químicos, destacam-se as redes neurais artificiais. Esta estrutura se inspira nos neurônios biológicos e no processamento paralelo do cérebro humano, tendo assim a capacidade de armazenar e utilizar o conhecimento experimental que for a ela apresentado. Apesar do bom resultado que a estrutura de redes neurais gera, existe uma desvantagem relacionada à necessidade de re-treinamento da rede quando o processo muda seu ponto de operação, ou seja, quando a matériaprima sofre algum tipo de mudança em suas características físico-químicas. Como solução para este problema, foi elaborado um método híbrido que busca reunir as vantagens de uma estrutura de redes neurais com a habilidade de um filtro estocástico, conhecido por filtro de Kalman estendido. Em termos práticos, o filtro atua em cima dos pesos sinápticos da rede neural, atualizando os mesmos em tempo real e permitindo assim que o sistema se adapte constantemente às variações de mudança de processo. O sistema também faz uso de pré-processamentos específicos para eliminar ruídos dos instrumentos de leitura, erros de escalas e incompatibilidade entre os sinais de entrada e saída do sistema, que foram armazenados em freqüências distintas; o primeiro em minutos e o segundo em horas. Além disso, foram aplicadas técnicas de seleção de variáveis para melhorar o desempenho da rede neural no que diz respeito ao erro de inferência e ao tempo de processamento. O desempenho do método foi avaliado em cada etapa elaborada através de diferentes grupos de testes utilizados para verificar o que cada uma delas agregou ao resultado final. O teste mais importante, executado para avaliar a resposta da metodologia proposta em relação a uma rede neural simples, foi o de mudança de processo. Para isso, a rede foi submetida a um grupo de teste com amostras dos sinais de saída somados a um sinal tipo rampa. Os experimentos mostraram que o sistema, utilizando redes neurais simples, apresentou um resultado com erros MAPE em torno de 1,66%. Por outro lado, ao utilizar redes neurais associadas ao filtro de Kalman estendido, o erro cai à metade, ficando em torno de 0,8%. Isto comprova que, além do filtro de Kalman não destruir a qualidade da rede neural original, ele consegue adaptá-la a mudanças de processo, permitindo, assim, que a variável de saída seja inferida adequadamente sem a necessidade de retreinamento da rede. / [en] Nowadays, scientific and industrial interest on the development of nonlinear control systems increases day after day. However, before these models become reliable, they must pass through a hard and expensive implementation process. In this way, studies involving decision support methods try to develop low cost intelligent applications to build up advanced industrial control systems with excellent results, as in the petrochemical industry. In the distillation of oil derivatives, for example, it is very common the use of laboratorial sample analysis to identify if a substance has its physical- chemistry characteristics in accordance to international production rules. Besides, the analyses results allow the adjustment of production plant instruments, so that the process reaches a thorough control, and, consequently, a final product with higher quality. However, although laboratory analyses are more accurate to evaluate final product quality, sometimes it demands many hours of analysis, delaying the adjustments in the production equipment. In this manner, the process efficiency is reduced and some products have its production period increased because they should have its composition corrected with other reagents. Another disadvantage is the equipments´ maintenance costs and calibration, since these instruments are installed in hostile environments that may cause unaccurate field measurements, affecting also operator´s action. On the other hand, among the most applied intelligent systems in chemical industry process are the artificial neural networks. Their structure is based on biological neurons and in the parallel processing of the human brain. Thus, they are capable of storing and employing experimental knowledge presented to it earlier. Despite good results presented by neural network structures, there is a disadvantage related to the need for retraining whenever the process changes its operational point, for example, when the raw material suffers any change on its physical-chemistry characteristics. The proposed solution for this problem is a hybrid method that joins the advantages of a neural network structure with the ability of a stochastic filter, known as extended Kalman filter. This filter acts in the synaptic weights, updating them online and allowing the system to constantly adapt itself to process changes. It also uses specific pre-processing methods to eliminate scale mistakes, noises in instruments readings and incompatibilities between system input and output, which are measured with different acquisition frequencies; the first one in minutes and the second one in hours. Besides, variable selection techniques were used to enhance neural network performance in terms of inference error and processing time. The method´s performance was evaluated in each process step through different test groups used to verify what each step contributes to the final result. The most important test, executed to analyse the system answer in relation to a simple neural network, was the one which simulated process changes. For that end, the network was submitted to a test group with output samples added to a ramp signal. Experiments demonstrated that a system using simple neural networks presented results with MAPE error of about 1,66%. On the other hand, when using neural networks associated to an extended Kalman filter, the error decreases to 0,8%. In this way, it´s confirmed that Kalman filter does not destroy the original neural network quality and also adapts it to process changes, allowing the output inference without the necessity of network retraining.
4

[pt] PREVISÃO DA CURVA DE PRODUÇÃO PARA PROJETO EXPLORATÓRIO UTILIZANDO REDES NEURAIS ARTIFICIAIS / [en] PRODUCTION FORECAST FOR EXPLORATORY PROJECT USING ARTIFICIAL NEURAL NETWORKS

MONIQUE GOMES DE ARAUJO 19 January 2021 (has links)
[pt] A estimativa de produção de petróleo é um dos parâmetros essenciais para mensurar a economicidade de um campo e, para tanto, existem várias técnicas convencionais na área da engenharia de petróleo para predizer esse cálculo. Essas técnicas abrangem desde modelos analíticos simplificados até simulações numéricas mais complexas. Este trabalho propõem o uso de Redes Neurais Artificias (RNA) para prever uma curva de produção de óleo que mais se aproxime da obtida por um simulador numérico. A metodologia consiste na utilização da rede neural do tipo feedforward para a previsão da vazão inicial e da curva de produção ao longo de dez anos para um poço produtor de óleo. Essa metodologia tem aplicação prática na área da exploração, visto que, nessa fase, ainda há muita incerteza sobre a acumulação de petróleo e, portanto, os modelos de reservatório tendem a não ser complexos. Os resultados foram obtidos a partir do treinamento de RNAs com dados coletados do simulador numérico IMEX, cujas saídas foram posteriormente comparadas com os dados originais da simulação numérica. Foi possível obter uma precisão de 97 por cento na estimativa da vazão inicial do poço produtor de óleo. A previsão da curva de produção apresentou um erro percentual médio absoluto inferior a 10 por cento nos dois primeiros anos. Apesar dos valores de erro terem crescido ao longo dos últimos anos, eles são menores quando comparados com a metodologia de declínio exponencial e com a regressão linear múltipla. / [en] Production forecasting is one of the essential parameters to measure the economics of an oil field. There are several conventional techniques in petroleum engineering to estimate the production curve. They range from simplified analytical models to complex numerical simulations. This study proposes the use of Artificial Neural Networks (ANN) to predict an oil production curve that approximates to a numerical simulator curve. The methodology consists of using a feedforward neural network to predict the initial flow and the production forecast over ten years of an oil well. This methodology has practical application in the exploration area, since, at this stage, there is still much uncertainty about the oil accumulation, so the reservoir models tend not to be complex. The results were obtained from the ANN training with data collected from the numerical simulator IMEX, whose outputs were later compared with the original data of the numerical simulation. It was possible to get an estimate for the oil initial flow forecast with an accuracy of 97 percent. The production forecast had a mean absolute percentage error of less than 10 percent in the first two years. Despite the increasing error values over the years, they are smaller when compared to those obtained from the exponential decline and multiple linear regression.
5

[pt] MODELAGEM USANDO INTELIGÊNCIA ARTIFICIAL PARA ESTUDAR O PRÉ-TRATAMENTO DE BIOMASSA LIGNOCELULÓSICA / [en] MODELLING USING ARTIFICIAL INTELLIGENCE TO STUDY THE PRETREATMENT OF LIGNOCELLULOSIC BIOMASS

JULIANA LIMA GUERHARD FIDALGO 09 June 2020 (has links)
[pt] Os polissacarídeos constituintes da biomassa lignocelulósica podem ser beneficiados através de processos industriais. Entretanto, para manipulá-los é necessário que a biomassa seja submetida ao processo de pré-tratamento. Esta é uma das etapas mais caras e relevantes para a disposição e aplicação das frações lignocelulósicas. O presente estudo consiste em uma investigação detalhada do processo de pré-tratamento da biomassa lignocelulósica com H2O2, a qual foi realizada através de tecnologias inteligentes que viabilizaram a otimização deste processo. Ferramentas de inteligência artificial revelam-se vantajosas na solução dos gargalos associados aos avanços tecnológicos. Possibilitam a modelagem matemática de um processo com máxima eficiência, otimizando sua produtividade, transformando dados experimentais em informações úteis e demonstrando as infinitas possibilidades das relações das variáveis envolvidas. As variáveis independentes estudadas foram a temperatura (25 – 45 graus Celsius) e a concentração de peróxido de hidrogênio (1.5 – 7.5 porcento m/v). Técnicas analíticas qualitativas (Raman e FTIR) e quantitativa (Método de Klason) foram aplicadas para produzir um banco de dados referente a extração da lignina com H2O2, o qual foi utilizado no desenvolvimento de modelos neurais aplicando Redes Neurais Artificiais (ANN, do inglês Artificial Neural Networks) e Sistema de Inferência Adaptativa Neuro-Difusa (ANFIS, do inglês Adaptive neuro fuzzy inference system). E modelos polinomiais, os quais tiveram seus parâmetros estimados por Algoritmos Genéticos (GA, do inglês Genetic Algorithms). Os modelos desenvolvidos conseguiram predizer: o Teor de Lignina Extraída (porcento) por Espectroscopia Raman, o Teor de Lignina Oxidada (porcento) por FTIR, o Teor de Lignina Residual (porcento) pelo Método de Klason, e por último, dois modelos para a comparação da resposta analítica qualitativa com a resposta analítica quantitativa. Os modelos polinomiais, que tiveram seus parâmetros estimados por GA foram avaliados estatisticamente através da ANOVA e pelo coeficiente de correlação (R2). E os modelos neurais desenvolvidos foram avaliados pelo coeficiente de correlação (R2), número de parâmetros e índices de erro (SSE, MSE e RMSE). Para cada modelo polinomial e neural proposto, quando coerente, superfícies de resposta e curvas de contorno foram plotadas permitindo a identificação da região operacional mais indicada para a realização do pré-tratamento com H2O2. Dentre as estratégias inteligentes propostas, os modelos desenvolvidos com ANN mostraram-se mais eficientes para as predições relacionadas à extração da lignina. / [en] Industrial processes benefit the polysaccharides constituting the lignocellulosic biomass. However to manipulate them it is necessary that the biomass is submitted to the pre-treatment process. This is one of the most expensive and relevant steps for the arrangement and application of lignocellulosic fractions. The present study consists of a detailed investigation of the pretreatment process of lignocellulosic biomass with H2O2, applying intelligent technologies that enabled the optimization of this process. Artificial intelligence tools prove to be advantageous in solving the bottlenecks associated with technological advances. They enable the mathematical modeling of a process with maximum efficiency, optimizing its productivity, transforming experimental data into useful information and demonstrating the infinite possibilities of the relationships of the variables involved. The independent variables studied were the temperature (25-45 Celsius degrees) and the concentration of hydrogen peroxide (1.5 - 7.5 percent m / v). Qualitative analytical techniques (Raman and FTIR) and quantitative (Klason method) were applied to produce a database for the extraction of lignin with H2O2, which was used in the development of neural models applying Artificial Neural Networks (ANN) and Adaptive Neuro-Fuzzy Inference System (ANFIS). And polynomial models, which had their parameters estimated by Genetic Algorithms (GA). The models developed were able to predict: the Extracted Lignin Content (percent) by Raman Spectroscopy, the Oxidized Lignin Content (percent) by FTIR, the Residual Lignin Content (percent) by the Klason Method, and lastly, two models for the comparison of the qualitative analytical response with the quantitative analytical response. The polynomial models, which had their parameters estimated by GA, were statistically evaluated using ANOVA and correlation coefficient (R2) evaluated the polynomial models developed by GA statistically. And the neural models developed were evaluated by the coefficient of correlation (R2), number of parameters and error indexes (SSE, MSE and RMSE). For each proposed polynomial and neural model, when coherent, response surfaces and contour curves were plotted allowing the identification of the most suitable operational region for the pretreatment with H2O2. Among the proposed intelligent strategies, the models developed with ANN proved to be more efficient for the predictions related to lignin extraction.
6

[en] DESIGN OF ORGANIC LIGHT-EMITTING DIODES SUPPORTED BY COMPUTACIONAL INTELLIGENCE TECHNIQUES / [pt] PROJETO DE DIODOS ORGÂNICOS EMISSORES DE LUZ COM O AUXÍLIO DE TÉCNICAS DA INTELIGÊNCIA COMPUTACIONAL

CARLOS AUGUSTO FEDERICO DE FARIA ROCHA COSTA 10 September 2018 (has links)
[pt] Esta dissertação trata da investigação, simulação e otimização da estrutura de Diodos Orgânicos Emissores de Luz Multicamadas (ML-OLEDs) através da utilização de técnicas da Inteligência Computacional. Além disso, um desses métodos, chamado Otimização por Colônia de Formigas (ACO), foi implementado com base em um modelo proposto na literatura e aplicado pela primeira vez na otimização de diodos orgânicos. OLEDs são dispositivos optoeletrônicos nanométricos fabricados a partir de materiais semicondutores orgânicos. Ao contrário das tecnologias tradicionais, eles conjugam elevada luminescência e baixo consumo energético. Na fabricação de um OLED, o número configurações possíveis é quase ilimitado, em função da quantidade de parâmetros que se pode variar. Isso faz com que determinação da arquitetura ótima torne-se uma tarefa não trivial. Para simular os OLEDs foram empregados dois modelos distintos de simulação. Assim, as Redes Neurais Artificiais (RNA) foram empregadas com o objetivo de emular um dos simuladores e acelerar o cálculo da densidade de corrente. Os Algoritmos Genéticos (AG) foram aplicados na determinação dos valores ótimos de espessura das camadas, mobilidades dos portadores de carga e concentração dos materiais orgânicos em OLEDs com duas camadas, enquanto o ACO foi aplicado para encontrar os valores de concentração em OLEDs com duas e cinco camadas, constituindo assim três estudos de caso. Os resultados encontrados foram promissores, sobretudo no caso das espessuras, onde houve uma confirmação experimental do dispositivo com duas camadas. / [en] This dissertation deals with the research, simulation and optimization of the structure of Multilayer Organic Light Emitting Diodes (ML-OLEDs) by using Computational Intelligence techniques. In addition, one of these methods, called Ant Colony Optimization (ACO), was implemented based on a model proposed in the literature and applied for the first time in the optimization of organic diodes. OLEDs are nanometric optoelectronic devices fabricated from organic semiconducting materials. Unlike traditional technologies, they combine high luminance and low power consumption. In the manufacturing of an OLED, the number of possible configurations is almost unlimited due to the number of parameters that can modified. Because of this the determination of the optimal architecture becomes a non-trivial task. Two different simulation models were used to simulate the OLEDs. Thus, the Artificial Neural Networks (ANN) were employed in order to work as the proxy of the commercial simulator and to accelerate the calculation of the current density. The Genetic Algorithms (GA) were applied to determine the optimal values of thickness of the layers, the charge carrier mobility and the concentration of the organic materials in OLEDs with two layers, while the ACO was applied to find the values of concentration in OLEDs with two and five layers, thus establishing three case studies. The employed strategy has proved to be promising, since it has show good results for two case studies, especially for the optimization of the thickness, where there was an experimental confirmation of the bilayer device.
7

[en] ESTIMATING ARTIFICIAL NEURAL NETWORKS WITH GENERALIZED METHOD OF MOMENTS / [pt] ESTIMAÇÃO DE REDES NEURAIS ARTIFICIAIS ATRAVÉS DO MÉTODO GENERALIZADO DOS MOMENTOS

JOAO MARCO BRAGA DA CUNHA 19 July 2016 (has links)
[pt] As Redes Neurais Artificiais (RNAs) começaram a ser desenvolvidas nos anos 1940. Porém, foi a partir dos anos 1980, com a popularização e o aumento de capacidade dos computadores, que as RNAs passaram a ter grande relevância. Também nos anos 1980, houve dois outros acontecimentos acadêmicos relacionados ao presente trabalho: (i) um grande crescimento do interesse de econometristas por modelos não lineares, que culminou nas abordagens econométricas para RNAs, no final desta década; e (ii) a introdução do Método Generalizado dos Momentos (MGM) para estimação de parâmetros, em 1982. Nas abordagens econométricas de RNAs, sempre predominou a estimação por Quasi Máxima Verossimilhança (QMV). Apesar de possuir boas propriedades assintóticas, a QMV é muito suscetível a um problema nas estimações em amostra finita, conhecido como sobreajuste. O presente trabalho estende o estado da arte em abordagens econométricas de RNAs, apresentando uma proposta alternativa à estimação por QMV que preserva as suas boas propriedades assintóticas e é menos suscetível ao sobreajuste. A proposta utiliza a estimação pelo MGM. Como subproduto, a estimação pelo MGM possibilita a utilização do chamado Teste J para verifificar a existência de não linearidade negligenciada. Os estudos de Monte Carlo realizados indicaram que as estimações pelo MGM são mais precisas que as geradas pela QMV em situações com alto ruído, especialmente em pequenas amostras. Este resultado é compatível com a hipótese de que o MGM é menos suscetível ao sobreajuste. Experimentos de previsão de taxas de câmbio reforçaram estes resultados. Um segundo estudo de Monte Carlo apontou boas propriedades em amostra finita para o Teste J aplicado à não linearidade negligenciada, comparado a um teste de referência amplamente conhecido e utilizado. No geral, os resultados apontaram que a estimação pelo MGM é uma alternativa recomendável, em especial no caso de dados com alto nível de ruído. / [en] Artificial Neural Networks (ANN) started being developed in the decade of 1940. However, it was during the 1980 s that the ANNs became relevant, pushed by the popularization and increasing power of computers. Also in the 1980 s, there were two other two other academic events closely related to the present work: (i) a large increase of interest in nonlinear models from econometricians, culminating in the econometric approaches for ANN by the end of that decade; and (ii) the introduction of the Generalized Method of Moments (GMM) for parameter estimation in 1982. In econometric approaches for ANNs, the estimation by Quasi Maximum Likelihood (QML) always prevailed. Despite its good asymptotic properties, QML is very prone to an issue in finite sample estimations, known as overfiting. This thesis expands the state of the art in econometric approaches for ANNs by presenting an alternative to QML estimation that keeps its good asymptotic properties and has reduced leaning to overfiting. The presented approach relies on GMM estimation. As a byproduct, GMM estimation allows the use of the so-called J Test to verify the existence of neglected nonlinearity. The performed Monte Carlo studies indicate that the estimates from GMM are more accurate than those generated by QML in situations with high noise, especially in small samples. This result supports the hypothesis that GMM is susceptible to overfiting. Exchange rate forecasting experiments reinforced these findings. A second Monte Carlo study revealed satisfactory finite sample properties of the J Test applied to the neglected nonlinearity, compared with a reference test widely known and used. Overall, the results indicated that the estimation by GMM is a better alternative, especially for data with high noise level.
8

[en] ESTIMATING THE DAILY ELECTRIC SHOWER LOAD CURVE THROUGH MEASUREMENTS AND END USERS OWNERSHIP AND USAGE SURVEYS / [pt] ESTIMATIVAS DA CURVA DE CARGA DIÁRIA DE CHUVEIROS ELÉTRICOS ATRAVÉS DE MEDIÇÕES E DECLARAÇÕES DA PESQUISA DE POSSES E HÁBITOS DE CONSUMO

SILVANA VIEIRA DAS CHAGAS 16 December 2015 (has links)
[pt] O objetivo desta dissertação é desenvolver modelos matemáticos que permitam estimar o tempo médio dos banhos com a utilização de chuveiros elétricos e a curva de carga desses aparelhos, considerando as informações das Pesquisas de Posses e Hábitos de Consumo (PPH) e medições realizadas com o auxílio de medidores eletrônicos com memória de massa, em residências com chuveiros elétricos. A motivação do estudo advém de uma exigência da ANEEL que determina que as distribuidoras de energia elétrica realizem a cada 2 (dois) ciclos de revisão tarifária a PPH em suas unidades consumidoras. Os métodos empregados foram: estatística descritiva (para a obtenção do tempo médio de banho); aplicação da regressão linear e de redes neurais (para corrigir a curva de carga horária obtida com a PPH, com base nos dados das medições). Os resultados foram promissores, pois o tempo médio de banho se encontra próximo às estimativas do PROCEL (que são de 8 (oito) a 10 (dez) minutos) e a curva de carga estimada se encontra próxima à da medição, sendo esta última o consumo real. Conclui-se que a abordagem desta dissertação resultou em melhorias na estimativa dos coeficientes de ajustes e que o método de redes neurais foi relativamente melhor que o método de regressão linear simples. / [en] The aim of this dissertation is to develop mathematical models that would allow the estimation of the average time of baths using electric showers and the load shape curves for these devices, obtained from two sources: the information of Electrical Appliances Ownership Survey and measurements of electric shower usage in households carried out with electronic meters with storage capacity. The motivation stems from a requirement of ANEEL that determines that the electric energy distributors periodically should hold a PPH in their consumer units. Concerning the average time of shower baths, the last PPH survey conducted by PROCEL in 2005 estimated this time between 8 (eight) and 10 (ten) minutes. The methods employed in this work were: descriptive statistics (for obtaining the average bath time); application of linear regression and neural networks (to estimate the correction factors to approximate the load shape curves obtained by PPH to those obtained by measurements). The obtained results are rather promising due to the following reasons: the average time of bath is next to the estimates of PROCEL and the corrected load shape curve estimated is quite close to the measured curve, the latter being the actual consumption. This approach has resulted in improvements in the estimation of the coefficients of adjustments and the method of neural networks was relatively better than the simple linear regression method.
9

[pt] AGENTES EMBARCADOS DE IOT AUTO-CONFIGURÁVEIS CUONTROLADOS POR REDES NEURAIS / [en] SELF-CONFIGURABLE IOT EMBEDDED AGENTS CONTROLLED BY NEURAL NETWORKS

NATHALIA MORAES DO NASCIMENTO 12 May 2020 (has links)
[pt] Aplicações em Internet das Coisas (IoT) baseadas em agentes têm surgido como aplicações que podem envolver sensores, dispositivos sem fio, máquinas e softwares que podem compartilhar dados e que podem ser acessados remotamente. Essas aplicações vêm sendo propostas em vários domínios de aplicação, incluindo cuidados em saúde, cidades inteligentes e agricultura. Uma terminologia comumente utilizada para representar agentes embarcados inteligentes é embodied agents, a qual é proposta esse trabalho para projetar agentes para o domínio de IoT. Embodied agents significa agentes que possuem corpo, o qual pode ser definido pelos tipos de sensores e atuadores, e controlador, normalmente representada por uma rede neural artificial. Apesar da capacidade de reconfiguração ser essencial para embodied agents inteligentes, existem poucas tecnologias para suportar sistemas reconfigurfuaveis. Além disso, é necessário novas abordagens para lidar com as variabilidades dos agentes e do ambiente, e novos procedimentos para investigar a relação o entre o corpo e o controlador de um embodied agent, assim como as interações entre as mudanças do agente e do ambiente. Além da variabilidade do corpo e do controlador desses agentes, a exemplo do número e tipos de sensores, assim como o número de camadas e tipos de função de ativação para a rede neural, também é preciso lidar com a variabilidade do ambiente em que esses agentes estão situados. A fifim de entender melhor e esclarecer os conceitos de embodied agents, este trabalho apresenta um modelo de referência para embodied agents autoconfifiguráveis de IoT. A partir desse modelo de referência, três abordagens foram criadas para projetar e testar agentes embarcados reconfifiguráeis: i) um software framework para o desenvolvimento de embodied agents no domínio de internet das coisas; ii) uma arquitetura para configurar o corpo e controlador dos agentes de acordo com as variantes do ambiente; e iii) uma ferramenta para testar embodied agents. As abordagens foram avaliadas através de estudos de caso e experimentos em diferentes domínios de aplicação. / [en] Agent-based Internet of Things (IoT) applications have recently emerged as applications that can involve sensors, wireless devices, machines and software that can exchange data and be accessed remotely. Such applications have been proposed in several domains including health care, smart cities and agriculture. Embodied Agents is a term used to denote intelligent embedded agents, which we use to design agents to the IoT domain. Each agent is provided with a body that has sensors to collect data from the environment and actuators to interact with the environment, and a controller that is usually represented by an artificial neural network. Because reconfigurable behavior is key for autonomous embodied agents, there is a spectrum of approaches to support system reconfigurations. However, there is a need for approaches to handle agents and environment variability, and for a broad spectrum of procedures to investigate the relationship between the body and the controller of an embodied agent, as the interaction between the agent and the environment changes. In addition to the body and controller variability of these agents, such as those variations related to the number and types of sensors as well as the number of layers and types of activation function for the neural network, it is also necessary to deal with the variability of the environment in which these agents are situated. A discussion of the embodied agents should have some formal basis in order to clarify these concepts. Notwithstanding, this thesis presents a reference model for selfcon figurable IoT embodied agents. Based on this reference model, we have created three approaches to design and test self-configurable IoT embodied agents: i) a software framework for the development of embodied agents to the Internet of Things (IoT) applications; ii) an architecture to configure the body and controller of the agents based on environment variants; and iii) a tool for testing embodied agents. To evaluate these approaches, we have conducted diffierent case studies and experiments in difierent application domains.
10

[en] MULTI-CRITERIA DECISION MAKING METHODS AND MACHINE LEARNING MODELS IN INVENTORY MANAGEMENT: A CASE STUDY ON A FREIGHT TRANSPORT RAILWAY / [pt] MÉTODOS DE APOIO MULTICRITÉRIO À DECISÃO E MODELOS DE MACHINE LEARNING NA GESTÃO DE ESTOQUES: UM ESTUDO DE CASO EM UMA FERROVIA DE TRANSPORTE DE CARGAS

GUILHERME HENRIQUE DE PAULA VIDAL 06 July 2021 (has links)
[pt] O mundo vive hoje uma era de transformação digital resultante da chamada indústria 4.0 ou quarta revolução industrial. Nesta fase, a tecnologia tem exercido um papel cada vez mais estratégico no desempenho das organizações. Estes avanços tecnológicos têm revolucionado o processo de tomada de decisão na gestão e operação de cadeias de suprimentos. Neste contexto, esta dissertação apresenta uma metodologia de apoio à decisão na gestão de estoques, que combina multi-criteria decision making (MCDM) e machine learning (ML). A princípio, é realizada uma revisão sistemática da literatura para analisar como estas duas abordagens são aplicadas na gestão de estoques. Os resultados são complementados com um scoping review abrangendo a previsão de demanda. Inicia-se então um estudo de caso, aplicado em uma ferrovia de transporte de cargas. É aplicado, inicialmente, o método MCDM combinado Fuzzy AHP Vikor para ranquear os stock keeping units (SKUs) em ordem de criticidade. O passo seguinte é a aplicação do método de ML combinado GA-ANN, artificial neural network com genetic algorithm, com o objetivo de realizar a previsão de demanda em um piloto com alguns dos itens mais críticos. A etapa final consiste em estruturar um dashboard gerencial, integrando os resultados das etapas anteriores. Dentre os resultados alcançados, a partir do modelo proposto, observa-se considerável melhora na performance da previsão de demanda dos SKUs selecionados. Além disso, a integração entre as abordagens e implementação em um dashboard gerencial permitiu o desenvolvimento de um modelo semiautomático de tomada de decisão na gestão de estoques. / [en] The world is experiencing an era of digital transformation resulting from the industry 4.0 or fourth industrial revolution. In this period, technology has played an increasingly strategic role in the performance of organizations. These technological advances have revolutionized the decision-making process in the management and operation of supply chains. In this context, this dissertation presents a methodology to support decision-making in inventory management, which combines multi-criteria decision-making (MCDM) and machine learning (ML). At first, there is a systematic literature review in order to analyze how these two approaches are applied in inventory management. The results are complemented with a scoping review that includes the demand forecasting. A case study is then applied to a freight transport railway. Initially, the MCDM combined Fuzzy AHP Vikor method is applied to rank stock keeping units (SKUs) in degrees of criticality. The next step is the application of the ML combined GA-ANN method, artificial neural network with genetic algorithm, for the purpose of demand forecasting in a pilot with some of the most critical items. The final step is to structure a management dashboard, integrating the results of the previous steps. Among the results achieved from the proposed model, there is a considerable improvement in the performance of the demand forecasting for the selected SKUs. In addition, the integration between approaches and implementation in a management dashboard allowed the development of a semiautomatic model for decision-making in inventory management.

Page generated in 0.0618 seconds