• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 844
  • 42
  • 35
  • 35
  • 35
  • 26
  • 20
  • 20
  • 19
  • 11
  • 9
  • 2
  • Tagged with
  • 882
  • 882
  • 882
  • 316
  • 262
  • 228
  • 188
  • 184
  • 144
  • 121
  • 110
  • 108
  • 96
  • 92
  • 91
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Desenvolvimento de um método para estimar o consumo de energia de edificações comerciais através da aplicação de redes neurais

Melo, Ana Paula January 2012 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Civil / Made available in DSpace on 2013-03-04T20:18:22Z (GMT). No. of bitstreams: 1 305085.pdf: 2726848 bytes, checksum: 7b26036d95584eb0a4c629c3f21cb571 (MD5) / Em Fevereiro de 2009 foi aprovado sob a portaria de No 53 o Regulamento Técnico da Qualidade do Nível de Eficiência Energética de Edifícios Comerciais, de Serviços e Públicos (RTQ-C). Este regulamento visa a etiquetagem de edificações comerciais no Brasil, classificando pelo nível de eficiência energética e baseando-se em três requisitos principais: Eficiência e potência instalada do sistema de iluminação; Eficiência do sistema de condicionamento de ar e Desempenho térmico da envoltória da edificação, quando a mesma for condicionada. O RTQ-C apresenta dois métodos para a avaliação do nível final de eficiência da edificação: Método Prescritivo, através da utilização de um modelo simplificado; ou através do Método de Simulação. Durante o desenvolvimento do modelo simplificado para a avaliação da envoltória presente no RTQ-C, foram encontradas algumas limitações com relação à volumetria do edifício e do parâmetro transmitância térmicas das paredes. Após o desenvolvimento do modelo, foram também observadas diferenças entre os níveis de eficiência de edificações com grande volumetria quando avaliadas através do Método Prescritivo e Método de Simulação. Outra observação foi com relação aos resultados fornecido pelo modelo simplificado. Os resultados são representados por um Indicador de Consumo, não representando o consumo aproximado da edificação em estudo. Nota-se que a utilização do método estatístico adotado para o desenvolvimento do modelo simplificado presente no RTQ-C (regressão linear múltipla) apresentou limitações para representar a relação entre as edificações adotadas e suas características com os seus respectivos consumos de energia. Com base nestas observações, esta tese tem como objetivo adotar um método estatístico que melhor consiga representar a correlação entre os dados de entrada e saída, permitindo o desenvolvimento de um modelo simplificado com melhor precisão para estimar o consumo de energia de edificações comerciais. Inicialmente, avaliou-se a precisão do modelo simplificado para o cálculo da eficiência da envoltória presente no Método Prescritivo do RTQ-C. Para esta avaliação foram adotados diferentes casos BESTEST com base na ASHRAE Standard 140; e também foi realizada uma comparação entre os níveis de eficiência da envoltória alcançados para diferentes edificações com base nos dois métodos presentes no RTQ-C. Através dos resultados pode-se concluir que uma das grandes limitações encontradas do modelo simplificado do RTQ-C está relacionado com a geometria das tipologias adotadas para o seu desenvolvimento, como por exemplo, a área de cobertura e a área de fachada da edificação (nomeados como Fator de altura e Fator de Forma). Posteriormente, avaliou-se a utilização de outro método estatístico para o desenvolvimento de um novo modelo simplificado baseando-se nos dados de entrada e saída adotados para o modelo simplificado presente no RTQ-C: redes neurais artificiais. Com base nestes resultados, foi possível realizar uma comparação entre os resultados deste método e do método estatístico adotado anteriormente, regressão linear múltipla. Observou-se que o método estatístico adotado para o desenvolvimento do modelo simplificado do RTQ-C não foi capaz de representar a influência dos dados de entrada no dado de saída. Porém, a aplicação do método estatístico de redes neurais reduziu o erro médio calculado entre o consumo simulado e equacionado, melhorando a precisão e a eficiência do modelo simplificado. Para o desenvolvimento de um novo modelo simplificado, ampliou-se a base de dados adotada anteriormente considerando um total de 16 tipologias com diferentes características de área construída, área condicionada, área de fachada externa, área de cobertura, entre outros. Foram também determinados limites mínimo e máximo de diferentes dados de entrada para melhor representar as diferentes combinações de características construtivas encontrada nas edificações comerciais do Brasil. As interações entre as diferentes tipologias adotadas e suas características foram realizadas através do método Hipercubo Latino, o qual permite que sejam realizadas diferentes combinações entre os parâmetros em um mesmo caso. Para as simulações destes novos casos utilizou-se o programa de simulação computacional EnergyPlus. Com base nos dados de entrada e nos dados de saída das simulações (consumo de energia elétrica), utilizou-se o método de modelagem estatística de redes neurais artificiais para o desenvolvimento de um novo modelo simplificado. Este método conseguiu descrever a correlação entre os dados de entrada e saída que não tem comportamento linear, permitindo o desenvolvimento de modelos simplificados com maior precisão. Como resultado final, os objetivos da tese foram alcançados permitindo o desenvolvimento de um modelo mais preciso para estimar o consumo de energia elétrica das edificações comerciais. / The Regulation for Energy Efficiency Labelling of Commercial Buildings in Brazil (RTQ-C) was released in February 2009. This regulation aims to classify buildings according energy efficiency levels based on lighting system; air conditioning system and envelope. This classification can be based on: the result of hourly building energy simulation (BES) programs or by using a prescriptive method which is based on a simplified model. During the development of the RTQ-C simplified model to evaluate the building envelope some limitations related to the building geometry and the parameter wall thermal transmittance were found. Differences between energy efficiency labels of both methods were also noticed. The simplified model results are presented by a Consumption Indicator (IC) which do not corresponds to the final building energy consumption. Moreover, it can be noticed that the use of multi-linear regression involves large simplifications in the statistical modeling on the relation between building design and energy consumption Based on that, this research has the objective to evaluate the feasibility and relevance of more complex statistical modeling techniques, which can describe correlation between inputs and output that are non-linear, possibly leading to more accurate models. First, the primary intent of this study is to provide a preliminary assessment on the accuracy of the simplified model present in the RTQC (SMRTQ-C). The first step of the assessment consisted on evaluating the simplified model results using the BESTEST. The second step of the assessment consisted on applying the simplified model to evaluate different building typologies, and compare the results with those obtained using a state of the art building energy simulation (BES) program. The results showed that one of the clearest limitations of the SMRTQ-C is the range of building typologies used for its development, for example regarding building area, building geometry (namely the height factor (FA) and shape factor (FF)). Then, a new statistical modeling technique was adopted into those inputs and outputs used to develop the simplified model presented in the RQT-C: the artificial neural network (ANN). Based on those results, it was possible to compare the results from both statistical modeling techniques: multi linear regression and artificial neural network. The differences found in the case studies might indicate that the multi-linear regression adopted to develop the SMRTQC was unable to describe the relation between inputs parameter and energy consumption in the case of commercial buildings in Brazil. However, the ANN reduced the difference between the energy consumption based on the simplified model and the building energy simulation. The ANN improved the accuracy and the efficiency of the simplified model. Based on the results, new typologies and input parameters were considered to develop a new simplified model. A total of 16 typologies were taking into account, with different characteristics of building total area, external area, roof area, number of floors, etc). Maximum and minimum values of input data were determined to represent the different combinations among the Brazilian commercial buildings. The Hypercube Latin method sampling was applied to combine effects of several input parameters varying simultaneously. The simulations were carried out using the EnergyPlus program. The artificial neural network method was applied on those cases, considering the parameters as input data and the energy consumption as the output data. This method was able to describe the relation between inputs parameter and energy consumption in the case of commercial buildings in Brazil. As a result, the objectives of this research were achieved letting to develop a simplified model which can predict the commercial buildings energy consumption.
162

Analisadores virtuais baseados em modelo neural para monitoramento e controle de colunas de destilação com aquecimento distribuído

Werle, Leandro Osmar January 2012 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Química / Made available in DSpace on 2013-03-04T20:48:52Z (GMT). No. of bitstreams: 1 304619.pdf: 4749681 bytes, checksum: 4b41f9f4bcecb4579346400305f636f9 (MD5) / Colunas de destilação necessitam de sistemas de controle apropriados para obter a especificação desejada do produto e uma operação estável no processo. A medição confiável e precisa da composição, ou de alguma propriedade, dos produtos é uma das principais dificuldades em torres de destilação. Para a determinação destas, normalmente são empregadas análises de laboratório ou analisadores de processo. Contudo, existem problemas decorrentes desses métodos, quando aplicados no controle em malha fechada. Entre esses problemas estão: demora entre a coleta da amostra e a disponibilização do resultado da análise; e pouca confiabilidade dos analisadores de processo. Para tentar suprir esta dificuldade lançam-se mão de modelos inferenciais. A inferência é basicamente uma correlação de uma propriedade em função de variáveis escolhidas, que são continuamente medidas no processo de produção. O resultado da inferência é usado diretamente pelo controlador, ocasionando a atuação rápida sobre uma ou mais válvulas de controle, ou para manipular o set point de uma ou mais temperaturas controladas de forma a corrigir uma propriedade fora da especificação. Neste trabalho será desenvolvido um sensor por software baseado em redes neurais artificiais para inferir o valor de composição do produto de topo de uma coluna de destilação piloto, sendo esta medida disponibilizada a um sistema de controle que possui ações distribuídas de calor ao longo dos pratos. Busca-se obter um sensor robusto, porém com respostas rápidas com potencial para o desenvolvimento de estratégias de controle inferenciais avançadas. O modelo empírico será baseado em rede neural e poderá ser aplicado em uma unidade piloto de destilação de 13 pratos, processando uma mistura de etanol/água. O grande diferencial deste projeto é o fato dessa estratégia ser desenvolvida em uma torre de destilação baseada em ação distribuída de controle com aquecimentos em pontos intermediários ao longo da coluna e o desafio é que o modelo consiga representar o processo com esta característica especial. Os dados necessários para a construção, treinamento e validação da rede neural empregada no sensor, serão adquiridos através de simulações com o software comercial HYSYS® 7.0, em modo dinâmico. A validação das simulações foi realizada através da comparação com dados experimentais da unidade piloto. Foram testadas inúmeras configurações e arquiteturas de dois diferentes tipos de redes neurais: feedforward e redes recorrentes de Elman. Algoritmos de treinamentos distintos também foram avaliados. Adicionalmente ao projeto foi desenvolvido um segundo sensor em malha fechada, para ser usado como um analisador de processo em tempo real, para monitoramento da planta, mantendo o sistema de controle atual. Os resultados mostraram que o modelo neural desenvolvido reproduz de forma adequada e com boa acurácia o comportamento dinâmico do processo, sendo considerado apropriado para predição de composição do produto de topo da unidade. As predições do sensor virtual foram muito similares às saídas simuladas pelo HYSYS® com erros aceitáveis. Desta forma, poderá ser utilizado para fins de monitoramento, otimização e controle no processo de destilação. / Distillation columns require appropriate control systems in order to obtain the desired product specification and a steady operation in the process. The reliable and precise measurement of the composition or of any other property of the product is one of the main difficulties in distillation towers. In order to determine those, laboratory analyses or process analyzers are employed. However, several problems rise from those methods, when applied in closed control loops. Among those problems might be mentioned: the long time between the sample collection and the availability of the results of the analyses; and the low reliability of the process analyzers. In order overcome this difficulty inferential models may be used. Inference is basically a correlation of a property in function of variables which are continually measured in the production process. The inference result is used either directly by the controller, resulting in fast action on one or more control valves, or to manipulate the set point of one or more controlled temperatures in order to correct an out of specification property. In this work, will be develop a soft sensor based on artificial neural networks to infer the value of the top product composition of a distillation column pilot. This measure will be available to a control system that distributed with action of heating along the column. The aim is to obtain a robust sensor, but with quick responses with potential for development of advanced inferential control strategies. The empirical model will be based on neural network and will be applied in a pilot distillation unit composed of 13 trays, processing an ethanol/water mixture. The great differential of this project is that this strategy be developed a distillation column based on distributed control action with heating on at intermediate points along the column. The challenge is that the model can represent the process with this special feature. The data needed for the construction, training and validation of the neural network employed on the sensor, were obtained through simulations with commercial software HYSYS® 7.0. The validation of the simulations was carried out through comparing to experimental data of the pilot unit. Various designs and architectures from two different types of neural networks: feedforward and Elman recurrent nets, were evaluated. Different training algorithms were also evaluated. Additionally to the project, has developed a second sensor in closed loop, to be used as an analyzer process real-time, monitoring of the plant, keeping the current control system. The results showed that the developed neural model reproduces with high accuracy the dynamic behavior of the process and considered adequate to estimate the composition of top product of the unit. The predictions of the developed neural network model were very similar to the product composition simulated by HYSYS® with acceptable errors. Therefore, the soft sensor developed can be used for monitoring, optimization and control in the process of distillation.
163

Redes neurais artificiais dinâmicas aplicadas a detecção automática de eventos comportamentais

Canena, Ângeluz da Costa January 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2013-06-25T18:50:04Z (GMT). No. of bitstreams: 1 307986.pdf: 2469115 bytes, checksum: 05a9f8a439f1355459bb61e09f5e9142 (MD5) / Registros comportamentais realizados de forma automatizada reduzem a influência de erros causados por fadiga e alerta sob os quais um observador humano está sujeito. O método de registro automático estudado em (CRISPIM, 2011) apresentou-se eficiente, embora não diferencie a ordem temporal de posturas a formar padrões de comportamento e suas diferentes durações. Neste trabalho investigamos o uso de uma rede neural artificial anteroalimentada com atrasos de tempo focados na entrada, através da qual foi possível observar o efeito de diferentes atrasos na detecção das diferentes categorias de comportamento (I - Imobilidade, L - Locomoção, V - Exploração vertical e A - Auto-limpeza). Além disso, foi feita uma comparação entre a detecção automática pelos classificadores treinados e a classificação por observadores humanos. Exceto pelo desempenho na detecção da categoria "A", os valores médios deste foram altos (Índices Kappa >0,75 e AUC >0,8) no conjunto de amostras de validação (pré-processadas - balanceadas e sem transições). Já no teste uma grande redução no desempenho foi observada, especialmente no índice Kappa. Neste os maiores desempenhos médios Kappa/AUC foram 28,4/68,7% na categoria "I" (comprimento de memória - sessenta unidades), 30,7/71,5% para categoria "L" (comprimento de memória - quinze unidades), 23,8/75,4% na categoria "V" (comprimento de memória - trinta unidades) e 2,7/48,9% na categoria "A" (comprimento de memória - quinze unidades). Estes resultados apresentaram diferenças estatisticamente significantes com p<0,05 entre desempenhos de comprimentos de memória para as categorias "I" e "L", não tendo sido encontrada tal diferença entre memória nas categorias "E" e "A". A confiabilidade computada para observadores humanos foi muito superior com valores médios do índice Kappa intra/inter observador de 78,9/78,9% categoria "I", 62,3/52,1% para categoria "L", 80,9/74,1% para categoria "E" e 89,4/91,2% para "A". Diferenças estatisticamente significantes para p<0,05 foram encontradas nos desempenhos inter-observador entre todas as categorias comportamentais, apontando maior acerto em relação à categoria "A" e maior dificuldade de registro na categoria "L". Estes resultados demonstram que tal rede neural dinâmica é útil à classificação de padrões comportamentais, mas são necessárias adaptações no método a fim de possibilitar um sistema mais confiável em relação aos humanos. Além disto, a categoria comportamental em que foi encontrado o maior desempenho por observadores humanos, foi a qual a rede neural desempenhou pior. Já a que a rede neural teve maior desempenho foi a qual observadores humanos tiveram seu pior. O que demonstra significante diferença entre as informações recebidas e processamento destas por cada um destes. Também foi demonstrado que para nas categorias "I" e "L" há influência da profundidade da memória de curto-prazo sobre o desempenho de detecção. / Behavioral records done by some automatic method have reduced influence of errors by tiredness and awareness about what humans are liable. The automatic recording method studied in (CRISPIM, 2011) showed efficient results, besides it could not differentiate temporal order of poses that form a pattern of behavior and its duration. At this work we investigate the use of a focused time lagged feedforward neural network, through what became able to observe the influence of different delays on the detection of the various categories of behavior (I - Immobility, L - Locomotion, V - Vertical exploration and A - Grooming). Not just that, we made a comparison between the automatic detection made by the trained classifiers and the one made by humans. Except by the detection performance on the category "A", the mean values of it was high (Kappa >0,75 and AUC >0,8 index) on the validation set (preprocessed - balanced and without transitions). On the test set otherwise, a great reduction in the performance was noticed, especially on Kappa index. The biggest mean values of Kappa/AUC indexes was 28,4/68,7% at category "I" (memory depth - sixty units), 30,7/71,5% for the "L" category (memory depth - fifteen units), 23,8/75,4% on category "V" (memory depth - thirty units) and 2,7/48,9% for "A" category (memory depth - fifteen units). These results demonstrated significant statistical difference for p<0,05 between performances of memory depths for the categories "I" and "L", but not for the other ones. The reliability computed for human observers was quite superior with mean values of Kappa index intra/inter observer of 78,9/78,9% category "I", 62,3/52,1% for category "L", 80,9/74,1% for "E" and 89,4/91,2% for "A". Significant statistical difference for p<0,05 was found at inter-observer performances between all behavioral categories, pointing a greater hit for "A" category and hardness at "L" category record. Accordingly to these results this neural network is useful to behavioral pattern classification, but it is still necessary adaptations on the method to allow a more reliable system. Beyond it, the behavioral category where was found the best performance by humans, was the worst for the neural network. On the other hand, the category where the neural network got his best performance was the worst for the humans. This shows significant difference between the received information and processing between both human and machine. For the categories "I" and "L" was demonstrated influence of the short- term memory depth at the detection performance.
164

Processo de aspersão por plasma atmosférico

Tonon, Juliano Joaquim January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2013-07-16T00:04:46Z (GMT). No. of bitstreams: 0
165

Autenticação contínua pela dinâmica da digitação usando máquinas de comitê

Silva Filho, Sérgio Roberto de Lima e January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação / Made available in DSpace on 2013-07-16T00:19:11Z (GMT). No. of bitstreams: 1 222831.pdf: 751246 bytes, checksum: c310a0dd131f93c15fa5d86fe9a310a0 (MD5) / O uso de sistemas automatizados simplifica a vida das pessoas, no entanto a dependência destes sistemas gera informações críticas armazenadas nos computadores tornando-os possíveis alvos de ataques. Para proteger o acesso a estas informações existem mecanismos de autenticação. Atualmente a maioria destes mecanismos autentica o usuário apenas na entrada do sistema, sendo que o usuário pode deixar o computador sem sair da sessão ou bloquear seu acesso, possibilitando a um intruso acessar os recursos disponíveis. Isto mostra a insuficiência dos mecanismos de autenticação realizados apenas na entrada do sistema. O objetivo deste trabalho é apresentar uma metodologia de baixo custo e não intrusiva que possibilite a autenticação contínua do usuário enquanto este está utilizando o teclado de um computador. A autenticação é realizada através do reconhecimento do padrão de digitação do usuário, que é uma característica biométrica comportamental. Neste trabalho foram abordadas duas metodologias para solução deste problema de reconhecimento de padrões, ambas utilizando Redes Neurais Artificiais (RNAs). Na primeira abordagem, uma única RNA é utilizada para representar o modelo de cada usuário e classificar dados apostos ao sistema biométrico, já na segunda abordagem é utilizado o conceito de máquinas de comitê, onde um conjunto de RNAs combinadas formam o modelo do usuário. Cada uma destas RNAs possui a capacidade de resolver uma tarefa simples, mas ao serem combinadas possibilitam a solução de uma tarefa complexa. Experimentos realizados para testar as abordagens propostas mostram que a utilização da primeira abordagem não possibilitou a classificação dos usuários testados neste trabalho, no entanto na segunda abordagem, os resultados mostram que, utilizando como informação alvo um texto fixo e limiares diferentes para cada usuário, o sistema apresentou taxa de falsa aceitação (FAR) de 0,15% e taxa de falsa rejeição (FRR) de 0%.
166

Desenvolvimento de sistemas neurais artificiais aplicados ao controle de qualidade de compressores em linha de produção

Pacheco, Antonio Luiz Schalata January 2015 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Mecânica, Florianópolis, 2015. / Made available in DSpace on 2016-10-19T12:48:57Z (GMT). No. of bitstreams: 1 337535.pdf: 2290815 bytes, checksum: 5f0711a4527804e5557470b9126f8220 (MD5) Previous issue date: 2015 / Dois mecanismos importantes para controle da qualidade de produção de compressores herméticos para refrigeração são os ensaios de desempenho e de mínima tensão de partida. Por demandarem muito tempo, ambos são restritos a laboratórios, não sendo viável aplicação direta em linhas de produção. Ensaios de desempenho requerem mais de 4 horas para serem realizados e de partida necessitam de tempos médios de 50 minutos. Devido ao tempo e custos envolvidos, a avaliação de todo um lote produzido é tipicamente realizada por meio dos ensaios de uma pequena amostra, em condições laboratoriais. O controle da qualidade de cada peça é restrito aos testes compatíveis com o tempo de ciclo da linha de produção. A empresa líder mundial na produção de compressores avalia a capacidade de cada unidade produzida em elevar a pressão de ar interna de um volume de valor conhecido, em testes que demandam menos de 7 s. Em estudo de caso,constatou-se a hipótese que desses testes de linha resultam parâmetros correlacionados aos obtidos nos ensaios de desempenho e de partida. Os níveis de correlação permitiram a realização de inferência dos parâmetros de laboratório a partir dos dados de linha de produção, o que se conseguiu com uso de ferramentas baseadas em redes neurais artificiais. Parcela significativa dos resultados das inferências distou menos de 1% dos valores fornecidos pelos ensaios de laboratório. A garantia da confiabilidade é um dos entraves mais expressivos para o emprego de redes neurais em atividades metrológicas. A avaliação de incerteza calcada nos preceitos metrológicos vigentes deve levar em conta as contribuições das incertezas de medição das variáveis de entrada e das incertezas do processo de treinamento. Com esse intuito, aperfeiçoou-se técnica disponibilizada em publicações recentes, que combina a reamostragem bootstrap, tipicamente utilizada para fornecer intervalos de confiança em redes neurais, com o método de Monte Carlo, frequentemente empregado na avaliação da incerteza de medição. A integração desses métodos representa evolução no estado da arte, por consubstanciar-se em abordagem adequada à avaliação da incerteza da saída de ferramentas baseada em redes neurais, conferindo confiabilidade às inferências obtidas em estudo de caso. Os níveis de incerteza estimados resultaram compatíveis com a incerteza de medição das grandezas envolvidas, em todas as frentes investigadas. As ferramentas propostas se mostraram adequáveis à rotina da linha de produção. O tempo médio para obtenção de cada resultado ficou próximo a 7 s, possibilitando que parâmetros típicos de ensaios de desempenho e de mínima tensão de partida possam ser obtidos para 100% dos compressores produzidos. <br> / Abstract : Two important ways to control the production quality of hermetic refrigeration compressors are the performance test and the minimum starting voltage test. Both tests demand too much time, and, the refore, they are restricted to laboratories and not feasible to be applied directly on production lines. Performance tests require longer than four hours to becarried out and starting voltage tests require an average of fifty minutes. Due to the time and cost involved in the evaluation of a whole production batch, typically, a small sample of the production batch is tested underlaboratory conditions. The quality control of each piece is restricted to tests which durations are suitable to the production line time cycle. The hermeticcompressor world leader company evaluates the capacity of each unit toincrease the air pressure in a fixed volume vessel, these tests demand lessthan seven seconds. Study cases generated the hypothesis that productionline tests have parameters that are correlated with those obtained in laboratory performance and minimum starting voltage tests. The correlation levels allowed the inference of laboratory parameters using data from the production line, what has been achieved with tools based on artificial neural networks. A significant portion of the inferences presented errors of lessthan 1% when compared with laboratory tests. The reliability assurance isone of the most significant barriers when artificial neural networks are usedin metrological activities. The uncertainty evaluation based on the current metrological precepts should consider the contributions of the measure mentuncertainties related to input variables and to the training process. Therefore, a technique presented in recent publications was improved; suchtechnique combined the bootstrap resampling approach, typically used toprovide confidence intervals on neural networks, with the Monte Carlo method, often used in the evaluation of measurement uncertainty. The proposed improvement represents the state of the art since it consolidated the uncertainty evaluation of artificial neural network results obtained on the study cases, ensuring reliability to the inferences. The estimated uncertainty levels shown compatible results compared with the measurement uncertainty related to all investigated quantities. The proposed tools proved to be suitable for the production line. The average time toobtain each result was about seven seconds, allowing the performance test parameters and minimum starting voltage to be obtained for all the produced compressors.
167

Iluminação natural e consumo energético de edificações não residenciais: aplicação de redes neurais artificiais

Fonseca, Raphaela Walger da January 2015 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Civil, Florianópolis, 2015. / Made available in DSpace on 2016-10-19T13:20:52Z (GMT). No. of bitstreams: 1 339043.pdf: 8116643 bytes, checksum: 913e1f8bc5c82d3ee6dde4865120871c (MD5) Previous issue date: 2015 / Raras ferramentas simplificadas oferecem a possibilidade de avaliar o impacto do aproveitamento da luz natural no consumo energético de edificações de forma completa devido à dificuldade de modelar a sua dupla influência: no sistema de iluminação artificial e condicionamento de ar. Este trabalho teve por objetivo investigar as possibilidades e as limitações da aplicação de redes neurais artificiais (RNAs) para estimar o potencial energético do aproveitamento da iluminação natural em edificações não residenciais por meio da metamodelagem de suas variáveis-chave. O método adotado apresentou duas etapas: a primeira, de abordagem sistemática investigativa; e a segunda, de abordagem propositiva. Na etapa investigativa, identificou-se a necessidade de avaliar o desempenho das RNAs diante de técnicas estatísticas já estudadas, adotando-se a regressão linear multivariada (RLM), e de avaliar o potencial das RNAs para a metamodelagem das principais variáveis-chave da iluminação natural referentes: a descrição, a localização e o desempenho do edifício. Para a comparação entre a precisão dos modelos RNA e RLM, repetiu-se um estudo anterior que propôs uma equação baseada em RLM para modelar uma zona termoluminosa, propondo-se uma RNA e comparando-se a precisão das técnicas. A investigação das variáveis da descrição do edifício teve como principal norteador a verificação do potencial das RNAs para modelar variáveis que operam em diferentes escalas. A investigação das variáveis do contexto do edifício avaliou o potencial das redes para modelar o comportamento de edificações em diferentes climas. Para a investigação das variáveis de desempenho do edifício, as redes foram testadas diante de diferentes agrupamentos de variáveis de desempenho de iluminação natural e de consumo energético. Essas avaliações foram desenvolvidas conforme: a) a seleção das variáveis; b) a amostragem dos dados (direcionada ou aleatória através de Hipercubo Latino); c) a simulação energética (EnergyPlus e plug-in DIVA do programa Rhinoceros, conforme a etapa do estudo priorizasse tempo ou precisão da simulação); d) o treinamento da RNA; e e) a análise dos resultados e a definição da ação seguinte. Para a realização das simulações integradas no DIVA, propôs-se um algoritmo de parametrização desenvolvido no plug-in Grasshopper, que permite a simulação de mais de 10 milhões de casos diferentes. A metamodelagem baseou-se em uma única zona termoluminosa, partindo-se da rede mais simples que pudesse aprender e generalizar soluções. A acurácia das RNAs foi verificada através da utilização de novos modelos, com características diferentes das conhecidas pela rede. A abordagem propositiva do método dispôs um método simplificado para determinar a redução do consumo energético de edifícios devido ao aproveitamento da iluminação natural. A variável de saída da RNA foi a Densidade de Potência de Iluminação em Uso (DPU), que é ponderada pela área de zonas de iluminação natural para determinar a DPU do edifício. Para a definição da área das zonas, foram propostas equações que consideraram o dinamismo do clima. Como resultado, 799 redes foram testadas diante de 19 variáveis da descrição, 14 do contexto e 15 do desempenho do edifício. Foram simulados 12.041 casos (21.187 simulações de iluminação natural e termoenergéticas). Os resultados da etapa investigativa apontaram as RNAs como método mais preciso que a RLM, a ponto de melhorar o coeficiente de determinação de 0,62 para 0,99. Quanto à investigação das variáveis da descrição do edifício, as RNAs foram capazes de modelar a influência dos parâmetros orientação, percentual de abertura da fachada e transmissão visível com erro percentual inferior a 5%. Quanto ao contexto do edifício, os melhores resultados foram obtidos agrupando-se variáveis de localização geográfica, características térmicas e disponibilidade de luz e considerando-se cidades de diferentes hemisférios na mesma rede, num total de 11 climas. Quanto às variáveis de desempenho, as redes apresentaram maior facilidade na predição das variáveis de consumo energético isoladamente do que de medidas de iluminação natural isoladamente ou de ambos na mesma rede. Quanto à etapa propositiva, o método simplificado resultou em erros inferiores a 5% quando comparado à simulação computacional. Como conclusão geral, as RNAs apresentaram elevado potencial para serem utilizadas em métodos simplificados de iluminação natural sob o enfoque energético para diversas localidades com precisão superior à RLM. Os objetivos do trabalho foram cumpridos, visto que se obteve um panorama das potencialidades da metamodelagem da iluminação natural utilizando RNAs diante de suas principais variáveis-chave e das estruturas de RNAs mais difundidas para a representação de funções. Como principal contribuição social e prática do trabalho, destacam-se um método passível de ser aplicado em todo o território nacional e a contribuição para códigos e normas locais. Como contribuição científica e teórica, destaca-se o avanço nos estudos de aplicação de inteligência artificial para a modelagem dos fenômenos físicos dinâmicos no ambiente construído (luminoso e térmico).<br> / Abstract : Few simplified tools offer the possibility of evaluating the impact of comprehensively using daylighting on energy consumption, since it is difficult to model its dual influence: on the artificial lighting system and on air conditioning. This work aimed at investigating the possibilities and the limitations of applying artificial neural networks (ANN) to predict daylight harvesting in non-residential buildings through metamodeling its key variables. There are two stages in the adopted method: the first one used a systematic investigative approach and the second one used a purposeful approach. In the investigative stage, it was identified the necessity of evaluating the ANN performance by adopting multivariate linear regression (MLR) facing other traditional statistical techniques, and to assess the ANNs potential for metamodeling the main daylighting key variables referring to: building description, building location and building performance. In order to compare the accuracy of ANN and MLR models, a previous study that had proposed a RLM-based equation to model a luminous-thermal zone was repeated, by proposing an ANN and comparing the accuracy of the techniques. The investigation of the building description variables was mainly guided by the verification of the ANNs potential, in order to model variables that operate at different scales. The investigation of the building context variables aimed at verifying the networks potential to model the buildings behavior in different climates. In order to research the variables related to building performance, different grouping parameters connected to daylighting and energy consumption were tested. The evaluation actions were developed according to: a) variables selection; b) sampling data (directed or random by Latin Hypercube); c) energy simulation (EnergyPlus and plug-in DIVA Rhinoceros software, when the study stage prioritized time or simulation accuracy); d) ANN training and e) results analysis and next actions definition. In order to perform the integrated simulations into DIVA, a parameterization algorithm developed at the Grasshopper plug-in that allows the simulation of more than 10 million different cases was proposed. The metamodel experiments were based on interactions using only one luminous-thermal zone and it started from the simplest network that could learn and generalize solutions. The accuracy of the ANNs was verified by using new models, whose characteristics were different from the ones that were already known by the network. The purposeful approach of the method disposed a simplified process for determining the reduction of buildings energy consumption due to the daylighting harvesting. The ANN output variable was the Lighting Density Power in Use (LDPU), which is weighted by the daylit to determine the building LDPU. Aiming at computing the daylit zones area, equations that consider the weather dynamism were proposed. As a result, 799 networks were tested facing 19 building description, 14 building context and 15 building performance key variables. 12,041 cases were simulated (21,187 daylighting, thermal and energy simulations). The investigative stage results indicated that the ANNs were a more accurate method than the linear regression, since the determination coefficient improved from 0.62 to 0.99. Regarding the investigation of the building description variables, the ANNs were able to model the influence of the following parameters: orientation, window to wall ratio and visible transmission, showing a percentage error lower than 5%. Concerning the building context, the best results were obtained by grouping variables regarding: geographic location, thermal characteristics and daylight availability. It considered cities from different hemispheres in the same ANN, adding up 11 different climates. The percentage error of the best network solution was lower than 10%, thus it was higher than 30% for the test set individually. On the subject of building performance parameters, the networks showed better results when predicting the energy consumption parameters separately than when predicting daylighting parameters independently, or when both of them were in the same network. Respecting the purposeful approach stage, the simplified method error was lower than 5% when compared to the computer simulation. As a general conclusion, it can be stated that the ANN technique shows a potential for being applied to develop simplified daylighting methods in line with the energy approach for multiple locations with greater precision than the MLR. The research goals have been met, since it was possible to obtain an overview of the potential using ANNs to daylighting metamodeling facing its main key variables and the most widespread ANNs structures. The main social / practical contribution of this research is the possibility of applying the method across the country and contributing to local codes and standards. As a scientific / theoretical contribution, it can be highlighted the progress in studies on artificial intelligence application for metamodeling dynamic physical phenomena in the built environment (luminous and thermal).
168

Análise de parâmetros de conforto vibroacústico para aeronaves comerciais

Teixeira, Júlio Alexandre de Matheucci e Silva January 2016 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduaçao em Engenharia Mecânica, Florianópolis, 2016. / Made available in DSpace on 2017-04-11T04:10:39Z (GMT). No. of bitstreams: 1 344786.pdf: 24217483 bytes, checksum: 426f5ca8d68b2c804f1ba532c9e0772d (MD5) Previous issue date: 2016 / O uso de aeronaves para o transporte tem crescido nas últimas décadas, e as empresas têm se preocupado cada vez mais não só na segurança mas no conforto dos passageiros. Dentre os fatores que mais são relatados como desconfortáveis estão o ruído e a vibração. Porém, especialmente em estudos feitos em usuários falantes de língua portuguesa, ambos são normalmente estudados separadamente, com pouca in-formação em como os dois influenciam em conjunto na sensação de bem-estar. As-sim, este estudo tem como objetivo principal desenvolver, com o uso de ferramentas estatísticas, um modelo de conforto vibroacústico para usuários de aeronaves comer-ciais. Foi feito um estudo prévio da influência desses estímulos no corpo humano, bem como os parâmetros e métodos utilizados para avaliá-los. Em seguida, fez-se um levantamento do histórico de pesquisas no Laboratório de Vibrações e Acústica da Uni-versidade Federal de Santa Catarina relacionados ao tema, bem como verificação do estado da arte em pesquisas no Brasil e no mundo. Para determinação do modelo final, foram realizados 4 ensaios, todos em um simulador vibroacústico de aeronaves único no Brasil: um preliminar, no qual foram feitas observações pertinentes para os ensaios seguintes; outro acerca do tempo de ambientação, importante para a verificação do período necessário para a adaptação dos sentidos quanto aos estímulos utilizados; o seguinte relacionado à amplificação e atenuação dos sinais, para quantificar a influência dessa variação de magnitude tanto do ruído quanto da vibração separadamente; e, por último, o ensaio para determinação do modelo de conforto geral, analisando-o também em função do ruído e da vibração separadamente. Em todos os ensaios foi verificada a influência de fatores pessoais, como idade, sexo, experiência com viagens e, no final, também foram acrescentados itens como peso, altura e outros dados ambientais, como temperatura e umidade do ar. O modelo final relacionou tanto esses dados quanto os parâmetros psicofísicos dos sinais com a resposta subjetiva dos usuários. Por fim, percebeu-se que a magnitude tanto do ruído quanto da vibração são os parâmetros que mais influenciam na avaliação de conforto, porém outros parâmetros, co-mo frequência, não podem ser descartados.<br> / Abstract : The use of aircraft as a transport has grown in recent decades, and companies have been increasingly concerned not only with security but with the comfort of passengers. Both noise and vibration are among the factors that are frequently reported as uncofortable. However, both are usually studied separately, especially in studies with Porguese language speakers, with little information on how the two together influence the well-being feeling. This study aims to develop, through statistical tools, a vibroacoustic comfort model for commercial aircraft passengers. A preliminary study was made about the influence of these stimuli in the human body, as well as about the parameters and methods used to evaluate them. Then there is also a survey about a research history in Laboratory of Acoustics and Vibration of the Federal University of Santa Catarina related to this theme, as well as verification of state of the art in Brazil and worldwide. Four trials were performed to determine the final model: a preliminary one, in which relevant comments were made to develop the following tests; another about ambience time, important for the verification of the period necessary for the human senses adaptation regarding the stimuli used; The third test was related to the signals amplification and attenuation, to quantify the influence of this magnitude variation on both noise and vibration separately; the last one was the test to determining the comfort model, also analysing it in terms of noise and vibration separately. In all tests, the influence of personal factors such as age, sex and travel experience was analysed and later some items such as weight, height and other environmental data such as temperature and humidity were also added. The final model related both these data and psychophysical parameters of signals with the subjective response from users. Finally, it was noted that the magnitude of both noise as vibration are the parameters that most influence the evaluation of comfort, but other parameters such as frequency can not be discarded.
169

Sistema de detecção de intrusão baseado em redes neurais

Schaeffer, Carlos Adriani Lara January 2003 (has links)
Dissertação (mestrado) - Univesidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-20T21:11:24Z (GMT). No. of bitstreams: 1 199821.pdf: 993597 bytes, checksum: b48c44f5ec032c55af301e071fb8a5a4 (MD5) / Este trabalho apresenta um estudo de problemas relacionados com segurança de informações em redes de computadores. São apresentadas algumas técnicas utilizadas para tentar garantir a segurança das informações em um ambiente de redes de computadores, como ferramentas de criptografia, Firewall e Sistemas de Detecção de Intrusão(IDS), apresentados alguns conceitos importantes na área de segurança da informação, alguns ataques conhecidos e algumas medidas preventivas. São descritos e classificados vários modelos de Sistemas de Detecção de Intrusão em redes de computadores. É feito um estudo de Redes Neurais Artificiais que será utilizada para avaliação de padrões de comportamento e detecção de padrões intrusivos. É feita a escolha de um modelo para análise e testes em um laboratório real utilizados por um grupo de professores da Universidade de Passo Fundo. A partir do uso desta rede, são criados padrões de comportamento e coletados registros de comandos executados por estes usuários a fim de verificar a existência de padrões de comportamento suspeito com o apoio de uma rede neural artificial. Para finalizar, é apresentada uma avaliação da análise feita por esta rede neural, relatando a fase de treinamento e alimentação desta rede e os resultados obtidos.
170

Desenvolvimento e aplicações de redes neurais wavelets e da teoria de regularização na modelagem de processos

Claumann, Carlos Alberto January 2003 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Química. / Made available in DSpace on 2012-10-21T05:41:49Z (GMT). No. of bitstreams: 1 191453.pdf: 1785624 bytes, checksum: 050384f4ed0525c644ff54394349f943 (MD5) / Neste trabalho foram propostas modificações na wavenet para melhorar a capacidade de generalização e reduzir o número de neurônios. O desempenho da nova rede foi superior quando comparada com as tradicionais redes feedforward e de base radial na identificação de processos não-lineares: um atrator caótico, um reator biológico em que ocorre inibição do crescimento de células pela formação de produto e um tanque de pH. O desempenho de previsão da nova rede proposta, que é do tipo estática, foi também validado utilizando essa como um simulador de processos não-lineares. Foram efetuados testes sem ruído para um CSTR (Continuos Stirred-Tank Reactor) encamisado com múltiplos estados estacionários e um reator cujo comportamento apresenta resposta inversa variável. Alguns testes foram efetuados para o reator biológico e para o tanque de pH com a adição de ruído. Foi realizado um estudo a respeito da minimização das curvaturas da superfície de um modelo empírico e efetuada sua conexão com o problema de sobre-treinamento. A nova rede proposta foi utilizada como modelo para o controle de dois processos não-lineares: um tanque de nível com alteração significativa de área (experimental) e um tanque de pH (simulado).

Page generated in 0.0874 seconds