• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 570
  • 336
  • 39
  • 21
  • 15
  • 12
  • 11
  • 8
  • 8
  • 8
  • 8
  • 4
  • 4
  • 3
  • 3
  • Tagged with
  • 1191
  • 1191
  • 1191
  • 571
  • 556
  • 423
  • 157
  • 134
  • 129
  • 128
  • 120
  • 110
  • 94
  • 93
  • 92
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
831

Avaliação da Predição de Algoritmos de Treinamento Supervisionado de Redes Neurais Artificiais Aplicado a Qualidade de Biodiesel / Prediction Evaluation Training Algorithms Supervised Artificial Neural Networks Applied to quality Biodiesel

Sousa, Raquel Machado de 26 February 2015 (has links)
Made available in DSpace on 2016-08-17T14:52:38Z (GMT). No. of bitstreams: 1 DISSERTACAO_RAQUEL MACHADO DE SOUSA.pdf: 3658389 bytes, checksum: 42d5adba41b1c3d2c90530fe77f43b2c (MD5) Previous issue date: 2015-02-26 / To ensure efficient combustion and emissions quality, as well as safety in the transport and handling of biodiesel, the National Agency of Petroleum, Natural Gas and Biofuels (ANP) establishing, through Resolution No. 14 of 2012, quality standards and specifications for this biofuel, and for that many official or alternative methods may be used. In literature, it is possible to identify an increasing use of linear methods and non - linear in the recognition and classification standards applied to the monitoring of biodiesel quality. In this context, the Artificial Neural Networks (ANN) have shown to be quite viable, as a tool non - linear, in predicting biofuel properties. The present work proposes to assess the prediction of biodiesel quality properties using supervised training algorithms of ANNs. In order to contribute to a study to provide a network structure with a training algorithm that can perform better with good results in the prediction. Through the prediction of the properties of the biodiesel from the composition of the esters of the raw material, it is possible to assess the feasibility of using such raw materials for the synthesis of a quality biodiesel. In this work we obtained a better ANN architecture for iodine value prediction and viscosity. The results of the simulations showed that the ANNs are a technology that can be used to predict these properties, like other related composition of fatty acid esters. / Para assegurar uma combustão eficiente e qualidade nas emissões, bem como a segurança no transporte e manuseio do biodiesel, a Agência Nacional do Petróleo, Gás Natural e Biocombustíveis (ANP) institui, por meio da Resolução nº 14 de 2012, parâmetros de qualidade e especificações para esse biocombustível, e para isso diversos métodos oficiais ou alternativos podem ser utilizados. Na literatura, é possível identificar uma crescente utilização de métodos lineares e não- lineares no reconhecimento e classificação de padrões aplicados ao monitoramento da qualidade de biodiesel. Nesse contexto, as Redes Neurais Artificiais (RNAs) vêm se mostrando bastante viáveis, como ferramenta não lineares, na predição de propriedades de biocombustíveis. O presente trabalho propõe avaliar a predição de propriedades de qualidade de biodiesel utilizando algoritmos de treinamento supervisionado de RNAs. De modo a contribuir com um estudo para se obter uma estrutura de rede com um algoritmo de treinamento que consiga bons resultados com melhor desempenho na predição. Por meio da predição das propriedades do biodiesel a partir da composição dos ésteres da matéria-prima, será possível avaliar a viabilidade da utilização de tal matéria-prima para a síntese de um biodiesel de qualidade. No presente trabalho obteve-se uma melhor arquitetura de RNA para predição de índice de iodo e viscosidade. Os resultados obtidos das simulações mostraram que as RNAs são uma tecnologia que pode ser utlizada para predizer essas propriedades, como outras relacionadas a composição de ésteres de ácidos graxos.
832

AVALIAÇÃO DE MATÉRIAS-PRIMAS PARA QUALIDADE DE BIODIESEIS PELA PREDIÇÃO DE PROPRIEDADES FÍSICO-QUÍMICAS / RAW MATERIALS FOR EVALUATION BIODIESELS QUALITY FOR PREDICTION OF PHYSICAL AND CHEMICAL PROPERTIES

Barradas Filho, Alex Oliveira 30 January 2015 (has links)
Made available in DSpace on 2016-08-17T16:54:31Z (GMT). No. of bitstreams: 1 TESE_Alex Oliveira Barradas Filho.pdf: 3027425 bytes, checksum: 63f427132994ab4f584101b97cb4cc80 (MD5) Previous issue date: 2015-01-30 / Alternative fuels have the potential to replace gradually the petroleum derivatives, and the biodiesel, that is a biofuel obtained from transesterification of triglycerides, is pointed as a substitute for mineral diesel. The present work focus on the optimization and application of artificial neural networks (ANNs) on the prediction of viscosity, iodine value, induction period, cetane number, specific gravity and cold filter plugging point of biodiesel, which are properties inherent to the composition. The input variables were the percentage of 13 fatty acid methyl esters (FAMEs) more common in biodiesels and, once the transesterification does not modify the fatty esters profile of the raw materials, the ANN method allowed the prediction of the six properties, even before the transesterification, after synthesis of the biodiesel or during the storage. Therefore, this method can be useful as a tool to evaluate the potential of raw materials to produce a biodiesel with good quality and to reach improvements on official methods. The optimization process of ANN occurred in three steps: test of algorithms for adjusting weights, test of stopping condition and test of activation functions, and the physicochemical properties were treated independently. For the set of test samples, which simulates real samples, the application of the optimized ANNs provided results with root mean squared errors (RMSE) of 0.55 mm²/s, 3.49 g/100g, 0.89 h, 2.06, 2.89 kg/m³ and 2.61 °C for viscosity, iodine value, induction period, cetane number, specific gravity and cold filter plugging point, respectively, what ensures the feasibility of the proposed method. A comparison between the proposed method and linear methods from literature, both based on the biodiesel composition indicate that our ANN model is much more adequate to the problem addressed. / Na busca por combustíveis alternativos que possam substituir gradualmente os derivados de petróleo, o biodiesel é apontado como um substituto para o diesel mineral e é definido como um biocombustível obtido a partir da transesterificação de triglicerídeos. O presente trabalho tem como objetivo a otimização e aplicação de redes neurais artificias (ANNs) na predição de viscosidade, índice de iodo, período de indução, número de cetano, massa específica e ponto de entupimento de filtro a frio (PEFF) de biodiesel, propriedades inerentes à composição. As variáveis de entrada foram os percentuais de 13 ésteres metílicos de ácidos graxos (FAMEs) mais comuns em biodieseis e, como a transesterificação não altera o perfil de ésteres de ácidos graxos da matéria-prima, o método ANN permitiu a predição das seis propriedades, seja antes da transesterificação, após a síntese de biodiesel ou durante o armazenamento. Portanto, este método pode ser útil como uma ferramenta para avaliar o potencial de matérias-primas para produzir um biodiesel com boa qualidade e para alcançar melhorias relativas aos métodos oficiais. O processo de otimização da ANN ocorreu em três etapas: teste dos algoritmos para ajuste de pesos, teste das condições de parada e teste das funções de ativação, e as propriedades físico-químicas foram tratadas de forma independentes. Para o conjunto de amostras de teste, que simula as amostras reais, a aplicação das ANN otimizadas forneceu resultados com a raiz do erro médio quadrático (RMSE) de 0,55 mm²/s, 3,49 g/100g, 0,89 h, 2,06, 2,89 kg/m³ e 2,61 °C para viscosidade, índice de iodo, período de indução, número de cetano, massa específica e PEFF, respectivamente, o que assegura a viabilidade do método proposto. Uma comparação entre o método proposto e métodos lineares, ambos com base na composição de biodiesel, indica que o modelo de ANN é mais adequado para o problema abordado.
833

ESTIMATIVA DA MASSA ESPECÍFICA EM ETANOL COMBUSTÍVEL POR MODELOS DE REDES NEURAIS ARTIFICIAIS E DE REGRESSÃO POR MÍNIMOS QUADRADOS PARCIAIS / ESTIMATION OF SPECIFIC MASS IN FUEL ETHANOL BY MODELS OF ARTIFICIAL NEURAL NETWORK AND OF PARTIAL LEAST SQUARES REGRESSION

Santos, Marcelo José Castro dos 22 October 2013 (has links)
Made available in DSpace on 2016-08-19T12:56:41Z (GMT). No. of bitstreams: 1 Dissertacao Marcelo Jose.pdf: 1590491 bytes, checksum: 7be3e83649dd910e0afe9a5a25de4e73 (MD5) Previous issue date: 2013-10-22 / The ethanol has continuously gained interests in many countries including Brazil due to the PROÁLCOOL program. The experimental determination of properties of ethanol and other fuels through official methods is very time consuming as well as tedious process. The estimation of these properties with the help of computational tools can be very useful. In the present work, the methods of partial least squares regression (PLS) and artificial neural network multilayer (ANN) were used to estimate one of the most important properties of fuel ethanol, density, using official quality parameters for ethanol, collected from LAPQAP/UFMA laboratory corresponding to 12 years (period: 2002-2013) of analyzes. A careful analysis of the data was performed to obtain a set of variables and data that best represents satisfactory performance of the two models. The estimates of both approaches were compared and validated. The predictive ability of the network obtained was very good for the parameters studied, consistent with the accuracy of the experimental measurements. The low mean square error, the randomness, the zero mean and the constant variance, obtained for the residues, indicated the suitability of the models, suggesting their use to estimate (predict) the density of ethanol. Results indicated that the model ANN was adequate, and the value of NMSE (normalized mean square error) of 0.0012, less than the PLS model of 0.2221. The result achieved is less than the range of measurement uncertainty of the equipment responsible for testing the density proving that the model used has satisfactory performance. / O etanol tem alcançado crescente interesse em muitos países, principalmente, no Brasil devido ao programa PROÁLCOOL. A determinação experimental das propriedades deste biocombustível e de outros combustíveis por meio de métodos oficiais é muito demorada, bem como é considerado um tedioso processo. A estimativa dessas propriedades com a ajuda de ferramentas computacionais pode ser de grande utilidade. No presente trabalho, os métodos de regressão por mínimos quadrados parciais (PLS) e redes neurais artificiais de múltiplas camadas (RNA) foram usados para estimar uma das mais importantes propriedades do etanol combustível, massa específica, utilizando parâmetros de qualidade oficiais de etanol, oriundos de análises realizadas no laboratório LAPQAP/UFMA, durante 12 anos (período: 2002-2013). Inicialmente, uma análise cuidadosa dos dados foi realizada a fim de selecionar um conjunto de variáveis e dados que melhor representasse um desempenho satisfatório dos dois modelos estudados. As estimativas de ambas as abordagens foram comparadas e validadas. A capacidade preditiva da rede neural obtida foi considerada muito boa para os parâmetros estudados, e compatível com a precisão das medidas experimentais. O baixo erro quadrático médio, a aleatoriedade, a média nula e a variância constante, obtida para os resíduos, evidenciaram a adequabilidade dos modelos usados, sugerindo a utilização destes modelos para estimar (predizer) a massa específica do etanol. Resultados indicaram que o modelo de RNA foi adequado, sendo o valor de NMSE (erro quadrático médio normalizado) de 0,0012, valor este, muito inferior ao modelo de PLS de 0,2221. Este resultado alcançado é inferior aos valores da faixa de incerteza de medição do equipamento responsável pelo ensaio experimental da massa específica, comprovando que o modelo utilizado possui desempenho considerado muito bom.
834

Uma proposta para a obtenção da população sintética através de dados agregados para modelagem de geração de viagens por domicílio / A proposal to obtain a synthetic population through aggregated data to model the number of trip productions per household

Marcela Navarro Pianucci 16 September 2016 (has links)
A estimativa de viagens por domicílio é fundamental para a tomada de decisões relativas ao planejamento urbano e de transportes. Em geral, a obtenção destas informações é por meio de modelos tradicionais como o modelo clássico de quatro etapas, e a primeira etapa do modelo é a geração de viagens. Entretanto, modelos clássicos apresentam inúmeras falhas, muitas delas relacionadas a suposições prévias matemáticas (normalidade ou continuidade da variável dependente). Desta forma, surge a necessidade de testar outras técnicas de modo a minimizar as falhas apresentadas pelos modelos clássicos e utilizá-las como uma ferramenta auxiliar, como por exemplo, as Redes Neurais Artificiais (RNAs), que podem ser aplicáveis na modelagem de problemas complexos e não lineares na área de engenharia de transportes, pois apresentam capacidade de aprendizagem, adaptação e generalização. Assim, para estimar viagens por domicílio, seja pela modelagem tradicional ou pela modelagem RNA são necessários dados desagregados dos domicílios, incluindo dados dos indivíduos, como as atividades diárias que exerce me dados sócio demográficos, etc. Esses dados são geralmente obtidos por uma Pesquisa O/D, que fornece um banco de dados detalhado sobre o comportamento de viagem da população de uma cidade. No entanto, a maioria das cidades enfrenta problemas para a aquisição desses dados, uma vez que este tipo de pesquisa possui alto custo de preparação, execução, processamento e análise. Portanto, percebe-se a necessidade de novos métodos que forneçam dados confiáveis e com baixo custo, para estimar a demanda por viagens, capazes de gerar resultados com rapidez, qualidade e acurácia e sem a necessidade dos dados provenientes de uma Pesquisa O/D. Devido a dificuldade de aquisição de dados desagregados, foi proposto neste trabalho, a geração da população sintética com dados agregados a partir da aplicação do Método Monte Carlo. Este trabalho tem por objetivo gerar uma população sintética baseada em dados censitários agregados e testar a adequabilidade das RNAs para estimar viagens por domicílio. Neste estudo, a modelagem tradicional foi utilizada para comparar nos resultados obtidos com a modelagem RNA, pois o objetivo não foi checar minuciosamente a qualidade dos modelos lineares, e sim, testar a adequabilidade das RNAs para estimar viagens por domicílio. A abordagem tradicional se baseou em um modelo de regressão linear enquanto que a abordagem de redes neurais consistiu da rede perceptron multi camadas. Na execução do trabalho foram calibrados quatro modelos (dois de cada abordagem) com os dados desagregados da Pesquisa O/D e foram comparados os resultados obtidos de cada abordagem. Ao final do trabalho, foi possível escolher o modelo mais adequados de cada abordagem e em seguida, foram utilizados para prever viagens por domicílio com os dados obtidos pela população sintética. Os resultados indicaram que 70% das variáveis obtidas na população sintética foram consideradas aptas para o estudo e que a estimativa de viagens por domicílio da população sintética obtida em ambos os modelos (Modelo 3-RNA) e (Modelo 4-RLM) obtiveram uma boa previsão, ou seja, mais de 70% das viagens por domicílio da população sintética foram consideradas válidas. Isso demonstrou que, o uso de da modelagem RNA é uma técnica alternativa eficiente e promissora na área de planejamento de transportes, especificamente para a previsão de viagens por domicílio. / The estimated number of household travels is essential in the decision-making process related to urban and transportation planning. Usually, this information is obtained through traditional models, such as four-step classic model, for example, which has trip generation as a first step. However, classic models feature numerous failures. Many of these failures are related to mathematical prior assumptions (normality or continuity of the dependent variable). Thus, it is important to test other techniques in order to reduce the failures and use these techniques as an auxiliary tool, i.e. Artificial Neural Networks (ANN). ANN are applicable in the modeling of complex and nonlinear transportation problems, due to its learning, adaptation and generalization capacities. Thus, to estimate the number of household travel, either by traditional or by ANN models, it is required disaggregated data of the households. It might include information of individuals, as daily activities and sociodemographic information. Usually, these data are obtained by a O/D survey, which provides a detailed database of the population travel behavior of the city. However, the obtainment of this information leads to high costs of preparation, execution, processing and analysis of the data. Thus, most cities have faced problems to attain this information. Therefore, new methods of estimation providing reliable data and low cost, are required. It will enable to estimate the demand of travel, rapidly with quality and accuracy, without the need of data provided through an O/D survey. Due to the difficulty of acquiring disaggregated data, this study proposes the generation of synthetic population through aggregated data by applying the method of Monte Carlo. This study aims to generate a synthetic population based on aggregated census data, and test the suitability of ANN to estimate the number of household travels. Since the aim was not thoroughly check the quality of linear models, instead, test the suitability of ANN to estimate the number of household travels, obtained results of traditional and ANN models were compared. The traditional approach was based on a linear regression while the neural network consisted of Multilayer Perceptron network. Four models (two of each approach) were proposed and calibrated with disaggregated data of an O/D Survey. Then, the results were compared. It enabled to choose the most appropriate model of each approach. Hence, these models were used to forecast the number of household travels, using the data obtained by the synthetic population proposed. The results indicated that 70% of the variables obtained through the synthetic population, were considered suitable for the study. Besides, the estimated number of household travels of the synthetic population obtained for both models (Model 3-RNA and 4-MLR model) presented a good forecast, indicating that more than 70% of household travels of the synthetic population were considered valid. Finally, it is concluded that the use of ANN modeling is an effective and promising alternative technique in the transportation-planning field, specifically to forecast the number of household travels.
835

O uso de redes neurais artificiais como ferramenta para auxiliar na determinação da vida útil de pavimentos flexíveis / Using artificial neural networks as a tool to assist in the evaluation of the remaining life of flexible pavements

Flavio Serpa Zanetti 28 March 2008 (has links)
Este trabalho apresenta um procedimento para auxiliar na determinação da vida útil de pavimentos flexíveis através da determinação de tensões e deformações causadas pela solicitação de um eixo padrão na estrutura de pavimentos flexíveis utilizando Redes Neurais Artificiais. Para treinamento e validação das redes foram utilizadas bacias de deflexões hipotéticas geradas com o auxílio do programa ELSYM5, simulando o carregamento com falling weight deflectometer. Foram criados quatro conjuntos de bacias hipotéticas, dois para pavimentos de três camadas e dois para pavimentos de quatro camadas. As redes neurais artificiais foram treinadas e validadas utilizando-se o simulador EasyNN-plus, que utiliza redes multilayer perceptron com algoritmo de aprendizagem backpropagation. Os dados de entrada das redes são as espessuras das camadas do pavimento e a bacia de deflexão. Como saída, têm-se as tensões e deformações na face inferior do revestimento e no topo do subleito e os módulos de resiliência das camadas do pavimento. Foram determinadas retas de regressão, coeficientes de regressão e histogramas de erros entre os valores reais (ELSYM5) e os valores previstos (RNA). Os resultados obtidos pelas redes neurais artificiais apresentaram boa correlação com os valores reais, demonstrando a capacidade das redes neurais para auxiliar na determinação da vida útil de pavimentos flexíveis, ao estimar diretamente as tensões e deformações em pontos específicos da estrutura. / This paper presents a procedure to assist the evaluation of the remaining life of flexible pavements by means of the determination of stresses and strains caused by a standard load in flexible pavements structures using artificial neural networks. Hypothetical deflections basins, generated by the ELSYM5 program, simulating the load applied by a falling weight deflectometer, were used to train and to validate the networks. Four sets of hypothetical basins were created, two for pavements with three layers and two for pavements with four layers. The artificial neural networks were trained and validated using the EasyNN-plus simulator, which uses multilayer perceptron networks with back-propagation learning algorithm. The networks input data are the pavements layers thickness and the deflection basin. The networks outputs are the stresses and strains in the bottom of the asphalt layer and at the top of the subgrade and resilience modulus of the pavement layers. The results obtained by the artificial neural networks showed good correlation with the real values, demonstrating that neural networks have capacity to assist in the evaluation of the remaining life of flexible pavements, estimating directly the stresses and strains of specific points of the pavement structure.
836

Redes neurais auto-organizáveis na caracterização de lesões intersticiais de pulmão em radiografia de tórax / Self-organizing neural networks in the characterization of interstitial lung diseases in chest radiographs.

Paulo Eduardo Ambrosio 01 June 2007 (has links)
O desenvolvimento tecnológico proporciona uma melhoria na qualidade de vida devido à facilidade, rapidez e flexibilidade no acesso à informação. Na área biomédica, a tecnologia é reconhecidamente uma importante aliada, permitindo o rápido desenvolvimento de métodos e técnicas que auxiliam o profissional na atenção à saúde. Recentes avanços na análise computadorizada de imagens médicas contribuem para o diagnóstico precoce de uma série de doenças. Nesse trabalho é apresentada uma metodologia para o desenvolvimento de um sistema computacional para caracterização de padrões em imagens pulmonares, baseado em técnicas de redes neurais artificiais. No estudo, buscou-se verificar a utilização de redes neurais auto-organizáveis como ferramenta de extração de atributos e redução de dimensionalidade de imagens radiográficas de tórax, objetivando a caracterização de lesões intersticiais de pulmão. Para a redução de dimensionalidade e extração de atributos, implementou-se um algoritmo baseado nos mapas auto-organizáveis (SOM), com algumas variações, obtendo-se uma redução dos cerca de 3 milhões de pixels que compõe uma imagem, para 240 elementos. Para a classificação dos padrões, utilizou-se uma rede Perceptron multi-camadas (MLP), validada com a metodologia leave-one-out. Com uma base contendo 79 exemplos de padrão linear, 37 exemplos de padrão nodular, 30 exemplos de padrão misto, e 72 exemplos de padrão normal, o classificador obteve a média de 89,5% de acerto, sendo 100% de classificação correta para o padrão linear, 67,5% para o padrão nodular, 63,3% para o padrão misto, e 100% para o padrão normal. Os resultados obtidos comprovam a validade da metodologia. / The technological development provides an improvement in the quality of life due to easiness, speed and flexibility in the access to the information. In the biomedical area, the technology is admitted as an important allied, allowing the fast development of methods and techniques that assist the professional in the health care. Recent advances in the computerized analysis of medical images contribute for the precocious diagnosis of a series of diseases. In this work a methodology for the development of a computational system for characterization of patterns in pulmonary images, based in techniques of artificial neural networks is presented. In the study, has searched for the verification the use of self-organizing neural networks as a feature extraction and dimensionality reduction tool of chest radiographs, willing to characterize interstitial lung disease. For the dimensionality reduction and feature extraction, an algorithm based on Self-Organizing Maps (SOM) was implemented, with some variations, getting a reduction of about 3 million pixels that it composes an image, for 240 elements. For the pattern classification, a Multilayer Perceptron (MLP) was used, validated with the leave-one-out methodology. With a database containing 79 samples of linear pattern, 37 samples of nodular pattern, 30 samples of mixed pattern, and 72 samples of normal pattern, the classifier provided an average result of 89.5% of right classification, with 100% of right classification for linear pattern, 67.5% for nodular pattern, 63.3% for mixed pattern, and 100% for normal pattern. The results prove the validity of the methodology.
837

Estudo de técnicas de otimização para reconstrução de energia de jatos no primeiro nível de seleção de eventos do experimento ATLAS

Barbosa, Davis Pereira 03 July 2012 (has links)
Submitted by isabela.moljf@hotmail.com (isabela.moljf@hotmail.com) on 2017-07-21T15:18:26Z No. of bitstreams: 1 davispereirabarbosa.pdf: 59375438 bytes, checksum: b4bcce98691deb4c521a6546b7bb6083 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-08-08T18:22:42Z (GMT) No. of bitstreams: 1 davispereirabarbosa.pdf: 59375438 bytes, checksum: b4bcce98691deb4c521a6546b7bb6083 (MD5) / Made available in DSpace on 2017-08-08T18:22:42Z (GMT). No. of bitstreams: 1 davispereirabarbosa.pdf: 59375438 bytes, checksum: b4bcce98691deb4c521a6546b7bb6083 (MD5) Previous issue date: 2012-07-03 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Atualmente, o LHC é o maior e mais energético colisionador de partículas em fun-cionamento, colidindo prótons com energias de 7 TeV no centro de massa a cada 50 ns. Vários detectores estão posicionados para medir as características das partículas após a colisão, sendo então utilizadas para verificar a validade das novas teorias de física de partículas. O ATLAS é o maior dos detectores do LHC, estando em operação desde 2009 e fornecendo uma grande quantidade de dados para as análise físicas para a busca do Higgs. Um dos principais responsáveis pelas qualidade das informações adquiridas pelo ATLAS é o seu sistema de seleção de eventos online que foi desenvolvido para rejeitar informações irrelevantes das colisões, excluindo a enorme quantidade de ruído de fundo do experimento. Entretanto, o LHC passará por atualizações visando o au-mento da sua luminosidade em uma ordem de grandeza (103' para 1035) nos próximos dez anos, gerando assim uma maior quantidade de eventos por colisão, aumentando a probabilidade de empilhamento de eventos. Desta forma, o ATLAS e o seu sistema de seleção de eventos online também deverão sofrer modificações para atender aos novos requisitos do experimento. O presente trabalho realizou estudos sobre a utilização de novos algoritmos para estimação da energia de jatos no primeiro nível de seleção de eventos do detector ATLAS. Inicialmente, uma janela bidimensional é aplicada na região onde o jato foi identificado, visando a redução do impacto do empilhamento dos eventos nas bordas desta região. Em seguida, é proposta a utilização da informação de profundidade do calorímetro hadrônico do ATLAS na estimação de energia do jato, através de técnicas de otimização linear (mínimos quadrados) e não-linear (redes neu-rais artificiais). Os resultados obtidos, através de simulações Monte Carlo, mostraram que a informação de profundidade do TileCal reduz o erro de estimação da energia dos jatos em aproximadamente 23%, enquanto que a utilização da janela bidimen-sional melhora o comportamento inicial da curva de acionamento de jatos indicando sua efetividade em cenários de empilhamento de eventos. / The LHC is the biggest and most energetic particle collider, performing proton-proton collisions with 7 TeV on center of mass at 50 ns rate. Several detectors are placed along the LHC in order to measure the collisions results, envisaging the validation or rejection of the new particle physics theories. The ATLAS experiment is the biggest detector at LHC, operating very well since 2009 and providing large amount of data for the physics analysis envisaging the search for the Higgs Particle. The online event selection system (trigger) is one of the major reponsibles for the quality of the acquired data in ATLAS, it was designed to reject the huge amount of background noise generated at LHC. However, the LHC upgrade for high luminosity (10' to 1035) in the following ten years will increase the amount of events per collison, increasing the event pileup probability. In order to cope with the new luminosity requirements, the ATLAS and its trigger system will also upgrade its components and algorithms. This work presents the studies about the use of new algorithms for jet energy estimation in the first level of the ATLAS trigger system. Envisaging the reduction of the pileup effect, a bidimensional window is applied on the region where the event was identified (RoI). Additionally, the longitudinal information from the ATLAS hadronic calorimeter (TileCal) is used in order to improve the jet energy estimation, using linear (Least Square) and nonlinear (Artificial Neural Networks) optimization techniques. The achieved results, through Monte Carlo simulations, show that the TileCal logitudinal information reduces the energy estimation error by 23%, while the bidimensional window slightly improves the jet turn on curve indicating the reduction of the pileup effects.
838

Avaliação do uso de classificadores para verificação de atendimento a critérios de seleção em programas sociais

Santos, Cinara de Jesus 07 March 2017 (has links)
Submitted by isabela.moljf@hotmail.com (isabela.moljf@hotmail.com) on 2017-08-15T12:01:50Z No. of bitstreams: 1 cinaradejesussantos.pdf: 4566569 bytes, checksum: bddc2ea97276541c0a8ad30a371102d1 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-08-15T12:02:54Z (GMT) No. of bitstreams: 1 cinaradejesussantos.pdf: 4566569 bytes, checksum: bddc2ea97276541c0a8ad30a371102d1 (MD5) / Made available in DSpace on 2017-08-15T12:02:54Z (GMT). No. of bitstreams: 1 cinaradejesussantos.pdf: 4566569 bytes, checksum: bddc2ea97276541c0a8ad30a371102d1 (MD5) Previous issue date: 2017-03-07 / Classificadores são separadores de grupos que mediante determinadas características organiza os dados agrupando elementos que apresentem traços semelhantes, o que permite reconhecimento de padrões e identificação de elementos que não se encaixam. Esse procedimento de classificação e separação pode ser observado em processos do cotidiano como exames (clínicos ou por imagem), separadores automáticos de grãos na agroindústria, identificador de probabilidades, reconhecedores de caracteres, identificação biométrica - digital, íris, face, etc. O estudo aqui proposto utiliza uma base de dados do Ministério do Desenvolvimento Social e Combate a Fome (MDS), contendo informações sobre beneficiários do Programa Bolsa Família (PBF), onde contamos com registros descritores do ambiente domiciliar, grau de instrução dos moradores do domicílio assim como o uso de serviços de saúde pelos mesmos e informações de cunho financeiro (renda e gastos das famílias). O foco deste estudo não visa avaliar o PBF, mas o comportamento de classificadores aplicados sobre bases de caráter social, pois estas apresentam certas particularidades. Sobre as variáveis que descrevem uma família como beneficiária ou não do PBF, testamos três algoritmos classificadores - regressão logística, árvore binária de decisão e rede neural artificial em múltiplas camadas. O desempenho destes processos foi medido a partir de métricas decorrentes da chamada matriz de confusão. Como os erros e acertos de uma classe n˜ao s˜ao os complementares da outra classe é de suma importância que ambas sejam corretamente identificadas. Um desempenho satisfatório para ambas as classes em um mesmo cenário não foi alçado - a identificação do grupo minoritário apresentou baixa eficiência mesmo com reamostragem seguida de reaplicação dos três processos classificatórios escolhidos, o que aponta para a necessidade de novos experimentos. / Classifiers are group separators that, by means of certain characteristics, organize the data by grouping elements that present similar traits, which allows pattern recognition and the identification of elements that do not fit. Classification procedures can be used in everyday processes such as clinical or imaging exams, automatic grain separators in agribusiness, probability identifiers, character recognition, biometric identification by thumbprints, iris, face, etc. This study uses a database of the Ministry of Social Development and Fight against Hunger (MDS), containing information on beneficiaries of the Bolsa Fam´ılia Program (PBF). The data describe the home environment, the level of education of the residents of the household, their use of public health services, and some financial information (income and expenses of families). The focus of this study is not to evaluate the PBF, but to analyze the performance of the classifiers when applied to bases of social character, since these have certain peculiarities. We have tested three classification algorithms - logistic regression, binary decision trees and artificial neural networks. The performance of these algorithms was measured by metrics computed from the so-called confusion matrix. As the probabilities of right and wrong classifications of a class are not complementary, it is of the utmost importance that both are correctly identified. A good evaluation could not be archive for both classes in a same scenario was not raised - the identification of the minority group showed low efficiency even with resampling followed by reapplication of the three classificatory processes chosen, which points to the need for new experiments.
839

Application of spatiotemporal techniques to estimate evapotranspiration in the Paraíba do Sul river watershed

Mirambell, Alberto Benito 23 February 2018 (has links)
Submitted by Geandra Rodrigues (geandrar@gmail.com) on 2018-06-28T12:04:49Z No. of bitstreams: 1 albertobenitomirambell.pdf: 7805095 bytes, checksum: 69d22876f49a364f6fb31b967f70c3ba (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2018-07-03T15:27:23Z (GMT) No. of bitstreams: 1 albertobenitomirambell.pdf: 7805095 bytes, checksum: 69d22876f49a364f6fb31b967f70c3ba (MD5) / Made available in DSpace on 2018-07-03T15:27:23Z (GMT). No. of bitstreams: 1 albertobenitomirambell.pdf: 7805095 bytes, checksum: 69d22876f49a364f6fb31b967f70c3ba (MD5) Previous issue date: 2018-02-23 / No dia de hoje, qualquer estudo relacionado aos recursos hídricos e seus usos, tais como irrigação, abastecimento de água e geração de energia, é de suma importância em função dos cenários que vivemos atualmente face às variabilidades climáticas. O uso eficiente desses recursos faz-se cada vez mais necessário, envolvendo fatores como a estimativa de algumas variáveis relacionadas ao ciclo hidrológico, notadamente a evapotranspiração. Há quase trinta anos a FAO recomendou o uso da equação de Penman-Monteith para a estimativa da evapotranspiração de referência. Desde então tem sido aplicada com sucesso em diferentes regiões e sob diferentes climas. No entanto, esta abordagem tem algumas desvantagens, entre elas, o fato de depender de medições de campo de parâmetros climáticos, tais como temperatura, humidade do ar, velocidade do vento e radiação solar. Além disso, essas medições são pontuais em referência ao local de operação da estação meteorológica e podem não representar de forma fidedigna as condições climáticas dos ambientes circundantes. Nos últimos tempos, com o avanço da tecnologia, o desenvolvimento de potentes linguagens de programação orientados à análise de dados, o surgimento das técnicas na área de inteligência artificial e do tratamento de grandes volumes de dados (“Big Data”), surgiram ferramentas com grande potencial para melhorar a forma como se tratam os eventos naturais ou antrópicos, permitindo maior eficiência e produtividade. Nessa linha, o objetivo principal do presente estudo é o uso desse conjunto de tecnologias para uma estimação confiável e robusta da evapotranspiração, na medida que constitui uma variável fundamental no fechamento do balanço hídrico no nível de uma bacia hidrográfica. Complementarmente, essa estimativa poderia ser também empregada como indicativo da perda água em uma cultura pelo agricultor. Em especial, dois procedimentos foram aplicados ao longo deste trabalho: redes neurais artificiais (RNA’s) e o algoritmo METRIC. O primeiro está associado a uma ferramenta com base em inteligência artificial, capaz de reproduzir o comportamento de certas variáveis com um alto nível de semelhança abrindo a possibilidade de gerar predições a curto-maio prazo que ajude no gerenciamento dos recursos hídricos por parte dos comités de bacia e outros entes responsáveis por eles. Por outro lado, METRIC permite usar imagens de satélite para estimar evapotranspiração em escala horária, capturando as abruptas mudanças que sofrem algumas variáveis climáticas ao longo do dia, sendo esta uma informação de vital importância para os agricultores determinarem a irrigação com maior confiabilidade. Os resultados obtidos após a aplicação de ambos os procedimentos, que compõem a abordagem metodológica deste trabalho, foram muito satisfatórios e com uma alta correlação com aqueles gerados pela metodologia considerada como referência. Assim sendo, pode-se concluir que ambos procedimentos formam um referencial apropriado na estimativa de valores de evapotranspiração que podem ser transferidos à prática agrícola com a certeza de uma melhora constante a tenor da rápida e imparável evolução da tecnologia na área da agricultura de precisão. / Nowadays, any study related to water resources and its usage, such as irrigation, water consumption and energy production is a central issue due to the climate change scenario we are currently living. The efficient use of such resources is a must and involves several factors, among them, the estimate of some hydrologic cycle-related variables, highlighting evapotranspiration, among them. About thirty years ago, the FAO recommended Penman-Monteith equation as the most trustworthy and representative methodology to estimate reference crop evapotranspiration. Since then, it has been applied successfully over different regions and under diverse weather conditions. However, this approach has some cons, such as its dependency on ground measurements of most common climatological parameters: temperature, relative air humidity, wind speed or solar radiation. In addition, these measurements are punctual on the weather station’s location and may not fully represent surrounding environments’ conditions. Lately, thanks to technological advances, the development of powerful programming data analysis-oriented languages, the rising of artificial intelligence, as well as big data, we have a wide variety of tools to improve the way we analyse natural phenomena, making it more efficient and productive. Therefore, the main objective of the present study is the use of such technologies aiming to estimate reliable evapotranspiration values, as a central parameter on water resources management at watershed basis, or even as an indicator of crop water loss, by farmers. Mainly, two different technology-based approaches have been applied along this dissertation pursuing the objective previously mentioned: artificial neural networks (ANN’s) and METRIC algorithm. The former is an artificial intelligence-based tool, capable of “recording” specific variables behaviour and succeed in “mimicking” them at a high resemblance level, favouring the possibility of short-half term forecasts to help watershed committees and other responsible bodies manage water resources. On the other hand, METRIC algorithm uses satellite imagery in order to estimate evapotranspiration hourly and able thus to catch the disrupting changes some of the climatological variables suffer along the day, turning into a vital piece of information for farmers, since they can design irrigation schedule more precisely. Results obtained after both procedures’ application, which compose the methodological approach throughout this study, fully satisfied our expectations and showed a high correlation to those results estimated by the methodology of reference. To sum up, we conclude that both approaches are reliable at estimating reference crop evapotranspiration and can be transferred to the agricultural management assuring a steady improvement due to the quick and unstoppable evolution in technology on the “agriculture of precision” field.
840

Novas propostas e aplicações de redes neurais com estados de eco / New proposals and applications of echo state networks

Boccato, Levy, 1986- 07 April 2013 (has links)
Orientador: Romis Ribeiro de Faissol Attux / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-22T21:42:43Z (GMT). No. of bitstreams: 1 Boccato_Levy_D.pdf: 9602973 bytes, checksum: 0bfc5a3c46d2a9041890600ab877144c (MD5) Previous issue date: 2013 / Resumo: As redes neurais com estados de eco (em inglês, echo state networks, ESNs) são estruturas recorrentes capazes de aliar processamento dinâmico a um processo de treinamento relativamente simples, o qual se resume à adaptação dos coeficientes do combinador linear da saída no sentido de mínimo erro quadrático médio (em inglês, mean squared error, MSE), enquanto os pesos das conexões no reservatório de dinâmicas são ajustados de maneira antecipada e permanecem fixos. A presente tese trata dos principais elementos que caracterizam as ESNs e propõe: (i) uma unificação entre as abordagens de computação com reservatórios, como as ESNs e as liquid state machines (LSMs), e as extreme learning machines (ELMs), sob o termo geral de máquinas desorganizadas, o qual estabelece uma conexão com as pioneiras idéias conexionistas de Alan Mathison Turing; (ii) uma nova arquitetura de ESN, cuja camada de saída é composta por um filtro de Volterra e por um estágio de compressão baseado em Análise de Componentes Principais (em inglês, Principal Component Analysis, PCA); (iii) o uso de critérios de aprendizado baseados em teoria da informação e em normas Lp em lugar do critério MSE para a adaptação dos parâmetros da camada de saída de ESNs; e (iv) uma estratégia não-supervisionada de projeto da camada recorrente de ESNs baseada em interações laterais, modeladas segundo a função chapéu mexicano, e na auto-organização dos pesos de entrada. As propostas elaboradas neste trabalho são analisadas através de simulações no contexto de diferentes problemas de processamento da informação, como equalização de canais de comunicação, separação de fontes e predição de séries temporais / Abstract: Echo state networks (ESNs) are recurrent structures capable of allying dynamic processing to a relatively simple training process, which amounts to adapting the coefficients of the linear combiner at the output in the minimum mean squared error (MSE) sense, while the connection weights in the dynamical reservoir are adjusted in advance and remain fixed. The present thesis deals with the main elements that characterize ESNs and proposes: (i ) a unification between reservoir computing approaches, such as ESNs and liquid state machines (LSMs), and extreme learning machines (ELMs), under the general term of unorganized machines, which establishes a connection with the pioneering connectionist ideas of Alan Mathison Turing; (ii ) a novel ESN architecture whose output layer is composed of a Volterra filter and of a compression stage based on Principal Component Analysis (PCA); (iii ) the use of information-theoretic learning criteria and those based on Lp norms instead of the MSE criterion for the adaptation of the parameters of the ESN output layer; and (iv) an unsupervised strategy for designing the recurrent layer of ESNs based on lateral interactions, modeled according to the mexican hat function, and on the self-organization of the input weights. The proposals developed in this work are analyzed through simulations in the context of different information processing problems, such as channel equalization, source separation and time series prediction / Doutorado / Engenharia de Computação / Doutor em Engenharia Elétrica

Page generated in 0.3999 seconds