• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 621
  • 158
  • 86
  • 74
  • 55
  • 47
  • 33
  • 17
  • 16
  • 14
  • 13
  • 12
  • 9
  • 8
  • 8
  • Tagged with
  • 1436
  • 211
  • 191
  • 191
  • 183
  • 180
  • 124
  • 118
  • 104
  • 103
  • 99
  • 86
  • 82
  • 80
  • 79
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
441

Uso da terra e infiltração de água no solo no perímetro de irrigação Pontal Sul / Land use and soil water infiltration in the Pontal Sul irrigation scheme

Correia, Joselina de Souza [UNESP] 18 November 2016 (has links)
Submitted by JOSELINA DE SOUZA CORREIA null (joselina.scorreia@gmail.com) on 2017-01-10T13:04:37Z No. of bitstreams: 1 Tese oficial _ Joselina de Souza Correia . 2017.pdf: 2214453 bytes, checksum: 2a09bae07d69c106a4dd8c34d57ecd39 (MD5) / Approved for entry into archive by Juliano Benedito Ferreira (julianoferreira@reitoria.unesp.br) on 2017-01-12T13:56:01Z (GMT) No. of bitstreams: 1 correia_js_dr_bot.pdf: 2214453 bytes, checksum: 2a09bae07d69c106a4dd8c34d57ecd39 (MD5) / Made available in DSpace on 2017-01-12T13:56:01Z (GMT). No. of bitstreams: 1 correia_js_dr_bot.pdf: 2214453 bytes, checksum: 2a09bae07d69c106a4dd8c34d57ecd39 (MD5) Previous issue date: 2016-11-18 / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / Diante das situações de escassez hídrica que ocorrem no Semiárido Brasileiro, e do contínuo aumento populacional naquela região são procurados meios que otimizem o uso da água. O objetivo desse trabalho foi analisar e criar uma perspectiva, dentro das variações ocorridas nos padrões de uso e ocupação do solo, por meio de imagens de satélites e da infiltração de água no solo, para subsidiar o uso racional da área, da água no Perímetro de Irrigação Pontal Sul, em Pernambuco. Para isso, foi feito o uso de geotecnologias, para fornecer elementos subsidiando uma melhor gestão em larga escala. Duas imagens LANDSAT para os anos2000-2015, foram analisadas e classificadas por meio do programa ArcGis, para comparação dos diferentes tipos de uso do solo. As classes e subclasses foram definidas por processo não supervisionado, seguido por supervisionado, sendo o perímetro dividido em duas classes, área antropizada e área natural, e esses subdivididos em solo descoberto e agricultura irrigada, e em Caatinga densa e Caatinga raleada, respectivamente. As mesmas imagens foram analisadas pelo programa IDRISI, e seus resultados confrontados com os encontrados pelo ArcGis. Foram utilizados dados de 21 testes de infiltração, da água no solo determinados por meio da metodologia dos anéis concêntricos, de onde se obteve a velocidade de infiltração básica (VIB). Os dados encontrados foram ajustados por vários modelos, e o de Kostiakov e a função potência foram os mais qualificados para os tipos de solo do perímetro. Quanto ao uso da terra, a Caatinga densa está presente em 22,1% e 24,8%; a Caatinga rala representa 51,2% e 39,1%; e a classe solo está descoberto em 26,75% e 33,64% da área do perímetro, respectivamente em 2000 e 2015. A agricultura irrigada foi visível apenas no ano de 2015 com 2,45% da área. Quando comparados, os programas evidenciaram algumas similaridades, e relativa coerência no uso e transformação das classes do solo, sendo que o IDRISI atribuiu a algumas classes uma extensão superior ao determinado pelo ArcGis. Como divergência, o programa IDRISI registrou presença de água superficial no primeiro cenário e agricultura irrigada em ambos os anos. A VIB foi classificada como muito alta e aponta a região como arenosa sob as condições analisadas, o que dificulta sua retenção hídrica e favorece sua infiltração. Os cenários sinalizam regiões parcialmente similares como zonas potenciais, para expansão da agricultura irrigada, legitimando a eficiência dessas geotecnologias na gestão e perspectiva de uso do perímetro de irrigação. / In face of the water stress situations that occur in the Brazilian semi-arid, as well as the continued population growth in that region, the use of water resources should be maximized. Thus, the aim of this study was to analyze and create a perspective within the variations of land use patterns, through the image analysis and soil water infiltration, for guiding the use of irrigated area inside of the Pontal Sul Irrigation Scheme, state of Pernambuco, Brazil. For this, the use of geotechnology was made to provide elements for a better area management. Satellite images (2000-2015), provided by the INPE and Codevasf, were analyzed and classified by the ArcGIS software for investigation and comparison of land use. The classes and subclasses were defined by unsupervised process, followed by supervised one, and the irrigation scheme was divided into two classes, anthropic area and natural area, and these were subdivided into discovered and irrigated agriculture soil, and dense Caatinga and thinned Caatinga, respectively. The same images were analyzed by IDRISI software, and the results compared with those found by ArcGis. Data from 21 infiltration tests were used, determined by the methodology of concentric rings, where basic infiltration rate (BIR) was derived. The data were adjusted for several models, and the Kostiakov and the power function models were the most qualified to the irrigation scheme soils. Regarding the use of the land, dense Caatinga is present in 22.1% and 24.8%; the thinned Caatinga represents 51.2% and 39.1%; and the soil is uncovered in 26.75% and 33.64% of the irrigation scheme area, respectively in 2000 and 2015. Irrigated agriculture was visible only in the year 2015, in 2.45% of the area. Both software showed some similarities and consistency on the use and transformation of soil classes, and IDRISI assigned to a higher extent class determined by the ArcGis. As divergence IDRISI software recorded the presence of surface water in the first scenario and irrigated agriculture in both years. The BIR was classified as very high and indicated that soils as sandy under the conditions analyzed, which makes its water retention low and favors water infiltration. The scenarios indicate partially similar regions as potential areas for expansion of irrigated agriculture, legitimizing the efficiency of these geotechnology in management and in the perspective of the irrigation scheme use. / CNPq:161122/2012-4
442

Detecção e diagnóstico de falhas baseado em modelos empíricos no subespaço das variáveis de processo (EMPVSUB)

Bastidas, Maria Eugenia Hidalgo January 2018 (has links)
O escopo desta dissertação é o desenvolvimento de uma metodologia para a detecção e diagnóstico de falhas em processos industriais baseado em modelos empíricos no subespaço das variáveis do processo com expansão não linear das bases. A detecção e o diagnóstico de falhas são fundamentais para aumentar a segurança, confiabilidade e lucratividade de processos industriais. Métodos qualitativos, quantitativos e baseados em dados históricos do processo têm sido estudados amplamente. Para demonstrar as vantagens da metodologia proposta, ela será comparada com duas metodologias consideradas padrão, uma baseada em Análise de Componentes Principais (PCA) e a outra baseada em Mínimos Quadrados Parciais (PLS). Dois estudos de casos são empregados nessa comparação. O primeiro consiste em um tanque de aquecimento com mistura e o segundo contempla o estudo de caso do processo da Tennessee Eastman. As vantagens da metodologia proposta consistem na redução da dimensionalidade dos dados a serem usados para um diagnóstico adequado, além de detectar efetivamente a anormalidade e identificar as variáveis mais relacionadas à falha, permitindo um melhor diagnóstico. Além disso, devido à expansão das bases dos modelos é possível trabalhar efetivamente com sistemas não lineares, através de funções polinomiais e exponenciais dentro do modelo. Adicionalmente o trabalho contém uma metodologia de validação dos resultados da metodologia proposta, que consiste na eliminação das variáveis do melhor modelo obtido pelos Modelos Empíricos, através do método Backward Elimination. A metodologia proposta forneceu bons resultados na área do diagnóstico de falhas: conseguiu-se uma grande diminuição da dimensionalidade nos sistemas estudados em até 93,55%, bem como uma correta detecção de anormalidades e permitiu a determinação das variáveis mais relacionadas às anormalidades do processo. As comparações feitas com as metodologias padrões permitiram demonstrar que a metodologia proposta tem resultados superiores, pois consegue detectar as anormalidades em um espaço dimensional reduzido, detectando comportamentos não lineares e diminuindo incertezas. / Fault detection and diagnosis are critical to increasing the safety, reliability, and profitability of industrial processes. Qualitative and quantitative methods and process historical data have been extensively studied. This article proposes a methodology for fault detection and diagnosis, based on historical data of processes and the creation of empirical models with the expansion of nonlinear bases (polynomial and exponential bases) and regularization techniques. To demonstrate the advantages of the proposed approach, it is compared with two standard methodologies: Principal Components Analysis (PCA) and the Partial Least Squares (PLS), performed in two case studies: a mixed heating tank and the Tennessee Eastman Process. The advantages of the proposed methodology are the reduction of the dimensionality of the data used, in addition to the effective detection of abnormalities, identifying the variables most related to the fault. Furthermore, the work contains a methodology to validate the diagnosis results consisting of variable elimination from the best empirical models with the Backward Elimination algorithm. The proposed methodology achieved a promising performance, since it can decrease the dimensionality of the studied systems up to 93.55%, reducing uncertainties, and capturing nonlinear behaviors.
443

Previsão de longo prazo de níveis no sistema hidrológico do TAIM

Galdino, Carlos Henrique Pereira Assunção January 2015 (has links)
O crescimento populacional e a degradação dos corpos d’água vêm exercendo pressão à agricultura moderna, a proporcionar respostas mais eficientes quanto ao uso racional da água. Para uma melhor utilização dos recursos hídricos, faz-se necessário compreender o movimento da água na natureza, onde o conhecimento prévio dos fenômenos atmosféricos constitui uma importante ferramenta no planejamento de atividades que utilizam os recursos hídricos como fonte primária de abastecimento. Nesse trabalho foram realizadas previsões de longo prazo com antecedência de sete meses e intervalo de tempo mensal de níveis no Sistema Hidrológico do Taim, utilizando previsões de precipitação geradas por um modelo de circulação global. Para realizar as previsões foi elaborado um modelo hidrológico empírico de regressão, onde foram utilizadas técnicas estatísticas de análise e manipulação de séries históricas para correlacionar os dados disponíveis aos níveis (volumes) de água no banhado. Partindo do pressuposto que as previsões meteorológicas são a maior fonte de incerteza na previsão hidrológica, foi utilizada a técnica de previsão por conjunto (ensemble) e dados do modelo COLA, com 30 membros, para quantificar as incertezas envolvidas. Foi elaborado um algoritmo para gerar todas as possibilidades de regressão linear múltipla com os dados disponíveis, onde oito equações candidatas foram selecionadas para realizar as previsões. Numa análise preliminar dos dados de entrada de precipitações previstas foi observado que o modelo de circulação global não representou os extremos observados de forma satisfatória, sendo executado um processo de remoção do viés. O modelo de empírico de simulação foi posteriormente executado em modo continuo, gerando previsões de longo prazo de níveis para os próximos sete meses, para cada mês no período de junho/2004 a dezembro/2011. Os resultados obtidos mostraram que a metodologia utilizada obteve bons resultados, com desempenho satisfatórios até o terceiro mês, decaindo seu desempenho nos meses posteriores, mas configurando-se em uma ferramenta para auxílio à gestão dos recursos hídricos do local de estudo. / Population growth and degradation of water bodies have been pressuring modern agriculture, to provide more efficient responses about the rational use of water. For a better use of water resources, it is necessary to understand the movement of water in nature, where prior knowledge of atmospheric phenomena is an important tool in planning activities that use water as the primary source of supply. In this study were performed long-term forecasts of water levels (seven months of horizon, monthly time-step) in the Hydrological System Taim, using rainfall forecasts generated by a global circulation model as input. To perform predictions was developed an empirical hydrological regression model. This model was developed based on statistical techniques of analysis and manipulation of historical data to correlate the input data available to the levels (volume) of water in a wetland. Assuming that weather forecasts are a major source of uncertainty in hydrological forecasting, we used an ensemble forecast from COLA 2.2 with 30 members to quantify the uncertainties involved. An algorithm was developed to generate all the multiple linear regression models with the available data, where eight candidates equations were selected for hydrological forecasting. In a preliminary analysis of the precipitation forecast was observed that the global circulation model did not achieve a good representation of extremes values, thus a process of bias removal was carried out. Then the empirical model was used to generate water levels forecast for the next seven months, in each month of the period june/2004 to december/2011. The results showed that the methodology used has a satisfactory performance until the lead time three (third month in the future) where the performance starts to show lower values. Beside the sharply lost of performance in the last lead times, the model is a support tool that can help the decision making in the management of water resources for the study case.
444

Multi-Label Classification Methods for Image Annotation

BRHANIE, BEKALU MULLU January 2016 (has links)
No description available.
445

Replicação de estudos empíricos em engenharia de software. / Empirical studies replication in engineering software.

Emerson Silas Dória 11 June 2001 (has links)
A crescente utilização de sistemas baseados em computação em praticamente todas as áreas da atividade humana provoca uma crescente demanda por qualidade e produtividade, tanto do ponto de vista do processo de produção como do ponto de vista dos produtos de software gerados. Nessa perspectiva, atividades agregadas sob o nome de Garantia de Qualidade de Software têm sido introduzidas ao longo de todo o processo de desenvolvimento de software. Dentre essas atividades destacam-se as atividades de Teste e Revisão, ambas com o objetivo principal de minimizar a introdução de erros durante o processo de desenvolvimento nos produtos de software gerados. A atividade de Teste constitui um dos elementos para fornecer evidências da confiabilidade do software em complemento a outras atividades, como por exemplo, o uso de revisões e de técnicas formais e rigorosas de especificação e de verificação. A atividade de Revisão, por sua vez, é um 'filtro' eficiente para o processo de engenharia de software, pois favorece a identificação e a eliminação de erros antes do passo seguinte do processo de desenvolvimento. Atualmente, pesquisas estão sendo realizadas com objetivo de determinar qual técnica, Revisão ou Teste, é mais adequada e efetiva, em determinadas circunstâncias, para descobrir determinadas classes de erros; e de forma mais ampla, como as técnicas podem ser aplicadas de forma complementar para melhoria da qualidade de software. Ainda que a atividade de teste seja indispensável no processo de desenvolvimento, investigar o aspecto complementar dessas técnicas é de grande interesse, pois em muitas situações tem-se observado que as revisões são tão ou mais efetivas quanto os testes. Nessa perspectiva, este trabalho tem como objetivo realizar um estudo comparativo, por meio da replicação de experimentos, entre Técnicas de Teste e Técnicas de Revisão no que se refere à detecção de erros em produtos de software (código fonte e documento de especificação de requisitos). Para realizar esse estudo são utilizados critérios de teste das técnicas funcional (particionamento em classes de equivalência e análise do valor limite), estrutural (todos-nós, todos-arcos, todos-usos, todos-potenciais-usos), baseada em erros (análise de mutantes), bem como, técnicas de leitura (stepwise abstraction e perspective based reading) e técnicas de inspeção (ad hoc e checklist). Além de comparar a efetividade e a eficiência das técnicas em detectar erros em produtos de software, este trabalho objetivo ainda utilizar os conhecimentos específicos relacionados a critérios de teste para reavaliar as técnicas utilizadas nos experimentos de Basili & Selby, Kamsties & Lott e Basili. / The increasing use of computer based systems in practically all human activity areas provokes higher demand for quality and productivity, from the point of view of software process as well as from the point of view of software products. In this perspective, activities aggregated under the name of Software Quality Assurance have been introduced throughout the software development process. Amongst these activities, the test and review activities are distinguished, both of them aiming at minimizing the introduction of errors during the development process. The test activity constitutes one of the elements to supply evidences of software reliability as a complement to other activities, for example, the use of review and formal, rigorous techniques for specification and verification. The review activity, in turn, is an efficient 'filter' for the process of software engineering, therefore it favors the identification of errors before the next step of the development process. Currently, researches have been carried out with the objective of determining which technique, review or test, is more appropriate and effective, in certain circumstances, to discover some classes of errors, and mostly, how the techniques can be applied in complement to each other for improvement of software quality. Even if the test activity is indispensable in the development process, investigating the complementary aspect of these techniques is of great interest, for in many situations it has been observed that reviews are as or more effective as test. In this perspective, this work aims at accomplishing a comparative study, through the replication of experiments, between Testing Techniques and Reviews concerning error detection in software products at the source code and requirement specification level. To carry out this study are used testing criteria of the techniques: functional (equivalence partitioning and boundary value analysis); structural (all-nodes, all-edges, all-uses, all-potential-uses); error based (mutation testing), as well as reading techniques (stepwise abstraction and perspective based reading) and inspection techniques (ad hoc e checklist). Besides comparing the effectiveness and efficiency of the techniques in detecting errors in software products, this work also aims at reevaluating and eventually at improving the techniques used in experiment of Basili & Selby, Kamsties & Lott and Basili.
446

Contribuições para o desenvolvimento do seguro agrícola de renda para o Brasil: evidências teóricas e empíricas / Contributions for development of the agriculture income insurace to Brazil: theorethical and empirical evidences

Guilherme Jacob Miqueleto 22 August 2011 (has links)
O principal objetivo dessa tese foi contribuir para a discussão sobre o seguro de renda e sua adoção no Brasil. No primeiro artigo buscou-se fornecer argumentos para posteriores discussões no que se refere ao seguro de renda. Para isso, o artigo apresentou o seguro de renda, seu funcionamento e como ele se desenvolveu nos dois principais países que o utilizaram, sendo eles os Estados Unidos e Canadá. Buscou-se ainda apresentar as principais características desse modelo de seguro, e quais são os principais modelos existentes. Esse artigo também teve como objetivo contribuir teoricamente para o desenvolvimento do tema no que se refere ao contrato ótimo de um seguro de renda. Como resultados, observou-se que a determinação endógena do prêmio e dos custos da seguradora para um contrato ótimo de seguro (de renda) são fundamentais para a solução (principalmente afetando as condições de primeira ordem) assim como os efeitos marginais de determinadas restrições impostas do ponto de vista de Pareto. Além disso, buscouse nesse trabalho tratar, do ponto de vista teórico, a capacidade de proteção de um seguro de renda quando comparado a um portfólio composto por seguros tradicionais de produtividade e mecanismos de proteção de preços, como mercados futuros ou opções. Observou-se uma limitação dos resultados e de uma melhor análise quantitativa dada a ausência de uma forma funcional, porém foi possível observar alguns resultados interessantes no que se refere à substituição entre a adoção de seguros (tradicionais) e derivativos agrícolas para proteção de preços. O segundo artigo teve como objetivo expor formas de calcular as taxas de prêmio de um hipotético seguro de renda no formato dos seguros americanos Income Protection ou Revenue Assurance, para milho para municípios do Paraná/BR, por meio do uso de cópulas na distribuição conjunta entre preços e produtividade. Buscou-se com isso contribuir para a obtenção de taxas mais precisas. Os resultados mostraram que existem significativas diferenças entre as taxas de prêmio entre os diferentes municípios e, ainda mais com relação aos diferentes meses de vencimento dos preços futuros utilizados na análise. Além disso, outras análises revelaram que o adequado planejamento do plantio, por exemplo, pelo produtor rural irá lhe garantir menores taxas de prêmio. Como uma das conclusões do trabalho, observa-se que esse tipo de ferramenta, levando-se em conta as características do país, poderia ser utilizado, principalmente com o ajuste de subvenções por parte do governo federal e/ou estadual. / The main objective of this thesis was to contribute to the discussion of income insurance and its adoption in Brazil. In the first article we attempted to provide arguments for further discussions about income insurance. The paper presented how it works and how it has developed in two major countries: the United States and Canada. It also sought to present the main characteristics of this insurance model, and what are the main existing models. This article also aims to contribute to the theoretical development of the subject with regard to the optimal contract for a income insurance policy. As a result, it was observed that the endogenous determination of the premium and costs of insurance for an optimal contract is the key to the solution (mainly affecting the first order conditions) as well as the marginal effects of certain restrictions, in view of Pareto Optimal. In addition, we sought to address in this paper, in the theoretical point of view, the protective capabilities of a secure income when compared to a \"portfolio\" composed by traditional insurance productivity and price protection mechanisms such as futures or options. There was a limitation of the results and better quantitative analysis given the absence of a functional form, but there have been some interesting results regarding the replacement of the adoption of insurance (traditional) and derivatives for the protection of agricultural prices. The second article aims to explain ways to calculate premium rates for hypothetical income insurance in the form of American Income Protection or Revenue Assurance for corn for municipalities of Parana/BR, through the use of copulas in the joint distribution between prices and productivity. Was sought to help to obtain more accurate rates. The results showed that there are significant differences in premium rates between different cities and even more about the different months of maturity of the futures prices used in the analysis. In addition, further analysis revealed that the proper planning of planting, for example, will guarantee for the farmer a lower premium rates. As one of the conclusions of the study, notes that these types of tool, taking into account the characteristics of the country, could be used, especially with the setting of grants by the federal government and/or state.
447

Core inflation in Brazil: an empirical approach in the field of frequency / NÃcleo da inflaÃÃo no Brasil: uma abordagem empÃrica no domÃnio da frequÃncia

Cristiano da Silva Santos 20 June 2012 (has links)
FundaÃÃo Cearense de Apoio ao Desenvolvimento Cientifico e TecnolÃgico / This paper proposes a new measure of core inflation called systematic core and makes a comparative evaluation with conventional cores used by the Central Bank of Brazil. To estimate the systematic core is proposed in this paper used the method of decomposition empirical methods, which is able to separate noise data by spectral decomposition and partial reconstruction of the series of inflation. The evaluation and comparison of the cores of inflation are performed by testing econometric predictions outside the sample. The empirical results show that conventional cores used by the Central Bank does not contribute to forecast inflation out of sample and not have all the desirable statistical properties for which a nucleus. Already the new measure of core obtained in this work contributed to predict inflation out of sample and answered the statistical properties of non-biased, attractor of inflation and weakly exogenous, having therefore the characteristics required for a measure to be useful to policy objectives monetary. / Este trabalho propÃe uma nova medida de nÃcleo da inflaÃÃo denominada nÃcleo sistemÃtico e faz uma avaliaÃÃo comparativa com os nÃcleos convencionais utilizados pelo Banco Central do Brasil. Para estimar o nÃcleo sistemÃtico proposto neste trabalho à utilizado o mÃtodo de decomposiÃÃo em modos empÃricos, que à capaz de separar ruÃdo dos dados atravÃs da decomposiÃÃo espectral e reconstruÃÃo parcial da sÃrie de inflaÃÃo. A avaliaÃÃo e comparaÃÃo dos nÃcleos da inflaÃÃo sÃo realizadas por meio de testes economÃtricos e previsÃes fora da amostra. Os resultados empÃricos apontam que os nÃcleos convencionais utilizados pelo Banco Central nÃo contribuem para prever a inflaÃÃo fora da amostra e nÃo possuem todas as propriedades estatÃsticas desejÃveis que para um nÃcleo. Jà a nova medida de nÃcleo obtida neste trabalho contribuiu para prever a inflaÃÃo fora da amostra e atendeu as propriedades estatÃsticas de ausÃncia de viÃs, atrator da inflaÃÃo e fracamente exÃgeno, possuindo, portanto, as caracterÃsticas exigidas para uma medida ser Ãtil aos objetivos da polÃtica monetÃria.
448

RelaÃÃes simplificadas para a estimativa do assoreamento de reservatÃrios / Simplified relations for the estimation of reservoir sedimentation

Jefferson Ronald Quaresma Negreiros 12 December 2014 (has links)
Esta pesquisa apresenta uma sÃntese das taxas de assoreamento observadas em reservatÃrios brasileiros, onde foram identificadas taxas de assoreamento variando aproximadamente de 1 a 7% do volume inicial por dÃcada (inferiores à mÃdia mundial de 10%), sendo os reservatÃrios localizados no Estado do Cearà aqueles que possuem menores taxas, provavelmente devido Ãs densas redes de reservatÃrios existentes nas bacias de contribuiÃÃo. Verificou-se tambÃm uma tendÃncia geral de decaimento das taxas de assoreamento com o volume inicial dos reservatÃrios. Em seguida, foram desenvolvidos dois mÃtodos expeditos para estimativa do assoreamento de reservatÃrios, os quais sÃo baseados em correlaÃÃes empÃricas ajustadas a partir de dados de campo, e com este mesmo objetivo foi realizada a aplicaÃÃo da Metodologia de Lima Neto et al. (2011) para os reservatÃrios brasileiros. Os mÃtodos propostos sÃo mais simples que as metodologias existentes na literatura, e dependem basicamente da pluviometria nas bacias de contribuiÃÃo e do volume inicial dos reservatÃrios. As diferenÃas observadas entre as diferentes metodologias foram inferiores a 30% . Este dado sugere que qualquer um dos trÃs mÃtodos pode ser utilizado para estimar o assoreamento de reservatÃrios, em nÃvel de planejamento. PorÃm, vale ressaltar que apesar da praticidade/simplicidade das equaÃÃes propostas, mediÃÃes de campo e/ou modelos mais sofisticados continuam sendo necessÃrios para se avaliar de forma mais precisa o assoreamento de reservatÃrios. / This research provides an overview of sedimentation rates observed in Brazilian reservoirs, where sedimentation rates were identified ranging approximately 1 to 7% of the starting volume per decade (the lower world average of 10%), and the reservoirs in the State of Cearà those with lower rates, probably due to dense existing reservoirs networks in contribution basins. It was found also a general trend of decay of sedimentation rates with initial volume of the reservoirs. Then we developed two empirical methods to estimate reservoir sedimentation, which are based on empirical correlations adjusted from field data, and with this same goal was carried out the implementation of Lima Methodology Neto et al. (2011) for the Brazilian reservoirs. The proposed methods are simpler than the existing methods in the literature, and depend basically the rainfall in contribution basins and the initial volume of reservoirs. The differences observed between the different methodologies were less than 30%. This suggests that any of the three methods can be used to estimate reservoir sedimentation in level planning. However, it is noteworthy that despite the practicality / simplicity the proposed equations, field measurements and / or more sophisticated models still needed to assess more accurately the reservoir sedimentation.
449

Impacto da geração de grafos na classificação semissupervisionada / Impact of graph construction on semi-supervised classification

Celso André Rodrigues de Sousa 18 July 2013 (has links)
Uma variedade de algoritmos de aprendizado semissupervisionado baseado em grafos e métodos de geração de grafos foram propostos pela comunidade científica nos últimos anos. Apesar de seu aparente sucesso empírico, a área de aprendizado semissupervisionado carece de um estudo empírico detalhado que avalie o impacto da geração de grafos na classificação semissupervisionada. Neste trabalho, é provido tal estudo empírico. Para tanto, combinam-se uma variedade de métodos de geração de grafos com uma variedade de algoritmos de aprendizado semissupervisionado baseado em grafos para compará-los empiricamente em seis bases de dados amplamente usadas na literatura de aprendizado semissupervisionado. Os algoritmos são avaliados em tarefas de classificação de dígitos, caracteres, texto, imagens e de distribuições gaussianas. A avaliação experimental proposta neste trabalho é subdividida em quatro partes: (1) análise de melhor caso; (2) avaliação da estabilidade dos classificadores semissupervisionados; (3) avaliação do impacto da geração de grafos na classificação semissupervisionada; (4) avaliação da influência dos parâmetros de regularização no desempenho de classificação dos classificadores semissupervisionados. Na análise de melhor caso, avaliam-se as melhores taxas de erro de cada algoritmo semissupervisionado combinado com os métodos de geração de grafos usando uma variedade de valores para o parâmetro de esparsificação, o qual está relacionado ao número de vizinhos de cada exemplo de treinamento. Na avaliação da estabilidade dos classificadores, avalia-se a estabilidade dos classificadores semissupervisionados combinados com os métodos de geração de grafos usando uma variedade de valores para o parâmetro de esparsificação. Para tanto, fixam-se os valores dos parâmetros de regularização (quando existirem) que geraram os melhores resultados na análise de melhor caso. Na avaliação do impacto da geração de grafos, avaliam-se os métodos de geração de grafos combinados com os algoritmos de aprendizado semissupervisionado usando uma variedade de valores para o parâmetro de esparsificação. Assim como na avaliação da estabilidade dos classificadores, para esta avaliação, fixam-se os valores dos parâmetros de regularização (quando existirem) que geraram os melhores resultados na análise de melhor caso. Na avaliação da influência dos parâmetros de regularização na classificação semissupervisionada, avaliam-se as superfícies de erro geradas pelos classificadores semissupervisionados em cada grafo e cada base de dados. Para tanto, fixam-se os grafos que geraram os melhores resultados na análise de melhor caso e variam-se os valores dos parâmetros de regularização. O intuito destes experimentos é avaliar o balanceamento entre desempenho de classificação e estabilidade dos algoritmos de aprendizado semissupervisionado baseado em grafos numa variedade de métodos de geração de grafos e valores de parâmetros (de esparsificação e de regularização, se houver). A partir dos resultados obtidos, pode-se concluir que o grafo k- vizinhos mais próximos mútuo (mutKNN) pode ser a melhor opção dentre os métodos de geração de grafos de adjacência, enquanto que o kernel RBF pode ser a melhor opção dentre os métodos de geração de matrizes ponderadas. Em adição, o grafo mutKNN tende a gerar superfícies de erro que são mais suaves que aquelas geradas pelos outros métodos de geração de grafos de adjacência. Entretanto, o grafo mutKNN é instável para valores relativamente pequenos de k. Os resultados obtidos neste trabalho indicam que o desempenho de classificação dos algoritmos semissupervisionados baseados em grafos é fortemente influenciado pela configuração de parâmetros. Poucos padrões evidentes foram encontrados para auxiliar o processo de seleção de parâmetros. As consequências dessa instabilidade são discutidas neste trabalho em termos de pesquisa e aplicações práticas / A variety of graph-based semi-supervised learning algorithms have been proposed by the research community in the last few years. Despite its apparent empirical success, the field of semi-supervised learning lacks a detailed empirical study that evaluates the influence of graph construction on semisupervised learning. In this work we provide such an empirical study. For such purpose, we combine a variety of graph construction methods with a variety of graph-based semi-supervised learning algorithms in order to empirically compare them in six benchmark data sets widely used in the semi-supervised learning literature. The algorithms are evaluated in tasks about digit, character, text, and image classification as well as classification of gaussian distributions. The experimental evaluation proposed in this work is subdivided into four parts: (1) best case analysis; (2) evaluation of classifiers stability; (3) evaluation of the influence of graph construction on semi-supervised learning; (4) evaluation of the influence of regularization parameters on the classification performance of semi-supervised learning algorithms. In the best case analysis, we evaluate the lowest error rates of each semi-supervised learning algorithm combined with the graph construction methods using a variety of sparsification parameter values. Such parameter is associated with the number of neighbors of each training example. In the evaluation of classifiers stability, we evaluate the stability of the semi-supervised learning algorithms combined with the graph construction methods using a variety of sparsification parameter values. For such purpose, we fixed the regularization parameter values (if any) with the values that achieved the best result in the best case analysis. In the evaluation of the influence of graph construction, we evaluate the graph construction methods combined with the semi-supervised learning algorithms using a variety of sparsification parameter values. In this analysis, as occurred in the evaluation of classifiers stability, we fixed the regularization parameter values (if any) with the values that achieved the best result in the best case analysis. In the evaluation of the influence of regularization parameters on the classification performance of semi-supervised learning algorithms, we evaluate the error surfaces generated by the semi-supervised classifiers in each graph and data set. For such purpose, we fixed the graphs that achieved the best results in the best case analysis and varied the regularization parameters values. The intention of our experiments is evaluating the trade-off between classification performance and stability of the graphbased semi-supervised learning algorithms in a variety of graph construction methods as well as parameter values (sparsification and regularization, if applicable). From the obtained results, we conclude that the mutual k-nearest neighbors (mutKNN) graph may be the best choice for adjacency graph construction while the RBF kernel may be the best choice for weighted matrix generation. In addition, mutKNN tends to generate error surfaces that are smoother than those generated by other adjacency graph construction methods. However, mutKNN is unstable for relatively small values of k. Our results indicate that the classification performance of the graph-based semi-supervised learning algorithms are heavily influenced by parameter setting. We found just a few evident patterns that could help parameter selection. The consequences of such instability are discussed in this work in research and practice
450

Investigações sobre raciocínio e aprendizagem temporal em modelos conexionistas / Investigations about temporal reasoning and learning in connectionist models

Borges, Rafael Vergara January 2007 (has links)
A inteligência computacional é considerada por diferentes autores da atualidade como o destino manifesto da Ciência da Computação. A modelagem de diversos aspectos da cognição, tais como aprendizagem e raciocínio, tem sido a motivação para o desenvolvimento dos paradigmas simbólico e conexionista da inteligência artificial e, mais recentemente, para a integração de ambos com o intuito de unificar as vantagens de cada abordagem em um modelo único. Para o desenvolvimento de sistemas inteligentes, bem como para diversas outras áreas da Ciência da Computação, o tempo é considerado como um componente essencial, e a integração de uma dimensão temporal nestes sistemas é fundamental para conseguir uma representação melhor do comportamento cognitivo. Neste trabalho, propomos o SCTL (Sequential Connectionist Temporal Logic), uma abordagem neuro-simbólica para integrar conhecimento temporal, representado na forma de programas em lógica, em redes neurais recorrentes, de forma que a caracterização semântica de ambas representações sejam equivalentes. Além da estratégia para realizar esta conversão entre representações, e da verificação formal da equivalência semântica, também realizamos uma comparação da estratégia proposta com relação a outros sistemas que realizam representação simbólica e temporal em redes neurais. Por outro lado, também descrevemos, de foma algorítmica, o comportamento desejado para as redes neurais geradas, para realizar tanto inferência quanto aprendizagem sob uma ótica temporal. Este comportamento é analisado em diversos experimentos, buscando comprovar o desempenho de nossa abordagem para a modelagem cognitiva considerando diferentes condições e aplicações. / Computational Intelligence is considered, by di erent authors in present days, the manifest destiny of Computer Science. The modelling of di erent aspects of cognition, such as learning and reasoning, has been a motivation for the integrated development of the symbolic and connectionist paradigms of artificial intelligence. More recently, such integration has led to the construction of models catering for integrated learning and reasoning. The integration of a temporal dimension into such systems is a relevant task as it allows for a richer representation of cognitive behaviour features, since time is considered an essential component in intelligent systems development. This work introduces SCTL (Sequential Connectionist Temporal Logic), a neuralsymbolic approach for integrating temporal knowledge, represented as logic programs, into recurrent neural networks. This integration is done in such a way that the semantic characterization of both representations are equivalent. Besides the strategy to achieve translation from one representation to another, and verification of the semantic equivalence, we also compare the proposed approach to other systems that perform symbolic and temporal representation in neural networks. Moreover, we describe the intended behaviour of the generated neural networks, for both temporal inference and learning through an algorithmic approach. Such behaviour is then evaluated by means several experiments, in order to analyse the performance of the model in cognitive modelling under di erent conditions and applications.

Page generated in 0.0703 seconds