Spelling suggestions: "subject:"[een] SMOOTHING"" "subject:"[enn] SMOOTHING""
321 |
[en] DEMAND FORECAST: A CASE STUDY IN SUPPLY CHAIN / [pt] PREVISÃO DE DEMANDA: ESTUDO DE CASO NA CADEIA DE SUPRIMENTOSACHILES RAMOS RIBEIRO 08 November 2017 (has links)
[pt] A presente dissertação tem como principal objetivo a conceituação e apresentação das metodologias básicas de previsão de demanda e, a partir de um estudo de caso, a seleção da metodologia mais adequada e sua respectiva implantação. No primeiro capítulo é apresentada, além da importância do referido tema, a empresa selecionada para aplicação dos conceitos levantados, com a descrição de seus principais processos internos. No segundo capítulo foram abordados os conceitos de previsão de demanda e uma revisão dos principais modelos existentes. No capítulo seguinte, o problema que deverá ser tratado com a metodologia proposta é apresentado. Neste momento a metodologia conceituada é aplicada, através da seleção do método de previsão mais adequado ao caso estudado e respectiva modelagem, buscando melhorias em relação aos métodos de previsão existentes na empresa. Neste processo de modelagem utilizou-se o software Forecast Pro, um dos mais conceituados aplicativos de previsão de demanda no mercado. Por fim, na conclusão, avalia-se o impacto das mudanças propostas nos resultados da empresa, principalmente o aumento da precisão da previsão da demanda e, conseqüentemente, redução dos custos de importação e dos índices de stockout. / [en] The main objective of this dissertation is the presentation of basic forecasting methods and their implementation in a case study in supply chain. The first chapter points out the importance of forecasting in this context and describes the company selected for the case study and some of its internal
processes that will be under scrutiny in the case study presented in this dissertation. The second chapter discusses the concepts and models of forecasting and reviews some of the major techniques in the field. In chapter three, standard forecasting techniques are apllied to real data (ten time series) from the company
and select the most appropriate model in each case. Model adjustment is performed through the Forecast Pro software, one of the best-known products in the market. Chapter four contains the conclusions and the evaluation of the impacts of the proposed methodology on the company s results, especially the
increased accuracy of forecasting and, consequently, the reduction in the import costs and stock out index.
|
322 |
[en] MODELING AND FORECASTING THE ELECTRICITY CONSUMPTION SERIES IN BRAZIL WITH PEGELS EXPONENTIAL SMOOTHING TECHNIQUES AND BOTTOM UP APPROACH PER END USE / [pt] MODELAGEM E PREVISÃO DAS SÉRIES DE CONSUMO DE ENERGIA ELÉTRICA NO BRASIL COM MÉTODOS DE SUAVIZAÇÃO EXPONENCIAL DE PEGELS E ABORDAGEM BOTTOM UP POR USO FINALPAULA MEDINA MACAIRA 05 January 2016 (has links)
[pt] Desde 2001, quando ocorreu uma crise no setor energético brasileiro, o planejamento e, consequentemente, a previsão do consumo de energia a médio e longo prazo do consumo de eletricidade vem sendo prioridade. A Empresa de Pesquisa Energética, por meio do Plano Decenal de Energia e do Plano Nacional de Energia, é a responsável por publicar tais previsões, tendo como versão mais atual os horizontes de 2023 e 2050, respectivamente. Este trabalho tem como objetivo principal modelar e prever as séries de consumo através de duas abordagens, top down e bottom up. Para a primeira utiliza-se os métodos de suavização exponencial de Pegels e para a segunda, aplica-se, o modelo FORECAST-Residential, desenvolvido pelo Fraunhofer Institute. O modelo top down é o responsável por modelar e prever o consumo de energia elétrica do Brasil agregado e desagregado por classes de consumo, enquanto que o bottom up será utilizado somente nas séries do setor residencial, em cada região geográfica. Além da previsão com o melhor modelo dentro do histórico para o primeiro caso, para as técnicas Standard e Damped Pegels otimiza-se os hiperparâmetros a fim de ajustar cada um dos valores projetados com as pesquisas disponibilizadas pela EPE. Os resultados mostraram que com a abordagem top down foi possível prever o consumo de eletricidade até 2050 para todos os setores energéticos e ajustar os parâmetros para cada um dos casos propostos; e, com a abordagem bottom up, chegou-se a valores considerados prováveis para o setor residencial do Brasil. Finalmente, é possível concluir que todos os resultados aqui são muito promissores e dão direções para futuros aperfeiçoamentos. / [en] After the 2001 energy crises in Brazil, the energy sector priority has been the planning and consequently the forecast middle and long term energy consumption. The Energy Research Company (EPE for short) is in charge of publishing two official reports: The Ten Year Energy Planning and The National Energy Planning which contain, among other things, the forecast for longer lead times. In the present formulation these horizons are 2023 and 2050. This work aims to model and predict the consumption series with two approaches, top down and bottom up. The first uses Pegels exponential smoothing methods and for the second is applied the model FORECAST Residential, developed by the Fraunhofer Institute, Germany. The top-down model is responsible for modeling and predicting Brazil energy consumption aggregated and disaggregated by class of consumption, while the bottom up will be used only in the residential sector, but for each geographic region. In addition to the forecast with the best model in sample for the top down case, an optimization of the model hyper parameters is carried out in order to adjust each of the projected values with the figures provided by EPE. The results obtained show that with the top down approach it is possible to predict satisfactorily the electricity consumption up to 2050 for all energy sectors; and the bottom up approach produce forecasts very likely to occur in the future. Finally, it is possible to conclude that all the results obtained here are very promising and give directions for future improvements.
|
323 |
O problema de Cauchy para as equações KdV e mKdV / The Cauchy problem for KdV and mKdV equationsSantos, Carlos Alberto Silva dos 12 February 2009 (has links)
In this work we will demonstrate that the Cauchy problem associated with the Korteweg-de Vries equation, denoted by KdV, and Korteweg-de Vries modified equation, denoted by mKdV, with initial data in the space of Sobolev Hs(|R), is locally well-posed on Hs(|R), with s>3/4 for KdV and s≥1/4 for mKdV, where the notion of well-posedness includes existence, uniqueness, persistence property of solution and continuous dependence of solution with respect to the initial data. This result is based on the works of Kenig, Ponce and Vega. The technique used to obtain these results is based on fixed point Banach theorem combined with the regularizantes effects of the group associated with the linear part. / Fundação de Amparo a Pesquisa do Estado de Alagoas / Neste trabalho demonstraremos que o problema de Cauchy associado as equações de Korteweg-de Vries, denotada por KdV, e de Korteweg-de Vries modificada, denotada por mKdV, com dado inicial no espaço de Sobolev Hs(|R), é bem posto localmente em Hs(|R), com s>3/4 para a KdV e s≥1/4 para a mKdV, onde a noção de boa postura inclui a existência, unicidade, a propriedade de persistência da solução e dependência contínua da solução com relação ao dado inicial. Este resultado é baseado nos trabalhos de Kenig, Ponce e Vega. A técnica utilizada para obter tais resultados se baseia no Teorema do Ponto Fixo de Banach combinada com os efeitos regularizantes do grupo associado com a parte linear.
|
324 |
Impactos do IFRS nas atividades de hedge das empresas : evidências para o mercado brasileiroCarvalho, Rafael Rodrigues 09 May 2014 (has links)
Submitted by Rafael Rodrigues Carvalho (rafael.rodrigues.carvalho@gmail.com) on 2014-07-09T03:48:40Z
No. of bitstreams: 1
Dissertação_Rafael_Carvalho_v.8.pdf: 1569793 bytes, checksum: 9c25aa5b72e49eb25d6887a4d3d75868 (MD5) / Approved for entry into archive by Gisele Gammaro (gisele.gammaro@fgv.br) on 2014-08-29T17:35:41Z (GMT) No. of bitstreams: 1
Dissertação_Rafael_Carvalho_v.8.pdf: 1569793 bytes, checksum: 9c25aa5b72e49eb25d6887a4d3d75868 (MD5) / Made available in DSpace on 2014-09-23T13:51:58Z (GMT). No. of bitstreams: 1
Dissertação_Rafael_Carvalho_v.8.pdf: 1569793 bytes, checksum: 9c25aa5b72e49eb25d6887a4d3d75868 (MD5)
Previous issue date: 2014-05-09 / This study aims to analyze possible changes in the use and accounting of derivatives depending on the convergence of Brazilian accounting standards to international standards (IFRS - IAS 39). The research is based on non-financial Brazilian companies and use as information explanatory notes regarding derivatives and the volatility of selected balance sheet accounts: earnings and cash flows. Despite the assumptions made, the results showed that the change in accounting standards did not affect the use of derivatives and, also, it was not found any evidence about the impact on the volatility of cash flow and net income. Finally, it was observed that the alternative method for hedge accounting softened the volatility of the firm's profits. / O trabalho tem por objetivo analisar possíveis mudanças no uso e contabilização de derivativos em função da convergência das normas brasileiras de contabilidade para os padrões internacionais (IFRS – IAS 39). As pesquisas basearam-se em empresas brasileiras não financeiras, observando informações de suas notas explicativas e a volatilidade de contas de seus balanços: lucro líquido e fluxo de caixa. A despeito das hipóteses formuladas, os resultados encontrados mostraram que a alteração do padrão contábil não afetou o uso de derivativos e, também, não se encontrou quaisquer evidências de que tenha havido impacto na volatilidade do fluxo de caixa e lucro líquido das companhias. Por fim, observou-se se a metodologia opcional de contabilidade de hedge (hedge accounting) suavizava a volatilidade dos lucros da firma, confirmando uma das hipóteses desta pesquisa.
|
325 |
Dégivrage des pompes à chaleur sur l’air : influence de la mouillabilité des ailettes d’échangeurs extérieurs et contrôle des flux hydriques lors du givrage et du dégivrageLeboi, Jérémy 06 June 2012 (has links)
Dans un contexte de limitation de la consommation en énergie fossile et de développement durable, les pompes à chaleur présentent un intérêt majeur. Les obstacles rencontrés, notamment le givrage compact, freinent leur utilisation. La mise en place de nouveaux matériaux, par exemple par des propriétés de mouillage particulières, est une voie innovante. L’étude des déplacements de gouttes et de ponts entre ailettes, par résolution des équations de Navier-Stokes, permet de comprendre localement les écoulements et de caractériser l'effet du mouillage (modèle numérique d'angle de contact) et du confinement. Plusieurs études ont été menées sur des gouttes et des ponts liquides, soumis à des écoulements sur parois inclinées, lors desquelles des comportements significatifs ont été mis au jour et permettent de mettre en place des solutions efficaces pour les enjeux industriels. Une approche des phénomènes de mouillage extrêmes (superhydrophobie) a été réalisée et montre leur intérêt d’un point de vue performance. En revanche, le coût nécessaire pour réaliser les simulations reste très important, et des pistes ont été abordées pour palier à cette difficulté. En parallèle, une méthode de changement d’état a été développée dans le code de calculs scientifiques Thétis pour prédire l'évacuation de la glace lors du dégivrage sur des géométries simples ou réelles. Cette approche originale basée sur la méthode Volume Of Fluid, dérivée de méthodes existantes en Front-Tracking, montre une faisabilité et une efficacité intéressante. / In a context of limiting the consumption of fossil energy and of sustainable development, heat pumps are of major interest. Some issues, including icing compaction, reduce its use. The introduction of new materials, including special wetting properties, is an innovative way. The study of displacement of drops and liquid bridges between fins, by solving the Navier-Stokes equations, allows us to understand local flows and to characterize the effect of wetting (numerical model of contact angle which depends on controlling the smoothing of Volume Of Fluid function) and of containment. Several studies have been conducted on the drops and liquid bridges submitted to flow on sloping walls, driving to significant behaviors. These studies can implement effective solutions to industrial difficulties. An approach to extreme wetting phenomena (superhydrophobicity) was performed and showed their interest to a good evacuation efficiency but also the cost to achieve the simulations. Several possibilities were discussed to overcome this difficulty. In parallel, a method of phase change was developed in the code of scientific computing Thetis to simulate the evacuation of ice during defrosting periods on simple geometries or more complex ones. An innovative approach based on Volume Of Fluid method, derived from methods available in Front-Tracking shows its feasibility and efficiency.
|
326 |
Uma avaliação de métodos de previsão aplicados à grandes quantidades de séries temporais univariadasPellegrini, Tiago Ribeiro 06 December 2012 (has links)
Made available in DSpace on 2016-06-02T20:06:07Z (GMT). No. of bitstreams: 1
4757.pdf: 552745 bytes, checksum: 4f9bf1ad04dfca4e80bbfdf36c909f6f (MD5)
Previous issue date: 2012-12-06 / Financiadora de Estudos e Projetos / Time series forecasting is probably one of the most primordial interests on economics and econometrics, and the literature on this subject is extremely vast. Due to technological growth in recent decades, large amounts of time series are daily collected; which, in a first moment, it requires forecasts according a fixed horizon; and on the second moment the forecasts must be constantly updated, making it impractical to human interaction. Towards this direction, computational procedures that are able to model and return accurate forecasts are required in several research areas. The search for models with high predictive power is an issue that has resulted in a large number of publications in the area of forecasting models. We propose to do a theorical and applied study of forecasting methods applied to multiple univariate time series. The study was based on exponential smoothing via state space approach, automatic ARIMA methods and the generalized Theta method. Each model and method were applied in large data bases of univariate time series and the forecast errors were evaluated. We also propose an approach to estimate the Theta coefficients, as well as a redefinition of the method regarding the number of decomposition lines, extrapolation methods and a combining approach. / A previsão de séries temporais é provavelmente um dos interesses mais primordiais na área de economia e econometria, e a literatura referente a este assunto é extremamente vasta. Devido ao crescimento tecnológico nas últimas décadas, diariamente são geradas e disponibilizadas grandes quantidades de séries temporais; que em um primeiro momento, requerem previsões de acordo com um horizonte fixado; e no segundo momento as previsões precisam ser constantemente atualizadas, tornando pouco prática a interação humana. Desta forma, procedimentos computacionais que modelem e posteriormente retornem previsões acuradas são exigidos em diversas áreas do conhecimento. A busca por modelos com alto poder de preditivo é uma questão que tem resultado em grande quantidade de publicações na área de modelos para previsão. Neste trabalho, propõe-se um estudo teórico e aplicado de métodos de previsão aplicado à múltiplas séries temporais univariadas. O estudo foi baseado em modelos de alisamento exponencial via espaço de estados, método ARIMA automático e o método Theta generalizado. Cada modelo e método foi aplicado em grandes bases de séries temporais univariadas e avaliado o resultado em relação aos erros de previsão. Também foi proposta uma abordagem para estimação dos coeficientes Theta, assim como redefinição do método em relação a quantidade de linhas para decomposição, métodos de extrapolação e combinação das linhas para previsão.
|
327 |
Modèle espace-état : estimation bayésienne du NAIRU américainDjolaud, Guy Arnold 08 1900 (has links)
No description available.
|
328 |
Técnicas de paralelização em GPGPU aplicadas em algoritmo para remoção de ruído multiplicativoGulo, Carlos Alex Sander Juvêncio [UNESP] 17 October 2012 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:24:00Z (GMT). No. of bitstreams: 0
Previous issue date: 2012-10-17Bitstream added on 2014-06-13T20:30:51Z : No. of bitstreams: 1
gulo_casj_me_sjrp.pdf: 1004896 bytes, checksum: d189543ceda76e9ee5b4a62ae7aaaffa (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / A evolução constante na velocidade de cálculos dos processadores tem sido uma grande aliada no desenvolvimento de áreas da Ciência que exigem processamento de alto desempenho. Associados aos recursos computacionais faz-se necessário o emprego de técnicas de computação paralela no intuito de explorar ao máximo a capacidade de processamento da arquitetura escolhida, bem como, reduzir o tempo de espera no processamento. No entanto, o custo financeiro para aquisição deste tipo dehardwarenão é muito baixo, implicando na busca de alternativas para sua utilização. As arquiteturas de processadores multicoree General Purpose Computing on Graphics Processing Unit(GPGPU), tornam-se opções de baixo custo, pois são projeta-das para oferecer infraestrutura para o processamento de alto desempenho e atender aplicações de tempo real. Com o aperfeiçoamento das tecnologias multicomputador, multiprocessador e GPGPU, a paralelização de técnicas de processamento de imagem tem obtido destaque por vi-abilizar a redução do tempo de processamento de métodos complexos aplicados em imagem de alta resolução. Neste trabalho, é apresentado o estudo e uma abordagem de paralelização em GPGPU, utilizando a arquitetura CUDA, do método de suavização de imagem baseado num modelo variacional, proposto por Jin e Yang (2011), e sua aplicação em imagens com al-tas resoluções. Os resultados obtidos nos experimentos, permitiram obter um speedupde até quinze vezes no tempo de processamento de imagens, comparando o algoritmo sequencial e o algoritmo otimizado paralelizado em CUDA, o que pode viabilizar sua utilização em diversas aplicações de tempo real / Supported by processors evolution, high performance computing have contributed to develop-ment in several scientific research areas which require advanced computations, such as image processing, augmented reality, and others. To fully exploit high performance computing availa-ble in these resources and to decrease processing time, is necessary apply parallel computing. However, those resources are expensive, which implies the search for alternatives ways to use it. The multicore processors architecture andGeneral Purpose Computing on Graphics Proces-sing Unit(GPGPU) become a low cost options, as they were designed to provide infrastructure for high performance computing and attend real-time applications.With the improvements gai-ned in technologies related to multicomputer, multiprocessor and, more recently, to GPGPUs, the parallelization of computational image processing techniques has gained extraordinary pro-minence. This parallelization is crucial for the use of such techniques in applications that have strong demands in terms of processing time, so that even more complex computational algo-rithms can be used, as well as their use on images of higher resolution. In this research, the parallelization in GPGPU of a recent image smoothing method based on a variation model is described and discussed. This method was proposed by Jin and Yang (2011) and is in-demand due to its computation time, and its use with high resolution images. The results obtained are very promising, revealing a speedup about fifteen times in terms of computational speed
|
329 |
Técnicas de paralelização em GPGPU aplicadas em algoritmo para remoção de ruído multiplicativo /Gulo, Carlos Alex Sander Juvêncio. January 2012 (has links)
Orientador: Antonio Carlos Sementille / Banca: José Remo Ferreira Brega / Banca: Edgard A. Lamounier Junior / Resumo: A evolução constante na velocidade de cálculos dos processadores tem sido uma grande aliada no desenvolvimento de áreas da Ciência que exigem processamento de alto desempenho. Associados aos recursos computacionais faz-se necessário o emprego de técnicas de computação paralela no intuito de explorar ao máximo a capacidade de processamento da arquitetura escolhida, bem como, reduzir o tempo de espera no processamento. No entanto, o custo financeiro para aquisição deste tipo dehardwarenão é muito baixo, implicando na busca de alternativas para sua utilização. As arquiteturas de processadores multicoree General Purpose Computing on Graphics Processing Unit(GPGPU), tornam-se opções de baixo custo, pois são projeta-das para oferecer infraestrutura para o processamento de alto desempenho e atender aplicações de tempo real. Com o aperfeiçoamento das tecnologias multicomputador, multiprocessador e GPGPU, a paralelização de técnicas de processamento de imagem tem obtido destaque por vi-abilizar a redução do tempo de processamento de métodos complexos aplicados em imagem de alta resolução. Neste trabalho, é apresentado o estudo e uma abordagem de paralelização em GPGPU, utilizando a arquitetura CUDA, do método de suavização de imagem baseado num modelo variacional, proposto por Jin e Yang (2011), e sua aplicação em imagens com al-tas resoluções. Os resultados obtidos nos experimentos, permitiram obter um speedupde até quinze vezes no tempo de processamento de imagens, comparando o algoritmo sequencial e o algoritmo otimizado paralelizado em CUDA, o que pode viabilizar sua utilização em diversas aplicações de tempo real / Abstract: Supported by processors evolution, high performance computing have contributed to develop-ment in several scientific research areas which require advanced computations, such as image processing, augmented reality, and others. To fully exploit high performance computing availa-ble in these resources and to decrease processing time, is necessary apply parallel computing. However, those resources are expensive, which implies the search for alternatives ways to use it. The multicore processors architecture andGeneral Purpose Computing on Graphics Proces-sing Unit(GPGPU) become a low cost options, as they were designed to provide infrastructure for high performance computing and attend real-time applications.With the improvements gai-ned in technologies related to multicomputer, multiprocessor and, more recently, to GPGPUs, the parallelization of computational image processing techniques has gained extraordinary pro-minence. This parallelization is crucial for the use of such techniques in applications that have strong demands in terms of processing time, so that even more complex computational algo-rithms can be used, as well as their use on images of higher resolution. In this research, the parallelization in GPGPU of a recent image smoothing method based on a variation model is described and discussed. This method was proposed by Jin and Yang (2011) and is in-demand due to its computation time, and its use with high resolution images. The results obtained are very promising, revealing a speedup about fifteen times in terms of computational speed / Mestre
|
330 |
What determines the amount of reported goodwill impairment? : An investigation of Nasdaq Stockholm OMX (OMXS)Friberg, Gusten, Åström Johansson, Carl January 2018 (has links)
Background: The question on how to account for goodwill has long been a subject that causes big debates among actors within financial accounting. In 2004, the IASB released a new standard, IFRS 3 – Business Combinations, that changed the accounting for goodwill. The interpretation for goodwill impairments according to IAS 36 has led to findings in studies that show patterns of earnings management and that a possible gap exists between the standard setter’s basic aim of IAS 36 and what actually is done by the practitioners. Purpose: Examine what determines the amount of reported goodwill impairment for firms listed on the Nasdaq OMX Stockholm (OMXS). Method: To fulfil the purpose of the thesis, the authors takes a quantitative research approach by a using a multiple linear regression model. The regression model is based on proxies for economic impairment, earnings management and corporate governance mechanisms from previous literature (Stenheim & Madsen, 2016; AbuGhazaleh, Al-Hares, & Roberts, 2011; Riedl, 2004). The data used for the regression model has been collected from published annual reports of 69 firms listed on the Nasdaq Stockholm OMX (OMXS), between the years 20072016. Conclusion: The findings of the thesis show that the accounting behaviour of “Big Bath” is exercised for firms listed on the Nasdaq Stockholm OMX (OMXS). The proxies for economic impairment have, to some extent, an impact on the amount of reported goodwill impairment, but the majority of the proxies for corporate governance mechanisms does not affect the amount of reported goodwill impairment. These findings might suggest that the standard IAS 36, which regulates the accounting for goodwill, may not entirely fulfil its purpose of creating a more transparent financial reporting.
|
Page generated in 0.1092 seconds