• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 200
  • 65
  • 26
  • 26
  • 16
  • 11
  • 11
  • 10
  • 10
  • 6
  • 4
  • 4
  • 3
  • 2
  • 2
  • Tagged with
  • 462
  • 63
  • 56
  • 56
  • 54
  • 48
  • 44
  • 43
  • 41
  • 40
  • 37
  • 37
  • 35
  • 33
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
281

Suavização de potência da geração eólica utilizando lógica fuzzy e sistema de armazenamento de energia / Fuzzy logic and energy storage system for wind power smoothing

Carvalho, Wilhiam Cesar de 11 April 2019 (has links)
Dentre as diversas fontes de energia renovável que existem atualmente, a energia eólica é a que tem apresentado o maior crescimento nos Sistemas Elétricos de Potência (SEPs). A flutuação de potência da geração eólica, no entanto, tem causado grandes desafios no que diz respeito à Qualidade da Energia Elétrica (QEE) e à operação do SEP. O grande progresso dos Sistemas de Armazenamento de Energia (SAEs), aliado à crescente inserção de geração eólica nos SEPs, tem promovido grande interesse na utilização dos SAEs junto aos aerogeradores. Este trabalho apresenta a utilização de um SAE, conectado ao elo CC do conversor back-to-back do aerogerador, e uma técnica de controle baseada na lógica fuzzy para suavizar as variações da potência de curto prazo da geração eólica. A técnica de controle proposta também é utilizada para gerenciar o Estado de Carga (SOC) do SAE para evitar a condição sobrecarregada e totalmente descarregada. O controle fuzzy é testado e comparado com uma técnica de controle convencional e também com a topologia típica do aerogerador, onde não é utilizado o SAE. As técnicas são avaliadas e comparadas com base em diferentes indicadores numéricos da qualidade da suavização. Um simulador digital em tempo real (RTDSR) é utilizado para realizar as simulações, onde é considerado um aerogerador de 2 MW, um supercapacitor e uma microrrede baseada no benchmark do CIGRÉ de média tensão. Os resultados mostraram que as técnicas de controle do supercapacitor possibilitaram uma adequada suavização de potência da geração eólica e puderam contribuir para a QEE e a operação da microrrede. A técnica inteligente baseada no controlador fuzzy mostrou resultados superiores à técnica convencional e, portanto, apresentou grande potencial para a aplicação. / Among several renewable energy sources existing nowadays, wind energy has presented the largest growth in power systems. The wind power fluctuations, however, has brought great challenges concerning Power Quality (PQ) and power system operation. The great progress of Energy Storage Systems (ESSs), together with the increasing penetration of wind power worldwide, has lead to a great interest in the use of ESS in wind energy. This study presents the application of a ESS, connected to the DC link of the backto- back converter of the wind turbine, and a control technique based on fuzzy logic to smooth out the short-term wind power fluctuations. The proposed control technique is also used to manage the State of Charge (SOC) of the ESS to avoid the overcharged and undercharged states. The fuzzy control is tested and compared with a conventional control technique and also with the typical wind turbine topology, where the ESS is not used. The techniques are evaluated and compared based on different quantitative indicators that represent the quality of the power smoothing. Simulations are carried out in the Real-Time Digital Simulator (RTDSR), where a 2 MW wind turbine, a supercapacitor and a microgrid system based on the CIGRÉ medium voltage benchmark are considered. The results have shown that the control techniques of the supercapacitor permitted a suitable smoothing of the fluctuating wind power and contributed to the microgrid PQ and operation. The intelligent control technique based on the fuzzy logic has shown superior performance compared to the conventional technique and, therefore, presented great potential for application.
282

An application of Bayesian Hidden Markov Models to explore traffic flow conditions in an urban area

Andersson, Lovisa January 2019 (has links)
This study employs Bayesian Hidden Markov Models as method to explore vehicle traffic flow conditions in an urban area in Stockholm, based on sensor data from separate road positions. Inter-arrival times are used as the observed sequences. These sequences of inter-arrival times are assumed to be generated from the distributions of four different (and hidden) traffic flow states; nightly free flow, free flow, mixture and congestion. The filtered and smoothed probability distributions of the hidden states and the most probable state sequences are obtained by using the forward, forward-backward and Viterbi algorithms. The No-U-Turn sampler is used to sample from the posterior distributions of all unknown parameters. The obtained results show in a satisfactory way that the Hidden Markov Models can detect different traffic flow conditions. Some of the models have problems with divergence, but the obtained results from those models still show satisfactory results. In fact, two of the models that converged seemed to overestimate the presence of congested traffic and all the models that not converged seem to do adequate estimations of the probability of being in a congested state. Since the interest of this study lies in estimating the current traffic flow condition, and not in doing parameter inference, the model choice of Bayesian Hidden Markov Models is satisfactory. Due to the unsupervised nature of the problematization of this study, it is difficult to evaluate the accuracy of the results. However, a model with simulated data and known states was also implemented, which resulted in a high classification accuracy. This indicates that the choice of Hidden Markov Models is a good model choice for estimating traffic flow conditions.
283

Análise de diagnóstico em modelos semiparamétricos normais / Diagnostic analysis in semiparametric normal models

Noda, Gleyce Rocha 18 April 2013 (has links)
Nesta dissertação apresentamos métodos de diagnóstico em modelos semiparamétricos sob erros normais, em especial os modelos semiparamétricos com uma variável explicativa não paramétrica, conhecidos como modelos lineares parciais. São utilizados splines cúbicos para o ajuste da variável resposta e são aplicadas funções de verossimilhança penalizadas para a obtenção dos estimadores de máxima verossimilhança com os respectivos erros padrão aproximados. São derivadas também as propriedades da matriz hat para esse tipo de modelo, com o objetivo de utilizá-la como ferramenta na análise de diagnóstico. Gráficos normais de probabilidade com envelope gerado também foram adaptados para avaliar a adequabilidade do modelo. Finalmente, são apresentados dois exemplos ilustrativos em que os ajustes são comparados com modelos lineares normais usuais, tanto no contexto do modelo aditivo normal simples como no contexto do modelo linear parcial. / In this master dissertation we present diagnostic methods in semiparametric models under normal errors, specially in semiparametric models with one nonparametric explanatory variable, also known as partial linear model. We use cubic splines for the nonparametric fitting, and penalized likelihood functions are applied for obtaining maximum likelihood estimators with their respective approximate standard errors. The properties of the hat matrix are also derived for this kind of model, aiming to use it as a tool for diagnostic analysis. Normal probability plots with simulated envelope graphs were also adapted to evaluate the model suitability. Finally, two illustrative examples are presented, in which the fits are compared with usual normal linear models, such as simple normal additive and partially linear models.
284

Estabilização digital em tempo real de imagens em seqüência de vídeos / Real time digital image stabilization in videos sequences

Silvestre, André Calheiros 10 May 2007 (has links)
Podemos afirmar que deslocamentos da imagem em quadros consecutivos de uma seqüência de vídeo são causados por pequenas vibrações da câmera e/ou movimentos desejados pelo operador da câmera. A estabilização de imagem consiste no processo de remoção de pequenas vibrações que caracterizam movimentos indesejados de uma seqüência de imagens. Com este propósito, atualmente técnicas de processamento digital de vídeo vêm sendo comumente aplicadas na indústria eletrônica. No processo digital de estabilização de imagens são necessários métodos computacionais de estimação, de suavização e de correção de movimento, para os quais, existe uma grande variedade de técnicas de processamento. O emprego de uma técnica específica de processamento é determinado conforme o tipo de aplicação. Técnicas para a estimação de movimento como casamento de blocos (CB), e para a suavização de movimento como filtro de freqüência passa baixa, são freqüentemente encontradas na literatura. Este trabalho apresenta um sistema de estabilização digital de imagens em tempo real capturadas por uma câmera digital, estimando e compensando movimentos translacionais e rotacionais indesejados. / Undesirable shakes or jiggles, object motion within image or desirable motions caused by the camera operator causes image differences in consecutive frames of video sequences. The image stabilization consists of the process of removing inevitable and undesirable fluctuations, shakes and jiggles; with this purpose, nowadays digital processing techniques have been commonly applied in the electronic industry. On the digital processing of image stabilization, computational methods of estimation, smoothing and motion correction are necessary. In the literature various digital processing techniques for image stabilization are described, the most suitable technique should be chosen according to the kind of application. Techniques such as block matching used in motion estimation and low-pass filters used in motion smoothing are found in a great number of papers. This work presents a real time digital image stabilization system capable of stabilizing video sequences with undesirable translational and rotational displacements between frames.
285

The Propagation-Separation Approach

Becker, Saskia 16 May 2014 (has links)
Lokal parametrische Modelle werden häufig im Kontext der nichtparametrischen Schätzung verwendet. Bei einer punktweisen Schätzung der Zielfunktion können die parametrischen Umgebungen mithilfe von Gewichten beschrieben werden, die entweder von den Designpunkten oder (zusätzlich) von den Beobachtungen abhängen. Der Vergleich von verrauschten Beobachtungen in einzelnen Punkten leidet allerdings unter einem Mangel an Robustheit. Der Propagations-Separations-Ansatz von Polzehl und Spokoiny [2006] verwendet daher einen Multiskalen-Ansatz mit iterativ aktualisierten Gewichten. Wir präsentieren hier eine theoretische Studie und numerische Resultate, die ein besseres Verständnis des Verfahrens ermöglichen. Zu diesem Zweck definieren und untersuchen wir eine neue Strategie für die Wahl des entscheidenden Parameters des Verfahrens, der Adaptationsbandweite. Insbesondere untersuchen wir ihre Variabilität in Abhängigkeit von der unbekannten Zielfunktion. Unsere Resultate rechtfertigen eine Wahl, die unabhängig von den jeweils vorliegenden Beobachtungen ist. Die neue Parameterwahl liefert für stückweise konstante und stückweise beschränkte Funktionen theoretische Beweise der Haupteigenschaften des Algorithmus. Für den Fall eines falsch spezifizierten Modells führen wir eine spezielle Stufenfunktion ein und weisen eine punktweise Fehlerschranke im Vergleich zum Schätzer des Algorithmus nach. Des Weiteren entwickeln wir eine neue Methode zur Entrauschung von diffusionsgewichteten Magnetresonanzdaten. Unser neues Verfahren (ms)POAS basiert auf einer speziellen Beschreibung der Daten, die eine zeitgleiche Glättung bezüglich der gemessenen Positionen und der Richtungen der verwendeten Diffusionsgradienten ermöglicht. Für den kombinierten Messraum schlagen wir zwei Distanzfunktionen vor, deren Eignung wir mithilfe eines differentialgeometrischen Ansatzes nachweisen. Schließlich demonstrieren wir das große Potential von (ms)POAS auf simulierten und experimentellen Daten. / In statistics, nonparametric estimation is often based on local parametric modeling. For pointwise estimation of the target function, the parametric neighborhoods can be described by weights that depend on design points or on observations. As it turned out, the comparison of noisy observations at single points suffers from a lack of robustness. The Propagation-Separation Approach by Polzehl and Spokoiny [2006] overcomes this problem by using a multiscale approach with iteratively updated weights. The method has been successfully applied to a large variety of statistical problems. Here, we present a theoretical study and numerical results, which provide a better understanding of this versatile procedure. For this purpose, we introduce and analyse a novel strategy for the choice of the crucial parameter of the algorithm, namely the adaptation bandwidth. In particular, we study its variability with respect to the unknown target function. This justifies a choice independent of the data at hand. For piecewise constant and piecewise bounded functions, this choice enables theoretical proofs of the main heuristic properties of the algorithm. Additionally, we consider the case of a misspecified model. Here, we introduce a specific step function, and we establish a pointwise error bound between this function and the corresponding estimates of the Propagation-Separation Approach. Finally, we develop a method for the denoising of diffusion-weighted magnetic resonance data, which is based on the Propagation-Separation Approach. Our new procedure, called (ms)POAS, relies on a specific description of the data, which enables simultaneous smoothing in the measured positions and with respect to the directions of the applied diffusion-weighting magnetic field gradients. We define and justify two distance functions on the combined measurement space, where we follow a differential geometric approach. We demonstrate the capability of (ms)POAS on simulated and experimental data.
286

[en] A SUGGESTION FOR THE STRUCTURE IDENTIFICATION OF LINEAR AND NON LINEAR TIME SERIES BY THE USE OF NON PARAMETRIC REGRESSION / [pt] UMA SUGESTÃO PARA IDENTIFICAÇÃO DA ESTRUTURA DE SÉRIES TEMPORAIS, LINEARES E NÃO LINEARES, UTILIZANDO REGRESSÃO NÃO PARAMÉTRICA

ROSANE MARIA KIRCHNER 10 February 2005 (has links)
[pt] Esta pesquisa fundamenta-se na elaboração de uma metodologia para identificação da estrutura de séries temporais lineares e não lineares, baseada na estimação não paramétrica e semi-paramétrica de curvas em modelos do tipo Yt=E(Yt|Xt) +e, onde Xt=(Yt-1, Yt-2,...,Yt-d). Um modelo de regressão linear paramétrico tradicional assume que a forma da função E(Yt|Xt) é linear. O processo de estimação é global, isto é, caso a suposição seja, por exemplo, a de uma função linear, então a mesma reta é usada ao longo do domínio da covariável. Entretanto, tal abordagem pode ser inadequada em muitos casos. Já a abordagem não paramétrica, permite maior flexibilidade na possível forma da função desconhecida, sendo que ela pode ser estimada através de funções núcleo local. Desse modo, somente pontos na vizinhança local do ponto xt , onde se deseja estimar E(Yt|Xt=xt), influenciarão nessa estimativa. Isto é, através de estimadores núcleo, a função desconhecida será estimada através de uma regressão local, em que as observações mais próximas do ponto onde se deseja estimar a curva receberão um peso maior e as mais afastadas, um peso menor. Para estimação da função desconhecida, o parâmetro de suavização h (janela) foi escolhido automaticamente com base na amostra via minimização de resíduos, usando o critério de validação cruzada. Além desse critério, utilizamos intencionalmente valores fixos para o parâmetro h, que foram 0.1, 0.5, 0.8 e 1. Após a estimação da função desconhecida, calculamos o coeficiente de determinação para verificar a dependência de cada defasagem. Na metodologia proposta, verificamos que a função de dependência da defasagem (FDD) e a função de dependência parcial da defasagem (FDPD), fornecem boas aproximações no caso linear da função de autocorrelação (FAC) e da função de autocorrelação parcial (FACP), respectivamente, as quais são utilizadas na análise clássica de séries lineares. A representação gráfica também é muito semelhante àquelas usadas para FAC e FACP. Para a função de dependência parcial da defasagem (FDPD), necessitamos estimar funções multivariadas. Nesse caso, utilizamos um modelo aditivo, cuja estimação é feita através do método backfitting (Hastie e Tibshirani-1990). Para a construção dos intervalos de confiança, foi utilizada a técnica Bootstrap. Conduzimos o estudo de forma a avaliar e comparar a metodologia proposta com metodologias já existentes. As séries utilizadas para esta análise foram geradas de acordo com modelos lineares e não lineares. Para cada um dos modelos foi gerada uma série de 100 ou mais observações. Além dessas, também foi exemplificada com o estudo da estrutura de duas séries de demanda de energia elétrica, uma do DEMEI- Departamento Municipal de Energia de Ijuí, Rio Grande do Sul e outra de uma concessionária da região Centro-Oeste. Utilizamos como terceiro exemplo uma série econômica de ações da Petrobrás. / [en] This paper suggests an approach for the identification of the structure of inear and non-linear time series through non-parametric estimation of the unknown curves in models of the type Y)=E(Yt|Xt =xt) +e , where Xt=(Yt-1,Yt-2,...,Yt- d). A traditional nonlinear parametric model assumes that the form of the function E(Yt,Xt) is known. The estimation process is global, that is, under the assumption of a linear function for instance, then the same line is used along the domain of the covariate. Such an approach may be inadequate in many cases, though. On the other hand, nonparametric regression estimation, allows more flexibility in the possible form of the unknown function, since the function itself can be estimated through a local kernel regression. By doing so, only points in the local neighborhood of the point Xt, where E(Yt|Xt =xt) is to be estimated, will influence this estimate. In other words, with kernel estimators, the unknown function will be estimated by local regression, where the nearest observations to the point where the curve is to be estimated will receive more weight and the farthest ones, a less weight. For the estimation of the unknown function, the smoothing parameter h (window) was chosen automatically based on the sample through minimization of residuals, using the criterion of cross-validation. After the estimation of the unknown function, the determination coefficient is calculated in order to verify the dependence of each lag. Under the proposed methodology, it was verified that the Lag Dependence Function (LDF) and the Partial Lag Dependence Function (PLDF) provide good approximations in the linear case to the function of autocorrelation (ACF) and partial function of autocorrelation (PACF) respectively, used in classical analysis of linear time series. The graphic representation is also very similar to those used in ACF and PACF. For the Partial Lag Dependence Function (PLDF) it becomes necessary to estimate multivariable functions. In this case, an additive model was used, whose estimate is computed through the backfitting method, according to Hastie and Tibshirani (1990). For the construction of confidence intervals, the bootstrap technique was used. The research was conducted to evaluate and compare the proposed methodology to traditional ones. The simulated time series were generated according to linear and nonlinear models. A series of one hundred observations was generated for each model. The approach was illustrated with the study of the structure of two time series of electricity demand of DEMEI- the city department of energy of Ijui, Rio Grande do Sul, Brazil and another of a concessionary of the Centro- Oeste region. We used as third example an economical series of Petrobras.
287

Abordagem semi-paramétrica para cópulas variantes no tempo em séries temporais financeiras / Semiparametric approach for time-varying copula in finacial time series

Reis, Daniel de Brito 21 September 2016 (has links)
Neste trabalho foram utilizadas cópulas bivariadas variantes no tempo para modelar a dependência entre séries de retornos financeiros. O objetivo deste trabalho é apresentar uma abordagem de estimação semi-paramétrica de cópulas variantes no tempo a partir de uma função de cópula paramétrica na qual o parâmetro varia no tempo. A função do parâmetro desconhecido será estimada pela aproximação de ondaleta Haar, polinômio de Taylor e Kernel. O desempenho dos três métodos de aproximação será comparado via estudos de simulação. Uma aplicação aos dados reais será apresentada para ilustrar a metodologia estudada. / In this work the bivariate Time-varying copula models have been used to model the dependence between payback. The aim of this work is to present an approach of semiparametric estimation of Time-varying copula models from a parametric copula function in which the parameter varies with the time. The function of the unknown parameter will be estimated by Haar wavelet approach, Taylor series and smoothing Kernel approximation. The measured performance of the three estimation method will be compared by simulation study. An application of the data will be presented to illustrate the studied methodology.
288

Otimização de níveis de estoque de uma rede varejista através do uso de modelos previsores, simulação discreta determinística e metaheurísticas

Artmann, Fernando Gromowski 25 March 2011 (has links)
Submitted by Mariana Dornelles Vargas (marianadv) on 2015-06-01T12:45:08Z No. of bitstreams: 1 otimizacao_niveis.pdf: 2029201 bytes, checksum: a40cd7a9e26627e3677b30cfdb0cdd33 (MD5) / Made available in DSpace on 2015-06-01T12:45:08Z (GMT). No. of bitstreams: 1 otimizacao_niveis.pdf: 2029201 bytes, checksum: a40cd7a9e26627e3677b30cfdb0cdd33 (MD5) Previous issue date: 2011 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Em um contexto empresarial, a competitividade entre companhias de um mesmo ramo de atividade se torna mais presente a cada dia que passa. Empresas estruturadas de forma enxuta em termos de custo podem ter maior vantagem competitiva sobre seus concorrentes. Reduzir custos é, portanto, um objetivo almejado por todas as organizações. A gestão e controle de estoques de produtos é um problema presente em diversas empresas e organizações. Diversos custos estão associados a este problema. O volume monetário relacionado é bastante grande. Assim, quanto melhor for o processo de controle e gerenciamento de estoques de uma empresa, menor será o custo para manutenção dos mesmos. Este trabalho propõe uma ferramenta para otimização dos níveis de estoque de uma rede varejista, considerando características como lucratividade, custos e atendimentos às demandas. Isto é feito através do uso de um método previsor baseado em Suavização Exponencial com Sazonalidade Multiplicativa, um módulo Otimizador baseado na metaheurística Guided Local Search, além de um Simulador Discreto Determinístico. A ferramenta conta com uma série de parâmetros que permitem a criação de diferentes cenários relativos ao sistema de estocagem da rede varejista. Os resultados obtidos durante a fase de experimentação da ferramenta demonstram sua capacidade de encontrar soluções para o problema de níveis de estoque de forma satisfatória, além de possibilitar a criação de cenários alternativos à realidade observada no sistema físico. / Competitiveness is an element that increases on a daily basis considering nowadays businesses. Companies with more efficient structures in terms of costs have an important advantage when compared to their competitors. This greatly motivates companies to reduce costs. Inventory control is an existing problem in many companies and organizations. Many types of costs are associated to this problem. Also, the amount of money involved in inventory maintenance is very considerable. So, the better the inventory control process is, the lower the costs related to it will be. This paperwork proposes a tool to optimize inventory levels on a retailer company, considering profit, costs and service level attendance. This is done by using a Forecasting Method called Exponential Smoothing with Multiplicative Seasonality, an Optimizer based on the Guided Local Search metaheuristic and a Discrete Deterministic Simulator. This tool uses a series of parameters in order to allow users to create different scenarios. The results obtained with the conducted experiments show that the tool is capable of finding good solutions to the problem of inventory levels, as well as creating alternative scenarios to operate the inventory system..
289

Algorithmes de géolocalisation à l’intérieur d’un bâtiment en temps différé / Post-processing algorithms for indoor localization

Zoubert-Ousseni, Kersane 10 April 2018 (has links)
La géolocalisation indoor en temps réel a largement été étudiée ces dernières années, et de nombreuses applications y sont associées. Une estimation en temps différé de la trajectoire présente également un certain intérêt. La géolocalisation indoor en temps différé permet par exemple de développer des approches de type crowdsourcing qui tirent profit d'un grand nombre d'utilisateurs afin de récolter un grand nombre de mesures : la connaissance du trajet d'un utilisateur muni d'un smartphone permet par exemple d'alimenter une carte de fréquentation du bâtiment. Estimer la trajectoire de cet utilisateur ne nécessite pas de traitement en temps réel et peut s'effectuer en temps différé ce qui offre deux avantages. D'abord, l'approche temps réel estime une position courante uniquement avec les mesures présentes et passées, alors que l'approche temps différé permet d'avoir accès à l'ensemble des mesures et permet d'obtenir une trajectoire estimée plus régulière et plus précise qu'en temps réel. Par ailleurs, cette estimation peut se faire sur un serveur et n'a pas besoin d'être portée par un smartphone comme c'est le cas en temps réel, ce qui permet d'utiliser une puissance de calcul et un volume mémoire plus importants. L'objet de ces travaux de thèse est de proposer une estimation de la trajectoire d'un individu se déplaçant avec un smartphone recevant des mesures de puissance wifi ou bluetooth (RSS) et enregistrant des mesures inertielles (IMU). En premier lieu, sans la connaissance de la position des murs de la carte, un modèle paramétrique est proposé, basé sur un modèle de propagation d'onde adaptatif pour les mesures RSS ainsi que sur une modélisation par morceaux de la trajectoire inertielle, issue des mesures IMU. Les résultats obtenus en temps différé ont une moyenne d'erreur de 6.2m contre 12.5men temps réel. En second lieu, l'information des contraintes de déplacement induites par la présence des murs du bâtiment est ajoutée et permet d'affiner l'estimation de la trajectoire avec une technique particulaire, comme il est couramment utilisé dans la littérature. Cette seconde approche a permis de développer un lisseur particulaire ainsi qu'un estimateur du maximum a posteriori par l'algorithme de Viterbi. D'autres heuristiques numériques ont été présentées. Une première heuristique ajuste le modèle d'état de l'utilisateur, qui est initialement uniquement basé sur les mesures IMU, à partir du modèle paramétrique développé sans les murs. Une seconde heuristique met en œuvre plusieurs réalisations d'un filtre particulaire et définit deux scores basés sur les mesures RSS et sur la continuité de la trajectoire. Les scores permettent de sélectionner la meilleure réalisation du filtre. Un algorithme global, regroupant l'ensemble de ces approche permet d'obtenir une erreur moyenne de 3.6m contre 5.8m en temps réel. Enfin, un modèle d'apprentissage statistique basé sur des forêts aléatoires a permis de distinguer les trajectoires qui ont été correctement estimées en fonction d'un faible nombre de variables, en prévision d'une application au crowdsourcing. / Real time indoor geolocalization has recently been widely studied, and has many applications. Off-line (post-processing) trajectory estimation also presents some interest. Off-line indoor geolocalization makes it possible for instance to develop crowdsourcing approaches that take advantage of a large number of users to collect a large number of measurements: knowing the trajectory of a smartphone user makes it possible for instance to feed an attendance map. Estimating this trajectory does not need to be performed in real-time and can be performed off-line, two main benefits. Firstly, the real-time approach estimates a current position using present and past measurements only, when the off-line approach has access to the whole measurements, and makes it possible to obtain an estimated trajectory that is smoother and more accurate than with a real-time approach. Secondly, this estimation can be done on a server and does not need to be implemented in the smartphone as it is the case in the real-time approach, with the consequence that more computing power and size memory are available. The objective of this PhD is to provide an off-line estimation of the trajectory of a smartphone user receiving signal strength (RSS) of wifi or bluetooth measurements and collecting inertial measurements (IMU). In the beginning, without the floorplan of the building, a parametric model is proposed, based on an adaptive pathloss model for RSS measurements and on a piecewise parametrization for the inertial trajectory, obtained with IMU measurements. Results are an average error of 6.2mfor the off-line estimation against 12.5m for the real-time estimation. Then, information on displacement constraints induced by the walls is considered, that makes it possible to adjust the estimated trajectory by using a particle technique as often done in the state-of-the-art. With this second approach we developped a particle smoother and a maximum a posteriori estimator using the Viterbi algorithm. Other numerical heuristics have been introduced. A first heuristic makes use of the parametric model developed without the floorplan to adjust the state model of the user which was originally based on IMUalone. A second heuristic proposes to performseveral realization of a particle filter and to define two score functions based on RSS and on the continuity of the estimated trajectory. The scores are then used to select the best realization of the particle filter as the estimated trajectory. A global algorithm, which uses all of the aforementioned approaches, leads to an error of 3.6m against 5.8m in real-time. Lastly, a statistical machine learning model produced with random forests makes it possible to distinguish the correct estimated trajectories by only using few variables to be used in a crowdsourcing framework.
290

[en] COMBINING TO SUCCEED: A NOVEL STRATEGY TO IMPROVE FORECASTS FROM EXPONENTIAL SMOOTHING MODELS / [pt] COMBINANDO PARA TER SUCESSO: UMA NOVA ESTRATÉGIA PARA MELHORAR A PREVISÕES DE MODELOS DE AMORTECIMENTO EXPONENCIAL

TIAGO MENDES DANTAS 04 February 2019 (has links)
[pt] A presente tese se insere no contexto de previsão de séries temporais. Nesse sentido, embora muitas abordagens tenham sido desenvolvidas, métodos simples como o de amortecimento exponencial costumam gerar resultados extremamente competitivos muitas vezes superando abordagens com maior nível de complexidade. No contexto previsão, papers seminais na área mostraram que a combinação de previsões tem potencial para reduzir de maneira acentuada o erro de previsão. Especificamente, a combinação de previsões geradas por amortecimento exponencial tem sido explorada em papers recentes. Apesar da combinação de previsões utilizando Amortecimento Exponencial poder ser feita de diversas formas, um método proposto recentemente e chamado de Bagged.BLD.MBB.ETS utiliza uma técnica chamada Bootstrap Aggregating (Bagging) em combinação com métodos de amortecimento exponencial para gerar previsões mostrando que a abordagem é capaz de gerar previsões mensais mais precisas que todos os benchmarks analisados. A abordagem era considerada o estado da arte na utilização de Bagging e Amortecimento Exponencial até o desenvolvimento dos resultados obtidos nesta tese. A tese em questão se ocupa de, inicialmente, validar o método Bagged.BLD.MBB.ETS em um conjunto de dados relevante do ponto de vista de uma aplicação real, expandindo assim os campos de aplicação da metodologia. Posteriormente, são identificados motivos relevantes para redução do erro de e é proposta uma nova metodologia que utiliza Bagging, Amortecimento Exponencial e Clusters para tratar o efeito covariância, até então não identificado anteriormente na literatura do método. A abordagem proposta foi testada utilizando diferentes tipo de séries temporais da competição M3, CIF 2016 e M4, bem como utilizando dados simulados. Os resultados empíricos apontam para uma redução substancial na variância e no erro de previsão. / [en] This thesis is inserted in the context of time series forecasting. In this sense, although many approaches have been developed, simple methods such as exponential smoothing usually produce extremely competitive results, often surpassing approaches with a higher level of complexity. Seminal papers in time series forecasting showed that the combination of forecasts has the potential to dramatically reduce the forecast error. Specifically, the combination of forecasts generated by Exponential Smoothing has been explored in recent papers. Although this can be done in many ways, a specific method called Bagged.BLD.MBB.ETS uses a technique called Bootstrap Aggregating (Bagging) in combination with Exponential Smoothing methods to generate forecasts, showing that the approach can generate more accurate monthly forecasts than all the analyzed benchmarks. The approach was considered the state of the art in the use of Bagging and Exponential Smoothing until the development of the results obtained in this thesis. This thesis initially deals with validating Bagged.BLD.MBB.ETS in a data set relevant from the point of view of a real application, thus expanding the fields of application of the methodology. Subsequently, relevant motifs for error reduction are identified and a new methodology using Bagging, Exponential Smoothing and Clusters is proposed to treat the covariance effect, not previously identified in the method s literature. The proposed approach was tested using data from three time series competitions (M3, CIF 2016 and M4), as well as using simulated data. The empirical results point to a substantial reduction in variance and forecast error.

Page generated in 0.0398 seconds