Spelling suggestions: "subject:"highfrequency"" "subject:"highffrequency""
521 |
Estudo de três estratégias de ventilação artificial protetora: alta freqüência, baixa freqüência e baixa freqüência associada à insuflação de gás traqueal, em modelo experimental de SARA / Comparing three protective mechanical ventilation strategies, HFOV, low-frequency-ventilation, and low-frequency-ventilation with TGI, in an ARDS experimental modelMárcia Souza Volpe 09 February 2007 (has links)
Introdução: Um dos principais objetivos na SARA é encontrar a melhor estratégia protetora de ventilação mecânica que minimize o stress pulmonar e otimize as trocas gasosas. Teoricamente, estas duas metas podem ser obtidas simultaneamente, evitando-se a hiperdistensão e colapso cíclico de unidades alveolares instáveis. Numa tentativa de radicalizar a minimização da hiperdistensão e da pressão motriz inspiratória, duas estratégias podem ser propostas: o uso da ventilação de alta freqüência oscilatória (HFOV) e o uso da insuflação intra-traqueal de gás (TGI), esta última associada à hipercapnia permissiva e baixas freqüências respiratórias. Objetivo: identificar qual (quais) entre as três estratégias de ventilação mecânica, HFOV, TGI e ventilação protetora de baixa freqüência (VP: volume corrente ~6 mL/kg), foi (foram) a (s) mais protetora (s) em um modelo de SARA em coelhos, durante seis horas de ventilação mecânica. Material e métodos: Os animais (n = 45) foram submetidos a repetidas lavagens pulmonar até uma PaO2 < 100 mmHg. Imediatamente após a injuria pulmonar, foi obtida uma curva P/V para calculo do trabalho inspiratório e energia dissipada durante insuflação pulmonar. Em seguida, os animais foram randomizados em um dos três grupos: HFOV, VP ou TGI. O PEEP ou PMEAN ideais foram obtidos através de uma curva PEEP/PaO2 (ou PMEAN/PaO2) que foi precedida por uma manobra de recrutamento. Os animais dos grupos VP e TGI foram inicialmente ventilados em PCV com um delta de pressão = 8 cmH2O e freqüência = 60 resp/min. A única diferença inicial entre os dois foi que o grupo TGI possuía um fluxo traqueal continuo = 1 L/min. Os animais do grupo HFOV foram inicialmente ventilados com uma amplitude de pressão = 45 cmH2O e freqüência = 10 Hz. Todos os animais foram ventilados com uma FiO2 = 1.0. Os deltas de pressão (ou pressão motriz) nos grupos VP e TGI foram reajustados para manter uma PaCO2 = 90-110 mmHg, enquanto no HFOV a amplitude de pressão foi reajustada para manter uma PaCO2 = 45-55 mmHg. No final do experimento, outra curva P/V foi obtida. Amostras do LBA e sangue foram coletados antes e após o período de ventilação para determinar os níveis de IL-8. Amostras do pulmão esquerdo foram processadas para análise histológica e para cálculo da relação peso-úmido/ peso-seco. Resultados: Não foi observada diferença na PaO2 entre os grupos. A PaCO2 foi significantemente menor no grupo HFOV (59 ± 3 mmHg) quando comparado aos grupos VP (99 ± 4 mmHg) e TGI (80 ± 3 mmHg). O volume corrente foi significantemente menor nos grupos TGI e HFOV quando comparado ao grupo VP. Logo após a lesão pulmonar, todos os grupos necessitaram de trabalhos similares para a insuflação pulmonar, mas o grupo VP foi o único que não apresentou melhora (diminuição) deste trabalho expiratório, a estratégia VP foi a única que apresentou aumento ao longo das 6 horas (P<0,001). Os grupos TGI e HFOV também apresentaram maiores concentrações de polimorfonucleares no tecido pulmonar (P=0,008) e tendências a favorecer um maior índice superfície/volume (P=0,14), maior gradiente IL-8 (diferença ente IL-8 no LBA e plasma - P=0,08) e menor relação peso-úmido/peso-seco (P=0,17) ao final das 6 horas de ventilação. Discussão: O menor trabalho requerido na insuflação pulmonar depois de 6 horas de ventilação refletiu uma redução nas pressões críticas de abertura e, provavelmente, uma melhora do edema pulmonar e do sistema surfactante nas estratégias HFOV e TGI. O aumento do trabalho expiratório no grupo VP sugere, inclusive, uma deterioração na qualidade do surfactante neste grupo. Nos grupos TGI e HFO, a maior concentração de polimorfonucleares no tecido pulmonar e a tendência a apresentar maior gradiente de IL8 poderiam se interpretados como uma melhor membrana alvéolo-capilar, resultando na menor liberação de mediadores compartimentalizados no interior dos alvéolos. Além de necessitar volumes correntes mais altos, a estratégia VP necessitou de pressões inspiratórias progressivamente mais altas durante as seis horas de protocolo, devido a reajustes freqüentes, necessários à manutenção das trocas gasosas. Conclusão: Uma redução mais radical das pressões motrizes demonstrou efeitos benéficos num modelo de lesão pulmonar aguda experimental, mesmo quando associada a uma estratégia que já prioriza o recrutamento pulmonar ótimo. O TGI mostrou ser uma alternativa viável à HFOV, apresentando algumas vantagens práticas de implementação e em termos de previsibilidade de resposta nas trocas gasosas. / Introduction: One of the major goals in ARDS is to find the best protective mechanical ventilation strategy, which minimizes lung stress and optimizes gas exchange. Theoretically, these two goals can be accomplished by simultaneously avoiding alveolar overdistension and cyclic collapse of unstable alveolar units. Pushing further the rationale of this strategy, two new strategies have been proposed: high frequency oscillatory mechanical ventilation (HFOV) and intra-tracheal gas insufflation (TGI) associated with permissive hypercapnia and conventional frequencies. Objective: To determine which of the three protective modalities of mechanical ventilation, HFOV, low-frequency-protective ventilation (LFV), or LFV associated with tracheal gas insufflation (TGI), was the most protective strategy in an ARDS rabbit model during six hours of mechanical ventilation. Material and methods: The animals (n = 45) were submitted to repeated saline lavage until PaO2 < 100 mmHg. Immediately after lung injury, a P/V curve was obtained to calculate inspiratory/expiratory work and energy dissipated during lung inflation. Thereafter, the animals were randomized into one of three groups: LFV, HFOV or TGI. The optimal PEEP or PMEAN was obtained during a PEEP/PaO2 (or PMEAN/PaO2) curve which was preceded by a recruiting maneuver. The animals of the LFV and TGI groups were initially ventilated in PCV with diving pressure = 8 cmH2O and frequency = 60 b/m. The only initial difference between these two arms was that the TGI group had a continuous tracheal flow = 1 L/min. The animals in the HFOV were initially ventilated with an oscillatory pressure amplitude = 45 cmH2O and frequency = 10 Hz. All animals were ventilated with FiO2 = 1.0. Driving pressure was then adjusted in LFV and TGI groups to maintain a PaCO2 = 90-110 mmHg, while in HFO the pressure amplitude was adjusted to maintain a PaCO2 = 45-55 mmHg. At the end of the experiment, after 6 hours of ventilation, another P/V curve was obtained. BAL and bloods samples were drawn before and after the period of ventilation to determine IL-8 levels. The left lung was processed for histological analysis and for wet weight/dry weight (ww/dw) ratio. Results: We observed no differences in PaO2 among the groups. PaCO2 was significantly lower at HFO (59 ± 3 mmHg) when compared with LFV (99 ± 4 mmHg) and TGI (80 ± 3 mmHg) groups. Tidal volume was significantly lower in TGI and HFO groups when compared with LFV group. Soon after injury, all groups required similar energy for lung inflation (inspiratory work), but the VP group was the only one not presenting any improvement in this parameter after 6 hours (P<0.001). Concerning the expiratory work, the VP strategy was the only one presenting an increase in the expiratory work along the 6 hours (P<0.001). The TGI and HFOV groups showed the highest polymorphonuclear cell concentration in lung tissue (P=0.008) and trends towards a higher surface/volume index (P=0.14), higher IL8 gradient (difference between IL8 in BAL and plasma) and lower ww/dw ratio at the end of 6 hours of ventilation (P=0.17). Discussion: The lower energy for lung inflation after six hours of ventilation reflected the reduction of opening pressures and better surfactant function during ventilation under TGI and HFOV strategies. The increase in expiratory work during the VP strategy further suggests that the surfactant quality deteriorated under this strategy. In the TGI and HFOV groups, the higher concentration of polymorphonuclear cells and the trend towards a higher IL8 gradient between the lung and blood may suggest a better integrity of the alveolar-capillary membrane, leading to less release of compartmentalized mediators within the alveolar space. Besides the higher tidal volumes used during VP, this strategy required inspiratory pressures progressively higher along the hours, due to frequent and necessary adjustments of tidal volumes or pressures according to the gas-exchange requirements. Conclusion: An aggressive reduction of tidal volume and driving pressures was beneficial during protective strategies, even when an optimization of lung recruitment was already in place. The TGI strategy showed to be an attractive alternative to HFOV, presenting some advantages in terms of implementation and predictability of response.
|
522 |
Combinação de projeções de volatilidade baseadas em medidas de risco para dados em alta frequência / Volatility forecast combination using risk measures based on high frequency dataAlcides Carlos de Araújo 29 April 2016 (has links)
Operações em alta frequência demonstraram crescimento nos últimos anos; em decorrência disso, surgiu a necessidade de estudar o mercado de ações brasileiro no contexto dos dados em alta frequência. Os estimadores da volatilidade dos preços de ações utilizando dados de negociações em alta frequência são os principais objetos de estudo. Conforme Aldridge (2010) e Vuorenmaa (2013), o HFT foi definido como a rápida realocação de capital feita de modo que as transações possam ocorrer em milésimos de segundos por uso de algoritmos complexos que gerenciam envio de ordens, análise dos dados obtidos e tomada das melhores decisões de compra e venda. A principal fonte de informações para análise do HFT são os dados tick by tick, conhecidos como dados em alta frequência. Uma métrica oriunda da análise de dados em alta frequência e utilizada para gestão de riscos é a Volatilidade Percebida. Conforme Andersen et al. (2003), Pong et al. (2004), Koopman et al. (2005) e Corsi (2009) há um consenso na área de finanças de que as projeções da volatilidade utilizando essa métrica de risco são mais eficientes de que a estimativa da volatilidade por meio de modelos GARCH. Na gestão financeira, a projeção da volatilidade é uma ferramenta fundamental para provisionar reservas para possíveis perdas;, devido à existência de vários métodos de projeção da volatilidade e em decorrência desta necessidade torna-se necessário selecionar um modelo ou combinar diversas projeções. O principal desafio para combinar projeções é a escolha dos pesos: as diversas pesquisas da área têm foco no desenvolvimento de métodos para escolhê-los visando minimizar os erros de previsão. A literatura existente carece, no entanto, de uma proposição de método que considere o problema de eventual projeção de volatilidade abaixo do esperado. Buscando preencher essa lacuna, o objetivo principal desta tese é propor uma combinação dos estimadores da volatilidade dos preços de ações utilizando dados de negociações em alta frequência para o mercado brasileiro. Como principal ponto de inovação, propõe-se aqui de forma inédita a utilização da função baseada no Lower Partial Moment (LPM) para estimativa dos pesos para combinação das projeções. Ainda que a métrica LPM seja bastante conhecida na literatura, sua utilização para combinação de projeções ainda não foi analisada. Este trabalho apresenta contribuições ao estudo de combinações de projeções realizadas pelos modelos HAR, MIDAS, ARFIMA e Nearest Neighbor, além de propor dois novos métodos de combinação -- estes denominados por LPMFE (Lower Partial Moment Forecast Error) e DLPMFE (Discounted LPMFE). Os métodos demonstraram resultados promissores pretendem casos cuja pretensão seja evitar perdas acima do esperado e evitar provisionamento excessivo do ponto de vista orçamentário. / The High Frequency Trading (HFT) has grown significantly in the last years, in this way, this raises the need for research of the high frequency data on the Brazilian stock market.The volatility estimators of the asset prices using high frequency data are the main objects of study. According to Aldridge (2010) and Vuorenmaa (2013), the HFT was defined as the fast reallocation of trading capital that the negotiations may occur on milliseconds by complex algorithms scheduled for optimize the process of sending orders, data analysis and to make the best decisions of buy or sell. The principal information source for HFT analysis is the tick by tick data, called as high frequency data. The Realized Volatility is a risk measure from the high frequency data analysis, this metric is used for risk management.According to Andersen et al. (2003), Pong et al. (2004), Koopman et al.(2005) and Corsi (2009) there is a consensus in the finance field that the volatility forecast using this risk measure produce better results than estimating the volatility by GARCH models. The volatility forecasting is a key issue in the financial management to provision capital resources to possible losses. However, because there are several volatility forecast methods, this problem raises the need to choice a specific model or combines the projections. The main challenge to combine forecasts is the choice of the weights, with the aim of minimizingthe forecast errors, several research in the field have been focusing on development of methods to choice the weights.Nevertheless, it is missing in the literature the proposition of amethod which consider the minimization of the risk of an inefficient forecast for the losses protection. Aiming to fill the gap, the main goal of the thesis is to propose a combination of the asset prices volatility forecasts using high frequency data for Brazilian stock market. As the main focus of innovation, the thesis proposes, in an unprecedented way, the use of the function based on the Lower Partial Moment (LPM) to estimate the weights for the combination of volatility forecasts. Although the LPM measure is well known in the literature, the use of this metric for forecast combination has not been yet studied.The thesis contributes to the literature when studying the forecasts combination made by the models HAR, MIDAS, ARFIMA and Nearest Neighbor. The thesis also contributes when proposing two new methods of combinations, these methodologies are referred to as LPMFE (Lower Partial Moment Forecast Error) and DLPMFE (Discounted LPMFE). The methods have shown promising results when it is intended to avoid losses above the expected it is not intended to cause provisioning excess in the budget.
|
523 |
High-frequency trading e eficiência informacional: uma análise empírica do mercado de capitais brasileiro no período 2007-2015 / High-frequency trading and informational efficiency: an empirical analysis of Brazilian capital markets from 2007 to 2015Guilherme Tadiello 24 October 2016 (has links)
Operações de alta frequência ganharam destaque nos últimos anos, tanto no mercado nacional quanto internacional, e têm atraído a atenção de reguladores, pesquisadores e da mídia. Assim, surgiu a necessidade de estudar o mercado de capitais brasileiro no contexto dos dados em alta frequência. Este estudo preocupa-se em analisar os efeitos dos avanços tecnológicos e novas formas de negociação na qualidade do mercado. Tais pontos são caracterizados pelo HFT. Gomber e Haferkorn (2013) explicam que HFT é um subgrupo das negociações com algoritmos. Os investidores HFTs são caracterizados por negociarem com seu próprio capital, manterem posições por espaços curtos de tempo, pelo alto volume de negociação e por atualizarem as ordens com frequência. A revisão da literatura permitiu delinear o termo e identificar as estratégias adotadas, os impactos positivos e negativos na qualidade de mercado, os riscos advindos da prática e medidas adotadas ou propostas para mitigar esses riscos. A contribuição decorrente das negociações em alta frequência foi analisada empiricamente com ênfase na questão da eficiência informacional do mercado nacional. Para isso, foram utilizados dados intradiários do índice Bovespa, com frequências de observação a partir de 1 minuto. Aplicações do teste de sequência para aleatoriedade e teste de razão de variância de Lo e Mackinlay (1988) evidenciaram um aumento na eficiência do mercado ao longo do período analisado, entre 2007 e 2015, para a frequência de observações de 1 minuto. Foi encontrada relação entre esse ganho em eficiência e o aumento da participação do HFT no mercado. Também foi constatado que o mercado se mostra menos eficiente quando a frequência de observação aumenta e que os ganhos em eficiência são mais acentuados para frequências maiores. Os últimos resultados fortalecem a percepção de que a melhora na eficiência está relacionada diretamente à atuação dos HFTs no mercado, haja vista a característica destes de explorarem ineficiências de preço em frações de segundos. Descreveu-se assim o mercado de capitais nessa era de alta frequência e os impactos do HFT na eficiência de mercado. Tais pontos podem ser colocados como contribuições práticas deste estudo. / High-frequency trading has gained notoriety in recent years and attracted incresing attention among policymakers, researchers and media. This brought about the need for research of high frequency data on brazilian capital market. This study aims to investigate the effects of technological advancements and new forms of trading, specially HFT, on market quality. Gomber and Haferkorn (2013, p. 97) define HFT as a subset of algorithmic trading \"characterized by short holding periods of trading positions, high trading volume, frequent order updates and proprietary trading\". The literature review made it possible to define the term and identify strategies, positive and negative impacts on market quality, risks and ways to mitigate these risks. The contribution arising from HFT was analyzed empirically with an emphasis on price efficiency in the domestic market, using intraday Bovespa index data in different frequencies. Run tests and Lo and Mackinlay (1988) variance ratio tests showed increasing efficiency over the period, between 2007 and 2015, for observations in 1 minute frequency. Relationship between this gain in price efficieny and the growth of HFT market share was found. It was found that the market is less eficiente when higher frequencies are analyzed, and that the efficiency gains are more pronounced for higher frequencies. The last results strengthen the perception that the efficiency gains are directly related to high-frequency trading, given its characteristc of exploring price inefficiencies that last fractions of seconds. The capital market in this high frequency era and the impacts of HFT on market efficiency were described in this study
|
524 |
Instabilidade na credibilidade do Banco Central Brasileiro: avaliação por meio de dados de alta frequênciaRabello, Fernando Cruz 18 July 2012 (has links)
Submitted by Fernando Rabello (rabello10@yahoo.com) on 2012-06-29T20:57:54Z
No. of bitstreams: 1
DissertacaoFCR.pdf: 757571 bytes, checksum: 7416c6a22d0dc719c446285041168d31 (MD5) / Approved for entry into archive by Vera Lúcia Mourão (vera.mourao@fgv.br) on 2012-06-29T21:07:03Z (GMT) No. of bitstreams: 1
DissertacaoFCR.pdf: 757571 bytes, checksum: 7416c6a22d0dc719c446285041168d31 (MD5) / Made available in DSpace on 2012-06-29T22:35:46Z (GMT). No. of bitstreams: 1
DissertacaoFCR.pdf: 757571 bytes, checksum: 7416c6a22d0dc719c446285041168d31 (MD5)
Previous issue date: 2012-07-18 / The incipient rise in future inflation expectations combined with the Brazilian government pursue of lower nominal rates and the higher degree of intervention via conventional and unconventional actions in the economic policy management might have damaged the market’s perceptions of the Central Bank’s credibility even thought traditional credibility indicators still doesn’t show this. This work infers that the asset’s response to macroeconomics announcements provide information about market’s perception of the central bank credibility, using a high frequency data base to calculate asset’s responses and running the quasi-local level test (QLL) to evaluate if there was any instability that would indicate a change in the perception of credibility. The data analyzed from 2006 to 2011 shows no persistent time variation and therefore this work concludes that if there was any change positive or negative in the market’s perception of the Brazilian Central Bank credibility, the change was not identifiable by the proposed method. / A incipiente alta nas expectativas de inflação futura combinada com a busca do governo por juros nominais mais baixos e o maior intervencionismo via medidas convencionais e não convencionais na gestão da política econômica, pode ter deteriorado a percepção dos agentes de mercado quanto à credibilidade da Autoridade Monetária, mesmo que indicadores tradicionais de credibilidade ainda não mostrem isso. Este trabalho intui que a resposta de ativos à divulgação de dados macroeconômicos apresenta informações sobre a percepção do mercado da credibilidade do Banco Central, utilizando, então, uma base de dados de alta frequência para medir as respostas dos ativos e empregando o teste econométrico quasi-local level (QLL), busca avaliar se houve alguma instabilidade nos coeficientes de respostas que indique uma variação na percepção ao longo do tempo. A série de dados analisada compreende o período de 2006 a 2011 e o trabalho conclui que não houve variação nos coeficientes e, portanto, se houve alguma mudança positiva ou negativa na percepção de credibilidade, esta não pode ser inferida pelo método proposto.
|
525 |
Formador de mercado e seu impacto nos custos de transação no mercado de ações brasileiroAntoniazzi, Helder Ulisses 21 August 2013 (has links)
Submitted by Helder Antoniazzi (helderua@gmail.com) on 2013-09-11T00:46:59Z
No. of bitstreams: 1
Dissertacao 10-set-13.pdf: 970680 bytes, checksum: 19edacf9a47e77bc9b873b8e4fac35ed (MD5) / Approved for entry into archive by Suzinei Teles Garcia Garcia (suzinei.garcia@fgv.br) on 2013-09-11T13:35:54Z (GMT) No. of bitstreams: 1
Dissertacao 10-set-13.pdf: 970680 bytes, checksum: 19edacf9a47e77bc9b873b8e4fac35ed (MD5) / Made available in DSpace on 2013-09-11T13:49:22Z (GMT). No. of bitstreams: 1
Dissertacao 10-set-13.pdf: 970680 bytes, checksum: 19edacf9a47e77bc9b873b8e4fac35ed (MD5)
Previous issue date: 2013-08-21 / The present study analyzes the influence of share's market makers on liquidity, validating a proxy that is able to measure transactions costs into secondary market. Since 1984, important papers face the challenge of measuring liquidity and recently a general review was done to compare different measures, finding the most accurate ones. This article intends to revisit these measures and select a metric most suitable to Brazilian market. Once the proxy is chosen, will be then evaluated the relevance of the market maker in determining transaction costs through a modified version of econometric equation from Sanvicente (2012). Lastly, the great contribution of the article is to identify whether the companies should hire a market maker for their stocks, in order to reduce the costs of trading in its shares. / O trabalho tem por objetivo validar a influência dos formadores de mercado de ações sobre a liquidez, uma proxy capaz de medir os custos de transação no mercado secundário de ações. O desafio de medir corretamente a liquidez teve trabalhos relevantes desde 1984, e recentemente foi alvo de uma revisão geral que comparou diversas medidas e encontrou alguns ganhadores. A proposta do presente trabalho é a de revisitar estas medidas e selecionar a métrica mais adequada ao mercado Brasileiro. Escolhida a proxy mais significativa, será então avaliada a relevância do formador de mercado na determinação dos custos de transação por meio de uma versão modificada da equação econométrica de Sanvicente (2012). Por fim, este trabalho será relevante para identificar se as empresas devem contratar formadores de mercado para suas ações, com o fim de reduzirem os custos da negociação de suas ações.
|
526 |
Modelos arch heterogêneos e aplicações à análise de dados de alta freqüência / heterogeneous ARCH models and applications to analyse high frequency datas.Juan Carlos Ruilova Teran 26 April 2007 (has links)
Neste trabalho estudamos diferentes variantes dos modelos GARCH quando consideramos a chegada da informação heterogênea sob a forma de dados de alta freqüência. Este tipo de modelos, conhecidos como HARCH(n), foram introduzidos por Muller et al. (1997). Para entender a necessidade de incorporar esta característica da heterogeneidade da informação, estudamos o problema da agregação temporal para processos GARCH e a modelagem destes em dados de alta freqüência e veremos quais são as desvantagens destes modelos e o porquê da necessidade de corrigi-lo. Propusemos um novo modelo que leva em conta a heterogeneidade da informação do mercado financeiro e a memória longa da volatilidade, generalizando assim o modelo proposto por Müller et al.(1997), e estudamos algumas das propriedades teóricas do modelo proposto. Utilizamos estimação via máxima verossimilhança e amostrador de Griddy-Gibbs, e para avaliar o desempenho destes métodos realizamos diversas simulações. Também fizemos aplicações a duas séries de alta freqüência, a taxa de câmbio Euro- Dólar e o índice Ibovespa. Uma modificação ao algoritmo de Griddy-Gibbs foi proposta, para ter uma janela móvel de pontos, para a estimação das distribuições condicionais, a cada iteração. Este procedimento foi validado pela proximidade das estimações com a técnica de máxima verossimilhança. Disponibilizaremos algumas bibliotecas para o pacote S-Plus em que as análises descritas neste trabalho poderão ser reproduzidas. Informações relativas a tais bibliotecas estarão disponíveis na página Web http://www.ime.usp.br/~ruilova. / In this work we study different variants of GARCH models to analyze the arrival of heterogeneous information in high frequency data. These models, known as HARCH(*n*) models, were introduced by Müller et al.(1997). To understand the necessity to incorporate this characteristic, heterogeneous information, we study temporal aggregation on GARCH processes for high frequency data, and show some problems in the application of these models and the reason why it is necessary to develop new models. We propose a new model, that incorporates the heterogeneous information present in the financial market and the long memory of the volatility, generalizing the model considered by Müller et al.(1997). We propose to estimate the model via maximum likelihood and Griddy-Gibbs sampler. To assess the performance of the suggested estimation procedures we perform some simulations and apply the methodology to two time series, namely the foreign exchange rate Euro-Dollar and the series of the Ibovespa index. A modification of the algorithm of Griddy-Gibbs sampler was proposed to have a grid of points in a mobile window, to estimate the condicional distributions, in each iteration. This was validated by the similar results between maximum likelihood and Griddy-Gibbs sampler estimates obtained. We implemented the methods described in this work creating some libraries for the SPlus package. Information concerning these libraries is available in the Web page http://www.ime.usp.br/~ruilova.
|
527 |
Effets de rétroaction en finance : applications à l'exécution optimaleet aux modèles de volatilité / Feedback effects in finance : applications to optimal execution and volatility modelingBlanc, Pierre 09 October 2015 (has links)
Dans cette thèse, nous considérons deux types d'application des effets de rétroaction en finance. Ces effets entrent en jeu quand des participants de marché exécutent des séquences de transactions ou prennent part à des réactions en chaîne, ce qui engendre des pics d'activité. La première partie présente un modèle d'exécution optimale dynamique en présence d'un flux stochastique et exogène d'ordres de marché. Nous partons du modèle de référence d'Obizheva et Wang, qui définit un cadre d'exécution optimale avec un impact de prix mixte. Nous y ajoutons un flux d'ordres modélisé à l'aide de processus de Hawkes, qui sont des processus à sauts présentant une propriété d'auto-excitation. A l'aide de la théorie du contrôle stochastique, nous déterminons la stratégie optimale de manière analytique. Puis nous déterminons les conditions d'existence de Stratégies de Manipulation de Prix, telles qu'introduites par Huberman et Stanzl. Ces stratégies peuvent être exclues si l'auto-excitation du flux d'ordres se compense exactement avec la résilience du prix. Dans un deuxième temps, nous proposons une méthode de calibration du modèle, que nous appliquons sur des données financières à haute fréquence issues de cours d'actions du CAC40. Sur ces données, nous trouvons que le modèle explique une partie non-négligeable de la variance des prix. Une évaluation de la stratégie optimale en backtest montre que celle-ci est profitable en moyenne, mais que des coûts de transaction réalistes suffisent à empêcher les manipulations de prix. Ensuite, dans la deuxième partie de la thèse, nous nous intéressons à la modélisation de la volatilité intra-journalière. Dans la littérature, la plupart des modèles de volatilité rétroactive se concentrent sur l'échelle de temps journalière, c'est-à-dire aux variations de prix d'un jour sur l'autre. L'objectif est ici d'étendre ce type d'approche à des échelles de temps plus courtes. Nous présentons d'abord un modèle de type ARCH ayant la particularité de prendre en compte séparément les contributions des rendements passés intra-journaliers et nocturnes. Une méthode de calibration de ce modèle est étudiée, ainsi qu'une interprétation qualitative des résultats sur des rendements d'actions américaines et européennes. Dans le chapitre suivant, nous réduisons encore l'échelle de temps considérée. Nous étudions un modèle de volatilité à haute fréquence, dont l'idée est de généraliser le cadre des processus Hawkes pour mieux reproduire certaines caractéristiques empiriques des marchés. Notamment, en introduisant des effets de rétroaction quadratiques inspirés du modèle à temps discret QARCH nous obtenons une distribution en loi puissance pour la volatilité ainsi que de l'asymétrie temporelle / In this thesis we study feedback effects in finance and we focus on two of their applications. These effects stem from the fact that traders split meta-orders sequentially, and also from feedback loops. Therefore, one can observe clusters of activity and periods of relative calm. The first part introduces an dynamic optimal execution framework with an exogenous stochastic flow of market orders. Our starting point is the well-known model of Obizheva and Wang which defines an execution framework with both permanent and transient price impacts. We modify the price model by adding an order flow based on Hawkes processes, which are self-exciting jump processes. The theory of stochastic control allows us to derive the optimal strategy as a closed formula. Also, we discuss the existence of Price Manipulations Strategies in the sense of Huberman and Stanzl which can be excluded from the model if the self-exciting property of the order flow exactly compensates the resilience of the price. The next chapter studies a calibration protocol for the model, which we apply to tick-by-tick data from CAC40 stocks. On this dataset, the model is found to explain a significant part of the variance of prices. We then evaluate the optimal strategy with a series of backtests, which show that it is profitable on average, although realistic transaction costs can prevent manipulation strategies. In the second part of the thesis, we turn to intra-day volatility modeling. Previous works from the volatility feedback literature mainly focus on the daily time scale, i.e. on close-to-close returns. Our goal is to use a similar approach on shorter time scales. We first present an ARCH-type model which accounts for the contributions of past intra-day and overnight returns separately. A calibration method for the model is considered, that we use on US and European stocks, and we provide some qualitative insights on the results. The last chapter of the thesis is dedicated to a high-frequency volatility model. We introduce a continuous-time analogue of the QARCH framework, which is also a generalization of Hawkes processes. This new model reproduces several important stylized facts, in particular it generates a time-asymmetric and fat-tailed volatility process
|
528 |
Commande sans capteur des moteurs synchrones à aimants permanents par injection de signaux / Sensorless control of synchronous permanent magnet motors by signal injectionJebai, Al Kassem 15 March 2013 (has links)
Cette thèse étudie la problématique du fonctionnement sans capteur et à basse vitesse des moteurs synchrones à aimant permanent par l'injection des signaux. Nous nous focalisons sur les effets de la saturation magnétique car leur compensation est primordiale pour résoudre cette problématique. Nous proposons une méthode originale pour modéliser la saturation magnétique en utilisant une approche énergétique (les formulations Lagrangienne et Hamiltonienne), où les symétries physiques sont exploitées pour simplifier l'expression de l'énergie magnétique. Les données expérimentales montrent qu'un polynôme de degré 4 est suffisant pour décrire avec précision les effets de la saturation. Ensuite, nous proposons une analyse claire et originale basée sur la moyennisation de second ordre et qui explique comment obtenir l'information de position à partir de l'injection des signaux (en utilisant le modèle proposé). Nous donnons une relation explicite entre les oscillations des courants statoriques et la position du rotor; cette relation est utilisée en temps réel. Ce modèle de saturation magnétique ainsi que la procédure d'estimation de position ont été testés et validés sur deux types de moteurs : avec des aimants permanents à l'intérieur ou sur la surface du rotor. Les résultats expérimentaux obtenus sur un banc de test montrent que les erreurs d'estimation de la position du rotor n'excèdent pas quelques degrés électriques dans la zone d'opération à basse vitesse. / This thesis addresses the problematic of sensorless low speed operation of permanent magnet synchronous motors (PMSM) by signal injection. We focus on the effects of magnetic and cross saturations because their compensation is paramount to solve this problematic. We propose an original way of modeling magnetic saturation using an energy approach (Lagrangian and Hamiltonian formulations), where the physical symmetries are exploited to simplify the expression of the magnetic energy. Experimental data show that a simple polynomial of degree 4 is sufficient to describe accurately magnetic saturation effects. Then we propose a clear and original analysis based on second-order averaging of how to recover the position information from signal injection (using the proposed model). We give an explicit relation between stator current ripples and rotor position; this relation is used in real time operation. Such magnetic saturation model and the resulting position estimates were tested and validated on two types of motors: with interior and surface permanent magnets (IPM and SPM). Experimental results obtained on a test bench show that estimation errors of the rotor position do not exceed few electrical degrees in the low speed operating domain.
|
529 |
Modelagem e simulação computacional de transformadores de potência para estudo de transitórios em altas frequências / Modeling and computational simulation of power transformers for high-frequency transients studiesWickert, Humberto Margel 18 August 2016 (has links)
This paper presents a proposed the modeling of power transformers for high-frequency electromagnetic transients. The application of this model allows the evaluation of the windings behavior against the voltage surges imposed by the electric power system. Besides the model, the required calculations to determine the concentrated and distributed parameters which define the representative circuit are detailed. The calculations were performed for a 25 MVA power transformer, using the data obtained from a technical audit between both client and manufacturer, known as design review. The representation of the equipment for the simulation is realized through a descriptive language, known as netlist. The impossibility of measuring the voltage along the power transformer windings subjected to voltage surges has motivated the development of the proposed model and computer simulation. Aiming to evaluate the potentialities of the developed model, the simulations for the power transformer were performed focusing on the determination of the lightning impulse transient voltage distribution along the windings and fully evaluating the obtained results. Alterations of the studied transformer s project were also addressed, considering the windings traditionally used by the manufacturers. A qualitative comparison between the responses of both power transformers is also presented. / Este trabalho apresenta uma proposta de modelagem de um transformador de potência para transitórios eletromagnéticos em altas frequências. O emprego deste modelo possibilita avaliar o comportamento dos enrolamentos frente aos surtos de tensão resultantes de transitórios no sistema elétrico de potência. Além do modelo, são detalhados os cálculos necessários para a determinação dos parâmetros distribuídos e concentrados que definirão o circuito representativo do modelo. Os cálculos foram realizados para um transformador de potência de 25 MVA, a partir dos dados obtidos de uma auditoria técnica entre cliente e fabricante, também conhecida como design review. A representação do modelo do equipamento para a simulação é realizada através de uma linguagem descritiva, netlist. A impossibilidade de medições de tensão ao longo dos enrolamentos do transformador, submetidos a surtos de tensão, motivaram o desenvolvimento do modelo proposto e a sua validação via simulação computacional. Com o objetivo de avaliar as potencialidades do modelo desenvolvido realizaram-se simulações enfatizando a determinação da distribuição das tensões transitórias de impulso atmosférico ao longo dos enrolamentos do transformador, sendo estes resultados avaliados detalhadamente. Também foram abordadas alterações no projeto do transformador estudado, considerando enrolamentos tradicionalmente utilizados pelos fabricantes. É apresentada uma comparação qualitativa entre a resposta do transformador projetado e os estudos de modificação de projeto.
|
530 |
Military aviation noise:noise-induced hearing impairment and noise protectionKuronen, P. (Pentti) 03 September 2004 (has links)
Abstract
This research on military aviation noise was conducted because the
personnel working with military aircraft were concerned about noise
induced hearing damage. In addition, comprehensive data on hearing
impairments and occupational exposure of military pilots in the Finnish
Air Force was not available. Moreover, data on the effects of overflight
noise of military jets was necessary for the evaluation of noise induced
hearing deteriorations of members of the public who might be exposured
accidentally for the low-level jets' overflights.
The averaged noise exposure levels of pilots varied during a
flight from 97 dB(A) to 106 dB(A) in the cockpit and from 83 dB(A) to
100 dB(A) at the entrance of the ear canal. Radio noise was 4–10
dB higher than background noise inside the helmet. The attenuation
provided by air crew helmets varied from10 to 21 dB(A) in the
laboratory, and was at the same level during real flights. The
attenuation measured in the laboratory and in working conditions was
about 30 dB(A) for earmuffs. An active noise cancellation (ANC) device
decreased averaged noise exposure (LAeq8min)
4–8
dB over the noise attenuation of the same helmets when the ANC system
was off.
The noise of overflights by military jets were measured and the
noise levels were lower than those known to cause the permanent
threshold shifts. However, noise induced hearing damages might be
possible in certain conditions.
In order to assess the hearing loss risk of pilots, hearing
thresholds were measured before and after one flight using both
conventional and extended high frequency (EHF) audiometry. Minor
temporary threshold shifts (TTS) were revealed. The risk of
noise-induced damage at the studied exposure levels is, in all
probability, rather small.
A novel NoiseScan data management system proved to be an
interesting tool in assessment of the risk of developing hearing
impairment on the basis of known risk factors. Due to the small number
of risk factors, the hearing of pilots was shown to be at considerably
less risk than that of industrial workers in Finland.
|
Page generated in 0.0706 seconds