• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 684
  • 252
  • 79
  • 57
  • 42
  • 37
  • 30
  • 26
  • 25
  • 14
  • 9
  • 8
  • 7
  • 7
  • 7
  • Tagged with
  • 1504
  • 1030
  • 249
  • 238
  • 223
  • 215
  • 195
  • 185
  • 167
  • 163
  • 151
  • 124
  • 123
  • 122
  • 111
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1371

Flexible public private partnerships : a real-option-based optimization approach / Partenariats publics privés flexibles : une approche d'optimisation par les options réelles

Ben Jazia, Abderrahim 22 September 2017 (has links)
Les Partenariats Publics Privés (PPPs) peuvent être un outil efficace pour optimiser et moderniser la commande publique dans un contexte où les besoins en investissement public ne cessent d’accroître. Les fréquences importantes de renégociation et les difficultés à estimer correctement les revenus futurs demeurent un défi majeur lors de la structuration financière des PPPs. Ce travail propose d’incorporer des clauses financières flexibles afin de remédier à ce problème. L’approche développée se base sur les théories d’options réelles et d’optimisation multi-objectif. Dans un premier temps, une méthodologie adéquate pour la gestion des risques est développée. La volatilité du projet est déterminée par le biais de la simulation de Monte Carlo et un déflateur stochastique est introduit afin de conduire les différentes valorisations d’options sous la probabilité historique. Ce travail développe dans un second temps, quatre formes de flexibilité qui permettent de réajuster l'équilibre financier du projet, si le revenu est insuffisant. Enfin une approche d’optimisation multi-objectif est développée afin de permettre de visualiser les différents compromis auxquels l’introduction de la flexibilité donne lieu. / Public private partnerships can be a solution to the dilemma of how to do more with less available funds that public entities are constantly financing in the last decades. If implemented properly, Public Private Partnerships can contribute to the modernization of public service provision and can constitute efficient vehicles for the delivery of optimal value for money. The high incidence of renegotiation as well as the difficulty of accurately predicting the future demand on the projects is a matter of concern when it comes to the financial structuring of Public Private Partnerships. This work proposes a real-option- based optimization framework to boost the financial viability of the projects. This is done by introducing flexible financial clauses. First, an adequate framework for risk management, where volatility is derived by Monte Carlo simulation and the valuation is made without switching to the risk neutral measure, is presented. Four families of flexible clauses are, afterwards, investigated. Such clauses are triggerred, if the revenue level of the projet is not sufficient to guarnatee its financiel viability. Finally, this work develops a multi-objective optimization approach in order to assess the different trade-offs that the introduction of flexibility leads to. The proposed optimization problem is solved via multi-objective evolutionary algorithms.
1372

Méthodes itératives de reconstruction tomographique pour la réduction des artefacts métalliques et de la dose en imagerie dentaire / Iterative reconstruction methods for the reduction of metal artifact and dose in dental CT

Chen, Long 05 February 2015 (has links)
Cette thèse est constituée de deux principaux axes de recherche portant sur l'imagerie dentaire par la tomographie à rayons X : le développement de nouvelles méthodes itératives de reconstruction tomographique afin de réduire les artefacts métalliques et la réduction de la dose délivrée au patient. Afin de réduire les artefacts métalliques, nous prendrons en compte le durcissement du spectre des faisceaux de rayons X et le rayonnement diffusé. La réduction de la dose est abordée dans cette thèse en diminuant le nombre des projections traitées. La tomographie par rayons X a pour objectif de reconstruire la cartographie des coefficients d'atténuations d'un objet inconnu de façon non destructive. Les bases mathématiques de la tomographie repose sur la transformée de Radon et son inversion. Néanmoins des artefacts métalliques apparaissent dans les images reconstruites en inversant la transformée de Radon (la méthode de rétro-projection filtrée), un certain nombre d'hypothèse faites dans cette approche ne sont pas vérifiées. En effet, la présence de métaux exacerbe les phénomènes de durcissement de spectre et l'absence de prise en compte du rayonnement diffusé. Nous nous intéressons dans cette thèse aux méthodes itératives issues d'une méthodologie Bayésienne. Afin d'obtenir des résultats de traitement compatible avec une application clinique de nos nouvelles approches, nous avons choisi un modèle direct relativement simple et classique (linéaire) associé à des approches de corrections de données. De plus, nous avons pris en compte l'incertitude liée à la correction des données en utilisant la minimisation d'un critère de moindres carrés pondérés. Nous proposons donc une nouvelle méthode de correction du durcissement du métal sans connaissances du spectre de la source et des coefficients d'atténuation des matériaux. Nous proposons également une nouvelle méthode de correction du diffusé associée sur les mesures sous certaines conditions notamment de faible dose. En imagerie médicale par tomographie à rayons X, la surexposition ou exposition non nécessaire irradiante augmente le risque de cancer radio-induit lors d'un examen du patient. Notre deuxième axe de recherche porte donc sur la réduction de la dose en diminuant le nombre de projections. Nous avons donc introduit un nouveau mode d'acquisition possédant un échantillonnage angulaire adaptatif. On utilise pour définir cette acquisition notre connaissance a priori de l'objet. Ce mode d'acquisition associé à un algorithme de reconstruction dédié, nous permet de réduire le nombre de projections tout en obtenant une qualité de reconstruction comparable au mode d'acquisition classique. Enfin, dans certains modes d’acquisition des scanners dentaires, nous avons un détecteur qui n'arrive pas à couvrir l'ensemble de l'objet. Pour s'affranchir aux problèmes liés à la tomographie locale qui se pose alors, nous utilisons des acquisitions multiples suivant des trajectoires circulaires. Nous avons adaptés les résultats développés par l’approche « super short scan » [Noo et al 2003] à cette trajectoire très particulière et au fait que le détecteur mesure uniquement des projections tronquées. Nous avons évalué nos méthodes de réduction des artefacts métalliques et de réduction de la dose en diminuant le nombre des projections sur les données réelles. Grâce à nos méthodes de réduction des artefacts métalliques, l'amélioration de qualité des images est indéniable et il n'y a pas d'introduction de nouveaux artefacts en comparant avec la méthode de l'état de l'art NMAR [Meyer et al 2010]. Par ailleurs, nous avons réussi à réduire le nombre des projections avec notre nouveau mode d'acquisition basé sur un « super short scan » appliqué à des trajectoires multiples. La qualité obtenue est comparable aux reconstructions obtenues avec les modes d'acquisition classiques ou short-scan mais avec une réduction d’au moins 20% de la dose radioactive. / This thesis contains two main themes: development of new iterative approaches for metal artifact reduction (MAR) and dose reduction in dental CT (Computed Tomography). The metal artifacts are mainly due to the beam-hardening, scatter and photon starvation in case of metal in contrast background like metallic dental implants in teeth. The first issue concerns about data correction on account of these effects. The second one involves the radiation dose reduction delivered to a patient by decreasing the number of projections. At first, the polychromatic spectra of X-ray beam and scatter can be modeled by a non-linear direct modeling in the statistical methods for the purpose of the metal artifacts reduction. However, the reconstruction by statistical methods is too much time consuming. Consequently, we proposed an iterative algorithm with a linear direct modeling based on data correction (beam-hardening and scatter). We introduced a new beam-hardening correction without knowledge of the spectra of X-ray source and the linear attenuation coefficients of the materials and a new scatter estimation method based on the measurements as well. Later, we continued to study the iterative approaches of dose reduction since the over-exposition or unnecessary exposition of irradiation during a CT scan has been increasing the patient's risk of radio-induced cancer. In practice, it may be useful that one can reconstruct an object larger than the field of view of scanner. We proposed an iterative algorithm on super-short-scans on multiple scans in this case, which contain a minimal set of the projections for an optimal dose. Furthermore, we introduced a new scanning mode of variant angular sampling to reduce the number of projections on a single scan. This was adapted to the properties and predefined interesting regions of the scanned object. It needed fewer projections than the standard scanning mode of uniform angular sampling to reconstruct the objet. All of our approaches for MAR and dose reduction have been evaluated on real data. Thanks to our MAR methods, the quality of reconstructed images was improved noticeably. Besides, it did not introduce some new artifacts compared to the MAR method of state of art NMAR [Meyer et al 2010]. We could reduce obviously the number of projections with the proposed new scanning mode and schema of super-short-scans on multiple scans in particular case.
1373

Índice de não-detecção de erros grosseiros no processo de estimação de estado em sistemas elétricos de potência / Undetectability index of gross errors in power systems state estimation

Benedito, Raphael Augusto de Souza 03 June 2011 (has links)
A partir de uma análise geométrica, do estimador de estado por mínimos quadrados ponderados, propõe-se, neste trabalho, um índice para classificação das medidas de acordo com as suas características de não refletirem grande parcela de seus erros nos resíduos do processo de estimação de estado, por mínimos quadrados ponderados. O índice proposto foi denominado Índice de Não-Detecção de Erros, ou apenas UI (Undetectability Index). As medidas com maiores UI são aquelas cujos erros grosseiros (EGs) são mais difíceis de serem detectados através de métodos que fazem uso da análise dos resíduos. Isto porque os erros dessas medidas são, de certa forma, \"mascarados\", isto é, não são refletidos nos resíduos das mesmas. Nesse sentido, a medida crítica é o caso limite de medidas cujos erros são mascarados, isto é, possui UI infinito e seu resíduo é igual a zero, independente de a mesma ter ou não EG. Para obtenção dos índices UI das medidas, desenvolveu-se um algoritmo simples e de fácil implementação. Tomando por base o índice UI, propõe-se, também, uma metodologia para processamento de EGs e dois algoritmos para projeto ou fortalecimento de sistemas de medição. Esses algoritmos possibilitam a obtenção de sistemas de medição confiáveis (observáveis e isentos de medidas críticas e de conjuntos críticas de medidas), de baixo custo e formados por medidas com índices UI menores que um valor pré-estabelecido. Para validar o índice UI e as suas aplicações propostas neste trabalho, realizaram-se diversas simulações computacionais nos sistemas de 14 e 30 barras do IEEE, tendo sido satisfatórios todos os resultados obtidos. / The present thesis proposes an index, called Undetectability Index (UI), to classify the measurements according to their characteristics of not reflecting their errors into the residuals of the weighted least squares state estimation process from a geometric analysis of this estimator. Gross errors in measurements with higher UIs are very difficult to be detected by methods based on the residual analysis, as the errors in those measurements are \"masked\", i.e., they are not reflected in the residuals. In this sense, critical measurements are the limit case of measurements that mask errors, that is, they have infinite UI and their residuals are always zero independently of their having or not gross errors. Based on the UI a methodology for gross error processing and two algorithms for metering system planning are also proposed in this thesis. These algorithms enable the obtaining of reliable measurement systems (observable and free from critical measurements and critical sets of measurements) with low investment and containing only measurements with UIs lower than a pre-established value. Several simulation results (with IEEE 14-bus and 30-bus systems) have validated the UI and its application.
1374

Ensemble baseado em métodos de Kernel para reconhecimento biométrico multimodal / Ensemble Based on Kernel Methods for Multimodal Biometric Recognition

Costa, Daniel Moura Martins da 31 March 2016 (has links)
Com o avanço da tecnologia, as estratégias tradicionais para identificação de pessoas se tornaram mais suscetíveis a falhas, de forma a superar essas dificuldades algumas abordagens vêm sendo propostas na literatura. Dentre estas abordagens destaca-se a Biometria. O campo da Biometria abarca uma grande variedade de tecnologias usadas para identificar e verificar a identidade de uma pessoa por meio da mensuração e análise de aspectos físicos e/ou comportamentais do ser humano. Em função disso, a biometria tem um amplo campo de aplicações em sistemas que exigem uma identificação segura de seus usuários. Os sistemas biométricos mais populares são baseados em reconhecimento facial ou de impressões digitais. Entretanto, existem outros sistemas biométricos que utilizam a íris, varredura de retina, voz, geometria da mão e termogramas faciais. Nos últimos anos, o reconhecimento biométrico obteve avanços na sua confiabilidade e precisão, com algumas modalidades biométricas oferecendo bom desempenho global. No entanto, mesmo os sistemas biométricos mais avançados ainda enfrentam problemas. Recentemente, esforços têm sido realizados visando empregar diversas modalidades biométricas de forma a tornar o processo de identificação menos vulnerável a ataques. Biometria multimodal é uma abordagem relativamente nova para representação de conhecimento biométrico que visa consolidar múltiplas modalidades biométricas. A multimodalidade é baseada no conceito de que informações obtidas a partir de diferentes modalidades se complementam. Consequentemente, uma combinação adequada dessas informações pode ser mais útil que o uso de informações obtidas a partir de qualquer uma das modalidades individualmente. As principais questões envolvidas na construção de um sistema biométrico unimodal dizem respeito à definição das técnicas de extração de característica e do classificador. Já no caso de um sistema biométrico multimodal, além destas questões, é necessário definir o nível de fusão e a estratégia de fusão a ser adotada. O objetivo desta dissertação é investigar o emprego de ensemble para fusão das modalidades biométricas, considerando diferentes estratégias de fusão, lançando-se mão de técnicas avançadas de processamento de imagens (tais como transformada Wavelet, Contourlet e Curvelet) e Aprendizado de Máquina. Em especial, dar-se-á ênfase ao estudo de diferentes tipos de máquinas de aprendizado baseadas em métodos de Kernel e sua organização em arranjos de ensemble, tendo em vista a identificação biométrica baseada em face e íris. Os resultados obtidos mostraram que a abordagem proposta é capaz de projetar um sistema biométrico multimodal com taxa de reconhecimento superior as obtidas pelo sistema biométrico unimodal. / With the advancement of technology, traditional strategies for identifying people become more susceptible to failure, in order to overcome these difficulties some approaches have been proposed in the literature. Among these approaches highlights the Biometrics. The field of Biometrics encompasses a wide variety of technologies used to identify and verify the person\'s identity through the measurement and analysis of physiological and behavioural aspects of the human body. As a result, biometrics has a wide field of applications in systems that require precise identification of their users. The most popular biometric systems are based on face recognition and fingerprint matching. Furthermore, there are other biometric systems that utilize iris and retinal scan, speech, face, and hand geometry. In recent years, biometrics authentication has seen improvements in reliability and accuracy, with some of the modalities offering good performance. However, even the best biometric modality is facing problems. Recently, big efforts have been undertaken aiming to employ multiple biometric modalities in order to make the authentication process less vulnerable to attacks. Multimodal biometrics is a relatively new approach to biometrics representation that consolidate multiple biometric modalities. Multimodality is based on the concept that the information obtained from different modalities complement each other. Consequently, an appropriate combination of such information can be more useful than using information from single modalities alone. The main issues involved in building a unimodal biometric System concern the definition of the feature extraction technique and type of classifier. In the case of a multimodal biometric System, in addition to these issues, it is necessary to define the level of fusion and fusion strategy to be adopted. The aim of this dissertation is to investigate the use of committee machines to fuse multiple biometric modalities, considering different fusion strategies, taking into account advanced methods in machine learning. In particular, it will give emphasis to the analyses of different types of machine learning methods based on Kernel and its organization into arrangements committee machines, aiming biometric authentication based on face, fingerprint and iris. The results showed that the proposed approach is capable of designing a multimodal biometric System with recognition rate than those obtained by the unimodal biometrics Systems.
1375

Relações estrutura-retenção de flavonóides por cromatografia a líquido em membranas imobilizadas artificialmente / Structure retention relationships of flavonoids by liquid chromatography using immobilized artificial membranes

Santoro, Adriana Leandra 24 August 2007 (has links)
Para um composto químico exercer seu efeito bioativo é necessário que ele atravesse várias barreiras biológicas até alcançar seu sitio de ação. Propriedades farmacocinéticas insatisfatórias (como absorção, distribuição, metabolismo e excreção) são reconhecidamente as principais causas na descontinuidade de pesquisas na busca por novos fármacos. Neste trabalho, modelos biofísicos foram utilizados para o estudo de absorção de uma série de flavonóides naturais com atividade tripanossomicida. O coeficiente cromatográfico de partição, kw, foi determinado através da cromatografia líquida de alta eficiência em fase reversa, RP-HPLC, utilizando-se de colunas cromatográficas empacotadas com constituintes básicos da membrana biológica (fosfatidilcolina e colesterol). Os resultados obtidos demonstraram que nas colunas compostas por fosfatidilcolina a retenção de flavonóides hidroxilados é determinada por interações secundárias, além da partição, e no caso da coluna de colesterol, a partição é o principal mecanismo que rege a retenção. Uma série de descritores físico-químicos foi gerada pelos campos moleculares de interações (MIFs) entre os flavonóides naturais e algumas sondas químicas virtuais, utilizando o programa GRID. Os descritores físico-químicos gerados foram correlacionados com os log kw por análise dos mínimos múltiplos parciais (PLS), utilizando o programa VolSurf, com a finalidade de gerar um modelo quantitativo entre estrutura e propriedade (QSPR) para esta classe de compostos. O modelo produzido por este estudo, ao utilizar os dados de partição em colesterol, log kwCol, apresentou elevada consistência interna, com bom poder de correlação (R2 = 0, 97) e predição (Q2 = 0,86) para a partição destas moléculas / In order to a chemical compound exert its bioactive effect it is necessary that it crosses some biological barriers until reaching its site of action. Unfavorable pharmacokinetics properties (absorption, distribution, metabolism and excretion) are admittedly one of the main causes in the discontinuity of research in the search for new drugs. In this work, biophysics models were used for the study of absorption of a series of natural flavonoids with trypanocide activity. The chromatographic retention indices (log kw) were determined on immobilized artificial membranes columns (IAM.PC.DD, IAM.PC.DD2, Cholesteryl 10-Undecetonoato) obtained by the extrapolation method. The results demonstrated that in the composed columns for fosfatidilcolina the retention of hydroxil flavonoids is determined by secondary interactions, beyond the partition. In the case of the retention for the cholesterol column, the partition is the main mechanism that drives the retention. A series of physico-chemical descriptors were generated by the molecular interaction fields (MIF) between the flavonoids and some virtual chemical probes, using the program GRID. The descriptors were correlated with log kw by the partial least squares regression (PLS), using the VolSurf program, with the purpose to generate a quantitative model between the structure and the retention (QSRR) for this compounds class. The model produced for this study, when using the data of partition in cholesterol, log kwCol, presented high internal consistency, with good correlation power (R2 = 0, 97) and prediction (Q2 = 0,86) for the partition of these molecules
1376

Processamento de erros grosseiros através do índice de não-detecção de erros e dos resíduos normalizados / Bad data processing through the undetectability index and the normalized residuals

Vieira, Camila Silva 20 October 2017 (has links)
Esta dissertação trata do problema de processamento de Erros Grosseiros (EGs) com base na aplicação do chamado Índice de Não-Detecção de Erros, ou apenas UI (Undetectability Index), na análise dos resíduos do estimador de estado por mínimos quadrados ponderados. O índice UI foi desenvolvido recentemente e possibilita a classificação das medidas de acordo com as suas características de não refletirem grande parcela de seus erros nos resíduos daquele estimador. As medidas com maiores UIs são aquelas cujos erros são mais difíceis de serem detectados através de métodos que fazem uso da análise dos resíduos, pois grande parcela do erro dessas medidas não aparece no resíduo. Inicialmente demonstrou-se, nesta dissertação, que erros das estimativas das variáveis de estado em um sistema com EG não-detectável (em uma medida de alto índice UI) podem ser mais significativos que em medidas com EGs detectáveis (em medidas com índices UIs baixos). Justificando, dessa forma, a importância de estudos para tornar possível o processamento de EGs em medidas com alto índice UI. Realizou-se, então, nesta dissertação, diversas simulações computacionais buscando analisar a influência de diferentes ponderações de medidas no UI e também nos erros das estimativas das variáveis de estado. Encontrou-se, então, uma maneira que destacou-se como a mais adequada para ponderação das medidas. Por fim, ampliaram-se, nesta dissertação, as pesquisas referentes ao UI para um estimador de estado por mínimos quadrados ponderados híbrido. / This dissertation deals with the problem of Gross Errors processing based on the use of the so-called Undetectability Index, or just UI. This index was developed recently and it is capable to classify the measurements according to their characteristics of not reflecting their errors into the residuals of the weighted least squares state estimation process. Gross errors in measurements with higher UIs are very difficult to be detected by methods based on the residual analysis, as the errors in those measurements are masked, i.e., they are not reflected in the residuals. Initially, this dissertation demonstrates that a non-detectable gross error (error in a measurement with high UI) may affect more the accuracy of the estimated state variables than a detectable gross error (error in a measurement with low UI). Therefore, justifying the importance of studies that make possible gross errors processing in measurements with high UI. In this dissertation, several computational simulations are carried out to analyze the influence of different weights of measurements in the UI index and also in the accuracy of the estimated state variables. It is chosen a way that stood out as the most appropriate for weighing the measurements. Finally, in this dissertation, the studies referring to the UI is extended for a hybrid weighted least squares state estimator.
1377

Contributions en traitements basés points pour le rendu et la simulation en mécanique des fluides / Contributions in point based processing for rendering and fluid simulation

Bouchiba, Hassan 05 July 2018 (has links)
Le nuage de points 3D est la donnée obtenue par la majorité des méthodes de numérisation surfacique actuelles. Nous nous intéressons ainsi dans cette thèse à l'utilisation de nuages de points comme unique représentation explicite de surface. Cette thèse présente deux contributions en traitements basés points. La première contribution proposée est une nouvelle méthode de rendu de nuages de points bruts et massifs par opérateurs pyramidaux en espace image. Cette nouvelle méthode s'applique aussi bien à des nuages de points d'objets scannés, que de scènes complexes. La succession d'opérateurs en espace image permet alors de reconstruire en temps réel une surface et d'en estimer des normales, ce qui permet par la suite d'en obtenir un rendu par ombrage. De plus, l'utilisation d'opérateurs pyramidaux en espace image permet d'atteindre des fréquences d'affichage plus élevées d'un ordre de grandeur que l'état de l'art .La deuxième contribution présentée est une nouvelle méthode de simulation numérique en mécanique des fluides en volumes immergés par reconstruction implicite étendue. La méthode proposée se base sur une nouvelle définition de surface implicite par moindres carrés glissants étendue à partir d'un nuage de points. Cette surface est alors utilisée pour définir les conditions aux limites d'un solveur Navier-Stokes par éléments finis en volumes immergés, qui est utilisé pour simuler un écoulement fluide autour de l'objet représenté par le nuage de points. Le solveur est interfacé à un mailleur adaptatif anisotrope qui permet de capturer simultanément la géométrie du nuage de points et l'écoulement à chaque pas de temps de la simulation. / Most surface 3D scanning techniques produce 3D point clouds. This thesis tackles the problem of using points as only explicit surface representation. It presents two contributions in point-based processing. The first contribution is a new raw and massive point cloud screen-space rendering algorithm. This new method can be applied to a wide variety of data from small objects to complex scenes. A sequence of screen-space pyramidal operators is used to reconstruct in real-time a surface and estimate its normals, which are later used to perform deferred shading. In addition, the use of pyramidal operators allows to achieve framerate one order of magnitude higher than state of the art methods. The second proposed contribution is a new immersed boundary computational fluid dynamics method by extended implicit surface reconstruction. The proposed method is based on a new implicit surface definition from a point cloud by extended moving least squares. This surface is then used to define the boundary conditions of a finite-elements immersed boundary transient Navier-Stokes solver, which is used to compute flows around the object sampled by the point cloud. The solver is interfaced with an anisotropic and adaptive meshing algorithm which refines the computational grid around both the geometry defined by point cloud and the flow at each timestep of the simulation.
1378

Modelling and controlling risk in energy systems

Gonzalez, Jhonny January 2015 (has links)
The Autonomic Power System (APS) grand challenge was a multi-disciplinary EPSRC-funded research project that examined novel techniques that would enable the transition between today's and 2050's highly uncertain and complex energy network. Being part of the APS, this thesis reports on the sub-project 'RR2: Avoiding High-Impact Low Probability events'. The goal of RR2 is to develop new algorithms for controlling risk exposure to high-impact low probability (Hi-Lo) events through the provision of appropriate risk-sensitive control strategies. Additionally, RR2 is concerned with new techniques for identifying and modelling risk in future energy networks, in particular, the risk of Hi-Lo events. In this context, this thesis investigates two distinct problems arising from energy risk management. On the one hand, we examine the problem of finding managerial strategies for exercising the operational flexibility of energy assets. We look at this problem from a risk perspective taking into account non-linear risk preferences of energy asset managers. Our main contribution is the development of a risk-sensitive approach to the class of optimal switching problems. By recasting the problem as an iterative optimal stopping problem, we are able to characterise the optimal risk-sensitive switching strategies. As byproduct, we obtain a multiplicative dynamic programming equation for the value function, upon which we propose a numerical algorithm based on least squares Monte Carlo regression. On the other hand, we develop tools to identify and model the risk factors faced by energy asset managers. For this, we consider a class of models consisting of superposition of Gaussian and non-Gaussian Ornstein-Uhlenbeck processes. Our main contribution is the development of a Bayesian methodology based on Markov chain Monte Carlo (MCMC) algorithms to make inference into this class of models. On extensive simulations, we demonstrate the robustness and efficiency of the algorithms to different data features. Furthermore, we construct a diagnostic tool based on Bayesian p-values to check goodness-of-fit of the models on a Bayesian framework. We apply this tool to MCMC results from fitting historical electricity and gas spot price data- sets corresponding to the UK and German energy markets. Our analysis demonstrates that the MCMC-estimated models are able to capture not only long- and short-lived positive price spikes, but also short-lived negative price spikes which are typical of UK gas prices and German electricity prices. Combining together the solutions to the two problems above, we strive to capture the interplay between risk, uncertainty, flexibility and performance in various applications to energy systems. In these applications, which include power stations, energy storage and district energy systems, we consistently show that our risk management methodology offers a tradeoff between maximising average performance and minimising risk, while accounting for the jump dynamics of energy prices. Moreover, the tradeoff is achieved in such way that the benefits in terms of risk reduction outweigh the loss in average performance.
1379

[en] LINEAR ELASTIC FRACTURE MECHANICS ANALYSIS OF FATIGUE CRACK GROWTH UNDER COMPLEX LOADING USING THE DIGITAL IMAGE CORRELATION TECHNIQUE / [pt] ANÁLISE DO CRESCIMENTO DE TRINCAS DE FADIGA PELA MECÂNICA DE FRATURA ELASTICA LINEAR SOB CARGA COMPLEXA UTILIZANDO A TÉCNICA DE CORRELAÇÃO DE IMAGENS DIGITAIS

JORGE GUILLERMO DIAZ RODRIGUEZ 25 January 2019 (has links)
[pt] A avaliação da propagação de trincas de fadiga inclui a identificação da direção da trinca, o conhecimento do Fator de Intensidade de Tensões (SIF) equivalente, a determinação de uma taxa de crescimento de comprimento de trinca por número de ciclos da/dN e o estabelecimento de uma regra de propagação de trinca conectando SIF e da/dN, como uma regra de tipo Paris. Quando ocorrem cargas mistas e não proporcionais, esses parâmetros ainda não são totalmente compreendidos. Esta tese trata de algumas das variáveis que influenciam a propagação de trincas sob carregamento no modo misto não proporcional. A técnica de Correlação de Imagens Digitais (DIC) foi utilizada para a aquisição de imagens de corpos de prova submetidos a carregamento proporcional e não proporcional cíclico. Dois tipos de corpos de prova foram utilizados. Primeiramente, dois corpos de prova planos foram testados; um disk compact tension (DCT, em inglês) e um compact tension modificado (C (T) em inglês). Eles foram submetidos a carregamento cíclico induzindo o modo I de abertura de trinca ou modos I e II de abertura de trinca proporcionais. Em segundo lugar, os dados DIC adquiridos anteriormente, e em outro lugar, para cinco tubos finos sujeitos a carregamento cíclico foram analisados. Os tubos finos tiveram entalhes usinados a partir dos quais as trincas por fadiga iniciaram e se propagaram. Esses cinco tubos finos foram submetidos a diferentes casos de carga proporcional e não proporcional. Um corpo de prova tipo tubo fino foi exposto a carga axial e apresentou modo de abertura de trinca tipo I. Os outros quatro foram submetidos a carregamento de torção ou carga axial-torcional mista e exibiram todos os três modos de abertura de trinca I, II e III. Os campos de deslocamento adquiridos experimentalmente com a técnica DIC foram processados para calcular independentemente o SIF para cada modo de abertura existente usando formulações de mecânica de fratura elástica linear (MFLE). Uma formulação delas utilizou dados de deslocamento de campo completos adquiridos em pequenas áreas que circundavam a ponta da trinca. Outra formulação usou dados adquiridos de um par de pontos localizados ao longo dos flancos opostos das faces da trinca. Os SIFs determinados foram usados para encontrar os SIFs equivalentes e faixas de SIF equivalentes usando o critério da tensão máxima de tração (para ambas as versões 2D e 3D de combinações dos modos I-II e modos I-II-III respectivamente) que implicitamente incluíram o ângulo de propagação de trinca. Verificou-se que a inclusão do SIF no modo III experimentalmente determinado efetivamente faz diferença nas faixas do SIF e dos SIF equivalentes estimados. A curva da/dN versus faixa do SIF equivalente foi elaborado com as taxas de crescimento de trinca medidas experimentalmente e as faixas de SIF que foram encontradas usando a suposição amplamente aceita de que as trincas cresceram na direção que maximiza a tensão de tração. Para isso, extensões do modelo de Schollmann et. al. e bem como o modelo de Erdogan-Sih, que são geralmente aplicados ao carregamento proporcional, foram usados para determinar os SIFs equivalentes e faixas de SIF equivalentes para os casos de carregamento proporcional e não proporcional. Finalmente, a segunda zona da regra de Paris (da/dN versus faixa do SIF equivalente) foi plotada para os cinco casos de carregamento nos tubos finos mostrando que eles caíram dentro de uma faixa razoavelmente fina e dispersa. / [en] Fatigue crack propagation assessment includes identifying the crack direction, knowing the equivalent Stress Intensity Factor (SIF) range, determining a crack length growth rate per number of cycles (da/dN), and establishing a crack propagation rule connecting the equivalent SIF and da/dN rate, such as a Paris type of rule. When mixed and non-proportional loading occur, those parameters are not fully understood yet. This thesis deals with some of the variables that influence crack propagation under non-proportional mixed mode loading. The Digital Image Correlation (DIC) technique was used to acquire images of test specimens subjected to cyclic proportional and non-proportional loading. Two types of specimen samples were used. Firstly, two different plate test specimens were tested; a disk compact tension (DCT), and a modified compact tension, C(T). They were subjected cyclic loading inducing crack opening mode I or proportional crack opening modes I and II. Secondly, the previously and elsewhere acquired DIC data for five thin tubes subject to cyclic loading were analyzed. The thin tubes had pre-fabricated slit-notches from which fatigue cracks initiated and propagated. Those five thin tubes were subjected to different cases of proportional and non- proportional loading. One tube specimen was exposed to axial loading and presented mode I crack opening. The other four were subjected to torsion loading or mixed axial-torsional loading and exhibited all three I, II and III crack-opening modes. The experimentally acquired DIC displacement fields were processed to independently calculate SIF for each existing opening mode using linear elastic fracture mechanics (LEFM) formulations. One formulation used full field displacement data acquired in small areas that surrounded the crack tip. Another formulation used data acquired from a pair of points located along the opposite crack flanks. The determined SIFs were used to find equivalent SIFs and equivalent SIF ranges using the maximum tensile stress criterion (for both 2D and 3D versions of combinations of modes I-II and modes I-II-III respectively) which implicitly included the crack propagation angle. It was found that the inclusion of the experimentally determined mode III SIF indeed makes a difference in the determined equivalent SIF and equivalent SIF ranges. A da/dN versus equivalent SIF ranges plot was drafted with the experimentally measured crack growth rates and the SIF ranges that were found by using the widely accepted assumption that the cracks grew in the direction that maximizes the tensile stress. For this, extensions of the Schollmann et. al. model as well as of the Erdogan-Sih model, which are generally applied to proportional loading, were used to determine equivalent SIFs and equivalent SIF ranges for the cases of proportional and non-proportional loading. Finally, the second stage of the Paris rule (da/dN versus SIF range) was plotted for the five thin tubes loading cases showing that they fell inside a reasonably thin scattered band.
1380

Impactos da abertura comercial na margem de lucro da indústria brasileira de transformação entre 1990 e 1996: uma análise em dados de painel / Impacts of trade liberalization on the markup pf transformation brazilian industries between 1990 to 1996: a panel data analysis

Felipe de Melo Gil Costa 30 September 2010 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O objetivo principal desta dissertação é analisar os impactos da abertura comercial vista no Brasil no início da década de 1990 entre 1990 a 1996 na margem de lucro das indústrias de transformação passando por três padrões monetários diferentes (cruzeiro, cruzeiro real e real). A especificação e metodologia adotadas no trabalho são as de Goldar e Aggawal (2004), que fazem uma análise de dados em painel para efeitos fixos e randômicos para as indústrias de transformação indianas como um todo e, posteriormente, aplicando os mesmos testes separando os vinte e oito setores da indústria brasileira de transformação em setores de bens de capital e intermediários no primeiro grupo e bens de capital no segundo. Este trabalho ainda inclui esta metodologia aplicando, além das duas já citadas, o teste de mínimos quadrados ordinários (MQO) para permitir uma melhor análise com três testes diferentes antes e depois de separar os setores por meio de variáveis explicativas como barreiras à importação, concentração industrial, participação salarial, produtividade do trabalho, representatividade setorial e variação na taxa de crescimento da produção do setor entre os anos. Conclui-se que o aumento observado na margem de lucro foi impactado significativamente pelas variáveis expostas acima e estes resultados são importantes para que possamos auferir de que forma impactaram positivamente ou contribuíram negativamente na margem de lucro auferida pela indústria brasileira de transformação entre 1990 e 1996.

Page generated in 0.0548 seconds