101 |
Indexace obrazové databáze / Query by Pictorial ExampleVácha, Pavel January 2011 (has links)
Ongoing expansion of digital images requires new methods for sorting, browsing, and sear- ching through huge image databases. This is a domain of Content-Based Image Retrieval (CBIR) systems, which are database search engines for images. A user typically submit a query image or series of images and the CBIR system tries to find and to retrieve the most similar images from the database. Optimally, the retrieved images should not be sensitive to circumstances during their acquisition. Unfortunately, the appearance of natural objects and materials is highly illumination and viewpoint dependent. This work focuses on representation and retrieval of homogeneous images, called textu- res, under the circumstances with variable illumination and texture rotation. We propose a novel illumination invariant textural features based on Markovian modelling of spatial tex- ture relations. The texture is modelled by Causal Autoregressive Random field (CAR) or Gaussian Markov Random Field (GMRF) models, which allow a very efficient estimation of its parameters, without the demanding Monte Carlo minimisation. Subsequently, the estimated model parameters are transformed into the new illumination invariants, which represent the texture. We derived that our textural representation is invariant to changes of illumination intensity and...
|
102 |
Recalage déformable à base de graphes : mise en correspondance coupe-vers-volume et méthodes contextuelles / Graph-based deformable registration : slice-to-volume mapping and context specific methodsFerrante, Enzo 03 May 2016 (has links)
Les méthodes de recalage d’images, qui ont pour but l’alignement de deux ou plusieurs images dans un même système de coordonnées, sont parmi les algorithmes les plus anciens et les plus utilisés en vision par ordinateur. Les méthodes de recalage servent à établir des correspondances entre des images (prises à des moments différents, par différents senseurs ou avec différentes perspectives), lesquelles ne sont pas évidentes pour l’œil humain. Un type particulier d’algorithme de recalage, connu comme « les méthodes de recalage déformables à l’aide de modèles graphiques » est devenu de plus en plus populaire ces dernières années, grâce à sa robustesse, sa scalabilité, son efficacité et sa simplicité théorique. La gamme des problèmes auxquels ce type d’algorithme peut être adapté est particulièrement vaste. Dans ce travail de thèse, nous proposons plusieurs extensions à la théorie de recalage déformable à l’aide de modèles graphiques, en explorant de nouvelles applications et en développant des contributions méthodologiques originales.Notre première contribution est une extension du cadre du recalage à l’aide de graphes, en abordant le problème très complexe du recalage d’une tranche avec un volume. Le recalage d’une tranche avec un volume est le recalage 2D dans un volume 3D, comme par exemple le mapping d’une tranche tomographique dans un système de coordonnées 3D d’un volume en particulier. Nos avons proposé une formulation scalable, modulaire et flexible pour accommoder des termes d'ordre élevé et de rang bas, qui peut sélectionner le plan et estimer la déformation dans le plan de manière simultanée par une seule approche d'optimisation. Le cadre proposé est instancié en différentes variantes, basés sur différentes topologies du graph, définitions de l'espace des étiquettes et constructions de l'énergie. Le potentiel de notre méthode a été démontré sur des données réelles ainsi que des données simulées dans le cadre d’une résonance magnétique d’ultrason (où le cadre d’installation et les stratégies d’optimisation ont été considérés).Les deux autres contributions inclues dans ce travail de thèse, sont liées au problème de l’intégration de l’information sémantique dans la procédure de recalage (indépendamment de la dimensionnalité des images). Actuellement, la plupart des méthodes comprennent une seule fonction métrique pour expliquer la similarité entre l’image source et l’image cible. Nous soutenons que l'intégration des informations sémantiques pour guider la procédure de recalage pourra encore améliorer la précision des résultats, en particulier en présence d'étiquettes sémantiques faisant du recalage un problème spécifique adapté à chaque domaine.Nous considérons un premier scénario en proposant un classificateur pour inférer des cartes de probabilité pour les différentes structures anatomiques dans les images d'entrée. Notre méthode vise à recaler et segmenter un ensemble d'images d'entrée simultanément, en intégrant cette information dans la formulation de l'énergie. L'idée principale est d'utiliser ces cartes estimées des étiquettes sémantiques (fournie par un classificateur arbitraire) comme un substitut pour les données non-étiquettées, et les combiner avec le recalage déformable pour améliorer l'alignement ainsi que la segmentation.Notre dernière contribution vise également à intégrer l'information sémantique pour la procédure de recalage, mais dans un scénario différent. Dans ce cas, au lieu de supposer que nous avons des classificateurs arbitraires pré-entraînés à notre disposition, nous considérons un ensemble d’annotations précis (vérité terrain) pour une variété de structures anatomiques. Nous présentons une contribution méthodologique qui vise à l'apprentissage des critères correspondants au contexte spécifique comme une agrégation des mesures de similarité standard à partir des données annotées, en utilisant une adaptation de l’algorithme « Latent Structured Support Vector Machine ». / Image registration methods, which aim at aligning two or more images into one coordinate system, are among the oldest and most widely used algorithms in computer vision. Registration methods serve to establish correspondence relationships among images (captured at different times, from different sensors or from different viewpoints) which are not obvious for the human eye. A particular type of registration algorithm, known as graph-based deformable registration methods, has become popular during the last decade given its robustness, scalability, efficiency and theoretical simplicity. The range of problems to which it can be adapted is particularly broad. In this thesis, we propose several extensions to the graph-based deformable registration theory, by exploring new application scenarios and developing novel methodological contributions.Our first contribution is an extension of the graph-based deformable registration framework, dealing with the challenging slice-to-volume registration problem. Slice-to-volume registration aims at registering a 2D image within a 3D volume, i.e. we seek a mapping function which optimally maps a tomographic slice to the 3D coordinate space of a given volume. We introduce a scalable, modular and flexible formulation accommodating low-rank and high order terms, which simultaneously selects the plane and estimates the in-plane deformation through a single shot optimization approach. The proposed framework is instantiated into different variants based on different graph topology, label space definition and energy construction. Simulated and real-data in the context of ultrasound and magnetic resonance registration (where both framework instantiations as well as different optimization strategies are considered) demonstrate the potentials of our method.The other two contributions included in this thesis are related to how semantic information can be encompassed within the registration process (independently of the dimensionality of the images). Currently, most of the methods rely on a single metric function explaining the similarity between the source and target images. We argue that incorporating semantic information to guide the registration process will further improve the accuracy of the results, particularly in the presence of semantic labels making the registration a domain specific problem.We consider a first scenario where we are given a classifier inferring probability maps for different anatomical structures in the input images. Our method seeks to simultaneously register and segment a set of input images, incorporating this information within the energy formulation. The main idea is to use these estimated maps of semantic labels (provided by an arbitrary classifier) as a surrogate for unlabeled data, and combine them with population deformable registration to improve both alignment and segmentation.Our last contribution also aims at incorporating semantic information to the registration process, but in a different scenario. In this case, instead of supposing that we have pre-trained arbitrary classifiers at our disposal, we are given a set of accurate ground truth annotations for a variety of anatomical structures. We present a methodological contribution that aims at learning context specific matching criteria as an aggregation of standard similarity measures from the aforementioned annotated data, using an adapted version of the latent structured support vector machine (LSSVM) framework.
|
103 |
Recalage/Fusion d'images multimodales à l'aide de graphes d'ordres supérieurs / Registration/Fusion of multimodal images using higher order graphsFécamp, Vivien 12 January 2016 (has links)
L’objectif principal de cette thèse est l’exploration du recalage d’images à l’aide de champs aléatoires de Markov d’ordres supérieurs, et plus spécifiquement d’intégrer la connaissance de transformations globales comme une transformation rigide, dans la structure du graphe. Notre cadre principal s’applique au recalage 2D-2D ou 3D-3D et utilise une approche hiérarchique d’un modèle de champ de Markov dont le graphe est une grille régulière. Les variables cachées sont les vecteurs de déplacements des points de contrôle de la grille.Tout d’abord nous expliciterons la construction du graphe qui permet de recaler des images en cherchant entre elles une transformation affine, rigide, ou une similarité, tout en ne changeant qu’un potentiel sur l’ensemble du graphe, ce qui assure une flexibilité lors du recalage. Le choix de la métrique est également laissée à l’utilisateur et ne modifie pas le fonctionnement de notre algorithme. Nous utilisons l’algorithme d’optimisation de décomposition duale qui permet de gérer les hyper-arêtes du graphe et qui garantit l’obtention du minimum exact de la fonction pourvu que l’on ait un accord entre les esclaves. Un graphe similaire est utilisé pour réaliser du recalage 2D-3D.Ensuite, nous fusionnons le graphe précédent avec un autre graphe construit pour réaliser le recalage déformable. Le graphe résultant de cette fusion est plus complexe et, afin d’obtenir un résultat en un temps raisonnable, nous utilisons une méthode d’optimisation appelée ADMM (Alternating Direction Method of Multipliers) qui a pour but d’accélérer la convergence de la décomposition duale. Nous pouvons alors résoudre simultanément recalage affine et déformable, ce qui nous débarrasse du biais potentiel issu de l’approche classique qui consiste à recaler affinement puis de manière déformable. / The main objective of this thesis is the exploration of higher order Markov Random Fields for image registration, specifically to encode the knowledge of global transformations, like rigid transformations, into the graph structure. Our main framework applies to 2D-2D or 3D-3D registration and use a hierarchical grid-based Markov Random Field model where the hidden variables are the displacements vectors of the control points of the grid.We first present the construction of a graph that allows to perform linear registration, which means here that we can perform affine registration, rigid registration, or similarity registration with the same graph while changing only one potential. Our framework is thus modular regarding the sought transformation and the metric used. Inference is performed with Dual Decomposition, which allows to handle the higher order hyperedges and which ensures the global optimum of the function is reached if we have an agreement among the slaves. A similar structure is also used to perform 2D-3D registration.Second, we fuse our former graph with another structure able to perform deformable registration. The resulting graph is more complex and another optimisation algorithm, called Alternating Direction Method of Multipliers is needed to obtain a better solution within reasonable time. It is an improvement of Dual Decomposition which speeds up the convergence. This framework is able to solve simultaneously both linear and deformable registration which allows to remove a potential bias created by the standard approach of consecutive registrations.
|
104 |
Phase transitions and multifractal properties of random field Ising modelsNowotny, Thomas 29 November 2001 (has links)
In dieser Arbeit werden Zufallsfeld-Ising-Modelle mit einem eingefrorenen dichotomen symmetrischen Zufallsfeld für den eindimensionalen Fall und das Bethe-Gitter untersucht. Dabei wird die kanonische Zustandssumme zu der eines einzelnen Spins in einem effektiven Feld umformuliert. Im ersten Teil der Arbeit werden das mulktifraktale Spektrum dieses effektiven Feldes untersucht, Übergänge im Spektrum erklärt und Ungleichungen zwischen lokalen und globalen Dimensionsbegriffen bewiesen, die eine weitgehend vollständige Charakterisierung des multifraktalen Spektrums durch eine Reihe von Schranken erlauben. Ein weiterer Teil der Arbeit beschäftigt sich mit einer ähnlichen Charakterisierung des Maßes der lokalen Magnetisierung, das aus dem Maß des effektiven Feldes durch Faltung hervorgeht. In diesem Zusammenhang wird die Faltung von Multifraktalen in einem allgemeineren Rahmen behandelt und Zusammenhänge zwischen den multifraktalen Eigenschaften der Faltung und denen der gefalteten Maße bewiesen. Im dritten Teil der Dissertation wird der Phasenübergang von Ferro- zu Paramagnetismus im Modell auf dem Bethe Gitter untersucht. Neben verbesserten exakten Schranken für die Eindeutigkeit des paramagnetischen Zustands werden im wesentlichen drei Kriterien für die tatsächliche Lage des Übergangs angegeben und numerisch ausgewertet. Die multifraktalen Eigenschaften des effektiven Felds im Modell auf dem Bethe-Gitter schließlich erweisen sich als trivial, da die interessanten Dimensionen nicht existieren. / In this work random field Ising models with quenched dichotomous symmetric random field are considered for the one-dimensional case and on the Bethe lattice. To this end the canonical partition function is reformulated to the partition function of one spin in an effective field. In the first part of the work the multifractal spectrum of this effective field is investigated, transitions in the spectrum are explained and inequalities between local and global generalized fractal dimensions are proven which allow to characterize the multifractal spectrum bei various bounds. A further part of the work is dedicated to the characterization of the measure of the local magnetization which is obtained by convolution of the measure of the effective field with itself. In this context the convolution of multifractals is investigated in a more general setup and relations between the multifractal properties of the convolution and the multifractal properties of the convoluted measures are proven. The phase transition from ferro- to paramagnetismus for the model on the Bethe lattice is investigated in the third part of the thesis. Apart from improved exact bounds for the uniqueness of the paramagnetic state essentially three criteria for the transition are developped and numerically evaluated to determine the transition line. The multifractal properties of the effective field for the model on the Bethe lattice finally turn out to be trivial because the interesting dimensions do not exist.
|
105 |
Odhad varianční matice pro filtraci ve vysoké dimenzi / Covariance estimation for filtering in high dimensionTurčičová, Marie January 2021 (has links)
Estimating large covariance matrices from small samples is an important problem in many fields. Among others, this includes spatial statistics and data assimilation. In this thesis, we deal with several methods of covariance estimation with emphasis on regula- rization and covariance models useful in filtering problems. We prove several properties of estimators and propose a new filtering method. After a brief summary of basic esti- mating methods used in data assimilation, the attention is shifted to covariance models. We show a distinct type of hierarchy in nested models applied to the spectral diagonal covariance matrix: explicit estimators of parameters are computed by the maximum like- lihood method and asymptotic variance of these estimators is shown to decrease when the maximization is restricted to a subspace that contains the true parameter value. A similar result is obtained for general M-estimators. For more complex covariance mo- dels, maximum likelihood method cannot provide explicit parameter estimates. In the case of a linear model for a precision matrix, however, consistent estimator in a closed form can be computed by the score matching method. Modelling of the precision ma- trix is particularly beneficial in Gaussian Markov random fields (GMRF), which possess a sparse precision matrix. The...
|
106 |
SEGMENTATION OF WHITE MATTER, GRAY MATTER, AND CSF FROM MR BRAIN IMAGES AND EXTRACTION OF VERTEBRAE FROM MR SPINAL IMAGESPENG, ZHIGANG 02 October 2006 (has links)
No description available.
|
107 |
Cardiac MRI segmentation with conditional random fieldsDreijer, Janto Frederick 12 1900 (has links)
Thesis (PhD)-- Stellenbosch University, 2013. / ENGLISH ABSTRACT: This dissertation considers automatic segmentation of the left cardiac ventricle in short
axis magnetic resonance images. The presence of papillary muscles near the endocardium
border makes simple threshold based segmentation difficult.
The endo- and epicardium are modelled as two series of radii which are inter-related using
features describing shape and motion. Image features are derived from edge information
from human annotated images. The features are combined within a Conditional Random
Field (CRF) – a discriminatively trained probabilistic model. Loopy belief propagation
is used to infer segmentations when an unsegmented video sequence is given. Powell’s
method is applied to find CRF parameters by minimising the difference between ground
truth annotations and the inferred contours. We also describe how the endocardium centre
points are calculated from a single human-provided centre point in the first frame, through
minimisation of frame alignment error.
We present and analyse the results of segmentation. The algorithm exhibits robustness
against inclusion of the papillary muscles by integrating shape and motion information.
Possible future improvements are identified. / AFRIKAANSE OPSOMMING: Hierdie proefskrif bespreek die outomatiese segmentasie van die linkerhartkamer in kortas
snit magnetiese resonansie beelde. Die teenwoordigheid van die papillêre spiere naby
die endokardium grens maak eenvoudige drumpel gebaseerde segmentering moeilik.
Die endo- en epikardium word gemodelleer as twee reekse van die radiusse wat beperk
word deur eienskappe wat vorm en beweging beskryf. Beeld eienskappe word afgelei van
die rand inligting van mens-geannoteerde beelde. Die funksies word gekombineer binne ’n
CRF (Conditional Random Field) – ’n diskriminatief afgerigte waarskynlikheidsverdeling.
“Loopy belief propagation” word gebruik om segmentasies af te lei wanneer ’n ongesegmenteerde
video verskaf word. Powell se metode word toegepas om CRF parameters te
vind deur die minimering van die verskil tussen mens geannoteerde segmentasies en die
afgeleide kontoere. Ons beskryf ook hoe die endokardium se middelpunte bereken word
vanaf ’n enkele mens-verskafte middelpunt in die eerste raam, deur die minimering van ’n
raambelyningsfout.
Ons analiseer die resultate van segmentering. Die algoritme vertoon robuustheid teen
die insluiting van die papillêre spiere deur die integrasie van inligting oor die vorm en die
beweging. Moontlike toekomstige verbeterings word geïdentifiseer.
|
108 |
Stochastic image models and texture synthesis / Modèles d’image aléatoires et synthèse de textureGalerne, Bruno 09 December 2010 (has links)
Cette thèse est une étude de modèles d'image aléatoires avec des applications en synthèse de texture.Dans la première partie de la thèse, des algorithmes de synthèse de texture basés sur le modèle shot noise sont développés. Dans le cadre discret, deux processus aléatoires, à savoir le shot noise discret asymptotique et le bruit à phase aléatoire, sont étudiés. On élabore ensuite un algorithme rapide de synthèse de texture basé sur ces processus. De nombreuses expériences démontrent que cet algorithme permet de reproduire une certaine classe de textures naturelles que l'on nomme micro-textures. Dans le cadre continu, la convergence gaussienne des modèles shot noise est étudiée d'avantage et de nouvelles bornes pour la vitesse de cette convergence sont établies. Enfin, on présente un nouvel algorithme de synthèse de texture procédurale par l'exemple basé sur le récent modèle Gabor noise. Cet algorithme permet de calculer automatiquement un modèle procédural représentant des micro-textures naturelles.La deuxième partie de la thèse est consacrée à l'étude du processus feuilles mortes transparentes (FMT), un nouveau modèle germes-grains obtenu en superposant des objets semi-transparents. Le résultat principal de cette partie montre que, lorsque la transparence des objets varie, le processus FMT fournit une famille de modèles variant du modèle feuilles mortes à un champ gaussien. Dans la troisième partie de la thèse, les champs aléatoires à variation bornés sont étudiés et on établit des résultats généraux sur le calcul de la variation totale moyenne de ces champs. En particulier, ces résultats généraux permettent de calculer le périmètre moyen des ensembles aléatoires et de calculer explicitement la variation totale moyenne des modèles germes-grains classiques. / This thesis is a study of stochastic image models with applications to texture synthesis. Most of the stochastic texture models under investigation are germ-grain models. In the first part of the thesis, texture synthesis algorithms relying on the shot noise model are developed. In the discrete framework, two different random processes, namely the asymptotic discrete spot noise and the random phase noise, are theoretically and experimentally studied. A fast texture synthesis algorithm relying on these random processes is then elaborated. Numerous results demonstrate that the algorithm is able to reproduce a class of real-world textures which we call micro-textures. In the continuous framework, the Gaussian convergence of shot noise models is further studied and new bounds for the rate of this convergence are established. Finally, a new algorithm for procedural texture synthesis from example relying on the recent Gabor noise model is presented. This new algorithm permits to automatically compute procedural models for real-world micro-textures. The second part of the thesis is devoted to the introduction and study of the transparent dead leaves (TDL) process, a new germ-grain model obtained by superimposing semi-transparent objects. The main result of this part shows that, when varying the transparency of the objects, the TDL process provides a family of models varying from the dead leaves model to a Gaussian random field. In the third part of the thesis, general results on random fields with bounded variation are established with an emphasis on the computation of the mean total variation of random fields. As particular cases of interest, these general results permit the computation of the mean perimeter of random sets and of the mean total variation of classical germ-grain models.
|
109 |
Modèles d'encodage parcimonieux de l'activité cérébrale mesurée par IRM fonctionnelle / Parsimonious encoding models for brain activity measured by functional MRIBakhous, Christine 10 December 2013 (has links)
L'imagerie par résonance magnétique fonctionnelle (IRMf) est une technique non invasive permettant l'étude de l'activité cérébrale au travers des changements hémodynamiques associés. Récemment, une technique de détection-estimation conjointe (DEC) a été développée permettant d'alterner (1) la détection de l'activité cérébrale induite par une stimulation ainsi que (2) l'estimation de la fonction de réponse hémodynamique caractérisant la dynamique vasculaire; deux problèmes qui sont généralement traités indépendamment. Cette approche considère une parcellisation a priori du cerveau en zones fonctionnellement homogènes et alterne (1) et (2) sur chacune d'entre elles séparément. De manière standard, l'analyse DEC suppose que le cerveau entier peut être activé par tous les types de stimuli (visuel, auditif, etc.). Cependant la spécialisation fonctionnelle des régions cérébrales montre que l'activité d'une région n'est due qu'à certains types de stimuli. La prise en compte de stimuli non pertinents dans l'analyse, peut dégrader les résultats. La sous-famille des types de stimuli pertinents n'étant pas la même à travers le cerveau une procédure de sélection de modèles serait très coûteuse en temps de calcul. De plus, une telle sélection a priori n'est pas toujours possible surtout dans les cas pathologiques. Ce travail de thèse propose une extension de l'approche DEC permettant la sélection automatique des conditions (types de stimuli) pertinentes selon l'activité cérébrale qu'elles suscitent, cela simultanément à l'analyse et adaptativement à travers les régions cérébrales. Des exemples d'analyses sur des jeux de données simulés et réels, illustrent la capacité de l'approche DEC parcimonieuse proposée à sélectionner les conditions pertinentes ainsi que son intérêt par rapport à l'approche DEC standard. / Functional magnetic resonance imaging (fMRI) is a noninvasive technique allowing the study of brain activity via the measurement of hemodynamic changes. Recently, a joint detection-estimation (JDE) framework was developed and relies on both (1) the brain activity detection and (2) the hemodynamic response function estimation, two steps that are generally addressed in a separate way. The JDE approach is a parcel-based model that alternates (1) and (2) on each parcel successively. The JDE analysis assumes that all delivered stimuli (e.g. visual, auditory, etc.) possibly generate a response everywhere in the brain although activation is likely to be induced by only some of them in specific brain areas. Inclusion of irrelevant events may degrade the results. Since the relevant conditions or stimulus types can change between different brain areas, a model selection procedure will be computationally expensive. Furthermore, criteria are not always available to select the relevant conditions prior to activation detection, especially in pathological cases. The goal of this work is to develop a JDE extension allowing an automatic selection of the relevant conditions according to the brain activity they elicit. This condition selection is done simultaneously to the analysis and adaptively through the different brain areas. Analysis on simulated and real datasets illustrate the ability of our model to select the relevant conditions and its interest compare to the standard JDE analysis.
|
110 |
Hydrologic Impacts Of Clmate Change : Quantification Of UncertaintiesRaje, Deepashree 12 1900 (has links)
General Circulation Models (GCMs), which are mathematical models based on principles of fluid dynamics, thermodynamics and radiative transfer, are the most reliable tools available for projecting climate change. However, the spatial scale on which typical GCMs operate is very coarse as compared to that of a hydrologic process and hence, the output from a GCM cannot be directly used in hydrologic models. Statistical Downscaling (SD) derives a statistical or empirical relationship between the variables simulated by the GCM (predictors) and a point-scale meteorological series (predictand). In this work, a new downscaling model called CRF-downscaling model, is developed where the conditional distribution of the hydrologic predictand sequence, given atmospheric predictor variables, is represented as a conditional random field (CRF) to downscale the predictand in a probabilistic framework. Features defined in the downscaling model capture information about various factors influencing precipitation such as circulation patterns, temperature and pressure gradients and specific humidity levels. Uncertainty in prediction is addressed by projecting future cumulative distribution functions (CDFs) for a number of most likely precipitation sequences. Direct classification of dry/wet days as well as precipitation amount is achieved within a single modeling framework, and changes in the non-parametric distribution of precipitation and dry and wet spell lengths are projected. Application of the method is demonstrated with the case study of downscaling to daily precipitation in the Mahanadi basin in Orissa, with the A1B scenario of the MIROC3.2 GCM from the Center for Climate System Research (CCSR), Japan.
An uncertainty modeling framework is presented in this work, which combines GCM, scenario and downscaling uncertainty using the Dempster-Shafer (D-S) evidence theory for representing and combining uncertainty. The methodology for combining uncertainties is applied to projections of hydrologic drought in terms of monsoon standardized streamflow index (SSFI-4) from streamflow projections for the Mahanadi river at Hirakud. The results from the work indicate an increasing probability of extreme, severe and moderate drought and decreasing probability of normal to wet conditions, as a result of a decrease in monsoon streamflow in the Mahanadi river due to climate change.
In most studies to date, the nature of the downscaling relationship is assumed stationary, or remaining unchanged in a future climate. In this work, an uncertainty modeling framework is presented in which, in addition to GCM and scenario uncertainty, uncertainty in the downscaling relationship itself is explored by linking downscaling with changes in frequencies of modes of natural variability. Downscaling relationships are derived for each natural variability cluster and used for projections of hydrologic drought. Each projection is weighted with the future projected frequency of occurrence of that cluster, called ‘cluster-linking’, and scaled by the GCM performance with respect to the associated cluster for the present period, called ‘frequency scaling’. The uncertainty modeling framework is applied to a case study of projections of hydrologic drought or SSFI-4 classifications, using projected streamflows for the Mahanadi river at Hirakud. It is shown that a stationary downscaling relationship will either over- or under-predict downscaled hydrologic variable values and associated uncertainty. Results from the work show improved agreement between GCM predictions at the regional scale, which are validated for the 20th century, implying that frequency scaling and cluster-linking may indeed be a valid method for constraining uncertainty.
To assess the impact of climate change on reservoir performance, in this study, a range of integrated hydrologic scenarios are projected for the future. The hydrologic scenarios incorporate increased irrigation demands; rule curves dictated by increased need for flood storage and downscaled projections of streamflow from an ensemble of GCMs and emission scenarios. The impact of climate change on multipurpose reservoir performance is quantified, using annual hydropower and RRV criteria, under GCM and scenario uncertainty. The ‘business-as-usual’ case using Standard Operating Policy (SOP) is studied initially for quantifying impacts. Adaptive Stochastic Dynamic Programming (SDP) policies are subsequently derived for the range of future hydrologic scenarios, with the objective of maximizing reliabilities with respect to multiple reservoir purposes of hydropower, irrigation and flood control. It is shown that the hydrologic impact of climate change is likely to result in decreases in performance criteria and annual hydropower generation for Hirakud reservoir. Adaptive policies show that a marginal reduction in irrigation and flood control reliability can achieve increased hydropower reliability in future. Hence, reservoir rules for flood control may have to be revised in the future.
|
Page generated in 0.0715 seconds